Connect with us
La firma

‘Deepfakes’ en los juzgados: cuando la prueba miente mejor que tú

"El proceso puede convertirse en un teatro de sombras"

La problemática del 'deepfake' la ha regulado el RIA europeo y también un país como España, según explica el abogado Carlos Bravo. (Imagen: E&J)

Carlos Bravo Díaz

Abogado Laboral y Graduado Social. Director de Acción Legal Emprende




Tiempo de lectura: 4 min

Publicado




La firma

‘Deepfakes’ en los juzgados: cuando la prueba miente mejor que tú

"El proceso puede convertirse en un teatro de sombras"

La problemática del 'deepfake' la ha regulado el RIA europeo y también un país como España, según explica el abogado Carlos Bravo. (Imagen: E&J)

El vídeo es impecable. Demasiado impecable. Un alto cargo aparece explicando cómo, por urgencia, se adjudicaron contratos millonarios sin concurrencia real. La voz encaja, los labios también, cada gesto parece una confesión. En 2025 la perfección ya no tranquiliza, inquieta. Cuando la imagen puede fabricarse, la verdad deja de estar a simple vista.

En una sociedad que defendió la verdad con pruebas tangibles, los deepfakes, plantean un desafío inédito. Ya no hablamos de montajes burdos. Hablamos de una IA capaz de mentir con más precisión que un testigo o un profesional. Si la justicia no aprende a detectar, verificar y contextualizar, el proceso puede convertirse en un teatro de sombras.



Europa ha reaccionado. El Reglamento de la Unión Europea 2024/1689 sobre Inteligencia Artificial, conocido como AI Act, está en vigor desde agosto de 2024. Su artículo 50 impone la obligación de etiquetar los contenidos sintéticos y de avisar cuando una persona interactúa con un sistema de IA. Es la etiqueta nutricional de lo artificial, clave para diferenciar ante un juez lo original de lo fabricado.



España ha ido más allá. En marzo de 2025 el Gobierno presentó un proyecto de ley que sanciona la difusión de deepfakes no etiquetados con multas de hasta 35 millones de euros o hasta el 7 por ciento de la facturación global. El mensaje es claro. La manipulación sintética deja de ser un problema reputacional y se convierte en riesgo regulatorio.

La realidad nacional confirma la necesidad. El Instituto Nacional de Ciberseguridad, INCIBE, registró en 2024 más de 97.000 incidentes de ciberseguridad, un 16,6 por ciento más que el año anterior. De esos, un 27% estuvieron relacionados con fraudes de suplantación de identidad y un 12% específicamente con clonación de voz o vídeo. A nivel europeo, Eurostat reportó que uno de cada cuatro ciudadanos de la UE sufrió algún intento de fraude digital en 2024.

Los ejemplos no faltan. El teléfono 017 de INCIBE, que es la Línea de Ayuda en Ciberseguridad, ha documentado estafas en las que se clona la voz de un familiar para pedir dinero de urgencia. El llamado fraude del CEO evoluciona sobre el mismo patrón: audios sintéticos de directivos ordenando transferencias inmediatas. Según un informe de Deloitte 2024, el 75% de las empresas europeas ya reconoce el fraude digital como una de sus cinco principales amenazas operativas, y el fraude con deepfakes ha crecido un 310% en solo dos años. En Vigo, un contable transfirió más de 100.000 euros tras atender una videollamada deepfake que reproducía la imagen y la voz de su superior. La lección es doble: la apariencia engaña y el contexto manda.

Un ‘deepfake’ de la actriz Jennifer Lawrence puede vulnerar el derecho al honor y a la propia imagen. (Imagen: PBS)

En los juzgados el reto es probatorio. El Tribunal Supremo ya lo venía señalando. La sentencia 300/2015, de 19 de mayo, marcó un antes y un después en la valoración de la prueba digital, dejando claro que un simple pantallazo no basta. Para que una prueba digital sea válida hay que acreditar origen, identidad e integridad. Quién realizó la comunicación, con qué dispositivo se generó y que el contenido no haya sido manipulado. En resoluciones posteriores la Sala Segunda ha reiterado esta doctrina y ha exigido pericial técnica cuando se discute la autenticidad de mensajes, audios o correos. Con los deepfakes ese estándar deja de ser recomendable y pasa a ser mínimo constitucional.

Esto exige tres movimientos. Una cadena de custodia ampliada que conserve no solo el archivo, sino también su historial digital y, cuando existan, las credenciales de contenido. Una pericial forense sólida que analice huellas de manipulación, desalineaciones entre audio y labios o metadatos criptográficos, y que pueda reproducir el proceso de generación cuando proceda. Y una carga dinámica de la prueba que obligue a quien aporte un vídeo o audio a acreditar algo más que su existencia: su trazabilidad.

El plano institucional tampoco es menor. Para administraciones y medios, el AI Act llega con calendario. Transparencia, gestión de riesgos, supervisión humana reforzada en sistemas de alto riesgo, registros y auditorías. Un informe reciente de la Comisión Europea  en 2024 estima que más del 40% de las administraciones públicas aún no disponen de protocolos internos para detectar contenidos sintéticos, pese a que el plazo de adaptación vence en 2026. En clave probatoria, esto significa protocolos internos que identifiquen los contenidos sintéticos, documenten los flujos de decisión y soporten preguntas del juez sobre políticas y trazabilidad con la misma naturalidad con la que hoy se pide cadena de custodia. Cumplir ya no será un gesto de imagen. Cumplir será probar.

Para empresas y despachos la receta es clara. Gobernanza. Estándares de procedencia en la captura y edición de material sensible, cláusulas contractuales que exijan credenciales digitales cuando el proveedor pueda aplicarlas y verificación doble de identidad en órdenes críticas por voz o vídeo. La llamada de retorno por un canal alternativo, la identificación reforzada y el registro sistemático deben dejar de ser protocolos opcionales para convertirse en práctica habitual. Nada épico. Todo importante.

Queda la dimensión humana. Qué siente un ciudadano al saber que un vídeo en su contra puede fabricarse en horas. La indefensión invisible erosiona la confianza tanto como una nulidad procesal. No basta con tener razón. Hay que demostrar que la prueba que la sostiene no ha sido parida por un algoritmo. Una encuesta de Ipsos 2024 muestra que el 68% de los europeos teme que los deepfakes afecten directamente a su vida privada o laboral.

La conclusión no es tecnológica. Es constitucional. Sin explicabilidad y sin trazabilidad la sala de vistas se convierte en un teatro de sombras donde gana la pieza más convincente y no la más verdadera. La inteligencia artificial puede mentir mejor que nosotros. Lo que no puede es probar mejor que nosotros si hacemos nuestro trabajo.

En manos equivocadas la inteligencia artificial no será la herramienta de la justicia. Será su acusador implacable. Y si dejamos que esa lógica avance sin freno, lo peligroso no serán las pruebas falsas, serán las pruebas sin alma.

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.