Connect with us
Noticias Jurídicas

La irresponsable decisión de la UE sobre la transparencia Digital en la Ley Omnibus

Una crítica a la postergación de las obligaciones de transparencia del artículo 50, un retraso especialmente preocupante en plena era de los deepfakes y en el contexto del reciente lanzamiento de Nano Banana Pro

(Imagen: E&J)

Pablo Sáez Hurtado

Abogado y asesor jurídico multidisciplinar especializado en derecho digital y consultor Legaltech/Al Business Artificial Intelligence Development & Legal Manager en Skiller Academy -Presidente de la «comisión» / «grupo joven» de ENATIC Director general de «BeAI Foundation»




Tiempo de lectura: 5 min

Publicado




Noticias Jurídicas

La irresponsable decisión de la UE sobre la transparencia Digital en la Ley Omnibus

Una crítica a la postergación de las obligaciones de transparencia del artículo 50, un retraso especialmente preocupante en plena era de los deepfakes y en el contexto del reciente lanzamiento de Nano Banana Pro

(Imagen: E&J)

I. El despertar del hiperrealismo: implicaciones jurídicas de Nano Banana Pro

El 20 de noviembre de 2025, Google DeepMind desveló Nano Banana Pro, un modelo de inteligencia artificial generativa que no solo perfecciona la creación de imágenes hasta un fotorrealismo 4K indistinguible de la realidad, sino que, de manera crucial, solventa una de las últimas fronteras técnicas: la renderización de texto nítido y contextualizado dentro de las propias imágenes [3]. Este avance, que a primera vista parece un mero progreso tecnológico, supone un punto de inflexión con profundas y alarmantes implicaciones para el mundo jurídico. La capacidad de generar, a bajo coste y con una accesibilidad sin precedentes —a través de su integración en herramientas como Google Workspace y Adobe Photoshop [4]—, documentos, pruebas o comunicados falsos con una verosimilitud absoluta, dinamita los cimientos sobre los que se asienta la confianza en la evidencia digital.

Para el ordenamiento jurídico, el desafío es existencial. ¿Cómo podrá un tribunal discernir la autenticidad de un contrato, un correo electrónico o una prueba videográfica si la tecnología para su falsificación perfecta está al alcance de cualquiera? La proliferación del fenómeno deepfake, que se proyecta alcanzará los 8 millones de archivos en 2025 —un crecimiento del 1.500% respecto al año anterior [1]—, encuentra en Nano Banana Pro su catalizador definitivo. Esta tecnología no solo exacerba la crisis de la desinformación y la manipulación electoral, sino que crea un nuevo paradigma para delitos como la estafa, la suplantación de identidad, el acoso y la difamación. El hecho de que el 98% del contenido deepfake existente sea de naturaleza pornográfica y no consentida [5] subraya la urgencia de establecer mecanismos de control y rendición de cuentas.

Global IA

La llegada de Nano Banana Pro no es una simple actualización de software; es la materialización de un escenario donde la verdad se vuelve maleable. Los sistemas judiciales se enfrentan a una crisis de confianza epistémica: si cualquier prueba digital puede ser falsificada, ¿cómo garantizamos la justicia? La respuesta reside en las obligaciones de transparencia. Sin embargo, justo cuando esta necesidad se vuelve más apremiante, Europa decide postergar las salvaguardas que había prometido implementar.

MFL ITTI

(Imagen: E&J)

Suscríbete a nuestra
NEWSLETTER

II. El vacío deliberado: crítica a la postergación del artículo 50 del AI Act

En este contexto de disrupción tecnológica, la respuesta de la Unión Europea ha sido desconcertante. El Reglamento de Inteligencia Artificial (AI Act), aprobado en junio de 2024, fue la respuesta audaz de Europa para liderar una regulación de la IA centrada en el ser humano. Su artículo 50.2 se erigía como una de las salvaguardas más importantes: la obligación para los proveedores de sistemas de IA de marcar el contenido sintético (imagen, vídeo, audio o texto) en un formato legible por máquina (machine-readable) que permita su identificación inequívoca como artificial [6]. Esta medida, crucial para la trazabilidad y la lucha contra la desinformación, debía entrar en vigor a mediados de 2026, otorgando un plazo razonable para su implementación técnica.

Sin embargo, la propuesta de Reglamento Ómnibus Digital, presentada por la Comisión Europea el 19 de noviembre de 2025, ha decidido unilateralmente dinamitar este calendario. Bajo el pretexto de “reducir costes” y facilitar una transición “suave” para la industria, la Comisión propone postergar la aplicación de esta obligación de transparencia hasta agosto de 2027 [7]. Esta decisión, que en la práctica concede una amnistía regulatoria de casi tres años a los sistemas de IA ya en el mercado, es una abdicación de responsabilidad incomprensible. Organizaciones como Amnistía Internacional han sido tajantes, advirtiendo que la propuesta “echará por tierra la rendición de cuentas sobre derechos digitales” [8]. Por su parte, noyb, la organización europea de defensa de la privacidad, denunció que la Comisión “quiere echar por tierra los principios básicos del RGPD” [9].

La crítica no es menor: se está creando deliberadamente un vacío legal en el momento de mayor vulnerabilidad. La justificación económica palidece frente al coste social y democrático. Las cifras son elocuentes: solo en el primer trimestre de 2025, las pérdidas por fraudes con deepfakes superaron los 200 millones de dólares en Norteamérica [10], y el 21% de los incidentes de ciberseguridad en Europa ya involucran esta tecnología [11]. Cada día de retraso se traduce en más víctimas de violencia de género digital, más fraudes y más erosión de la confianza democrática.

Característica Reglamento de IA (artículo 50.2) Propuesta Ómnibus Digital
Obligación principal Marcar contenido sintético en formato machine-readable Mantiene la obligación
Fecha de aplicación Junio 2026 (24 meses tras entrada en vigor) Agosto 2027 (para sistemas existentes)
Justificación Protección de los usuarios y transparencia Reducción de costes y cargas administrativas
Impacto inmediato Creación de un estándar de transparencia ex ante Generación de un vacío regulatorio de facto
Recomendación Implementación acelerada de estándares técnicos Revisión urgente para alinear con el AI Act

III. La inconveniencia de la pasividad: una reflexión sobre la postura europea

La decisión de postergar las obligaciones de transparencia del artículo 50.2 revela una profunda y peligrosa miopía estratégica por parte de la Comisión Europea. Resulta a todas luces inconveniente y negligente relajar las exigencias de transparencia justo cuando la tecnología ha alcanzado un nivel de hiperrealismo extremo. La postura de Europa, que aspira a ser un líder global en regulación digital, se torna insostenible cuando sus acciones contradicen la urgencia manifiesta de la realidad. Mientras herramientas como Nano Banana Pro y otros generadores de vídeo ya operan con una capacidad que desafía la percepción humana, Bruselas opta por mirar hacia otro lado, priorizando una supuesta comodidad industrial sobre la protección de los derechos fundamentales y la estabilidad democrática.

Este enfoque contrasta radicalmente con la proactividad de Estados miembros como Dinamarca, que, consciente de la amenaza, ha impulsado reformas en su legislación de derechos de autor para proteger la imagen personal frente a los deepfakes [13]. La pasividad europea no solo es inconveniente, sino que envía una señal equívoca al mercado: la innovación puede avanzar sin un correlato de responsabilidad. Nos encontramos en un “momento Oppenheimer” para la verdad digital, un punto de inflexión donde las decisiones que tomemos hoy determinarán la integridad de nuestro futuro informativo y democrático.

La inconveniencia de esta postura se manifiesta en múltiples dimensiones. Desde el punto de vista jurídico, la postergación crea una laguna legal que dificulta la persecución de delitos mediante deepfakes. Desde la perspectiva de los derechos humanos, deja desprotegidas a las víctimas de violencia de género digital. Desde el ángulo democrático, abre la puerta a campañas de desinformación masiva en procesos electorales europeos. Y desde la dimensión económica, socava la confianza en las transacciones digitales.

Como ya he sostenido en análisis previos sobre la responsabilidad civil de la IA [14], la clasificación de los sistemas de IA como “productos defectuosos” bajo la Directiva de Responsabilidad de Producto podría ofrecer una vía para que las víctimas obtengan reparación. Sin embargo, esta es una solución ex post, que actúa una vez que el daño ya se ha producido. La urgencia actual reside en la prevención, en la implementación inmediata de mecanismos de transparencia que permitan identificar el contenido sintético antes de que cause daño. El sandbox regulatorio español [15], impulsado por la AESIA, ofrece un modelo interesante para probar y validar estas medidas en un entorno controlado. La colaboración entre la AESIA y la AEPD [16] es fundamental para asegurar que la innovación no se produzca a costa de los derechos fundamentales.

La regulación no debe ir a remolque de la tecnología, sino anticipar sus impactos. La postergación del artículo 50.2 es una apuesta arriesgada que nos deja expuestos a la banalidad del mal digital. Es imperativo que, como juristas, legisladores y ciudadanos, exijamos una rectificación inmediata. La construcción de una IA ética y transparente no es una opción, sino el único baluarte que nos permitirá preservar la confianza, la dignidad y la democracia en la era algorítmica que ya ha llegado para quedarse.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.