Crónica de la muerte de la Propuesta de Directiva de daños por inteligencia artificial
Análisis de las causas jurídicas, técnicas y políticas del colapso de la Propuesta de Directiva

(Imagen: E&J)
Crónica de la muerte de la Propuesta de Directiva de daños por inteligencia artificial
Análisis de las causas jurídicas, técnicas y políticas del colapso de la Propuesta de Directiva

(Imagen: E&J)
En el complejo y cambiante escenario del Derecho europeo, donde convergen tensiones entre la innovación tecnológica, la protección de derechos fundamentales y los intereses económicos de actores globales, la retirada de la Propuesta de Directiva sobre responsabilidad por daños causados por sistemas de inteligencia artificial marca un hito jurídico y político de gran calado. Presentada por la Comisión Europea en septiembre de 2022, esta iniciativa respondía a una creciente preocupación compartida por juristas, técnicos y responsables políticos: la insuficiencia de los marcos tradicionales de responsabilidad civil frente a los desafíos generados por tecnologías autónomas, opacas y en rápida evolución.
Lejos de tratarse de un simple ajuste legislativo, la propuesta buscaba armonizar las normas de responsabilidad extracontractual en los Estados miembros, facilitando la reparación de daños en un entorno donde la atribución causal es especialmente difícil. Pretendía ofrecer mayor seguridad jurídica a consumidores, operadores económicos y jueces ante sistemas de inteligencia artificial capaces de aprender, decidir y actuar con escasa trazabilidad.
Su retirada del Programa de Trabajo de la Comisión para 2025, junto con la crítica opinión adoptada por la Comisión de Mercado Interior y Protección del Consumidor del Parlamento Europeo —que la calificó de prematura, innecesaria y perjudicial para la innovación— ha generado un intenso debate. Esta decisión refleja, en opinión de muchos observadores, la creciente capacidad de influencia de grandes corporaciones tecnológicas —como OpenAI, Apple, Qualcomm e Intel— en el diseño de la arquitectura regulatoria europea. Estas compañías no solo participaron activamente en el proceso consultivo, sino que lograron imponer un relato según el cual toda nueva regulación constituye una amenaza directa a la competitividad, incluso cuando está orientada a garantizar derechos fundamentales.
Este artículo analiza las causas jurídicas, técnicas y políticas del colapso de la Propuesta de Directiva, contrastando las motivaciones institucionales con las implicaciones normativas de su retirada. Al mismo tiempo, reivindica la necesidad de un marco de responsabilidad civil moderno, adaptado al funcionamiento específico de los sistemas algorítmicos actuales —desde los modelos fundacionales hasta los sistemas generativos autónomos— y capaz de ofrecer un equilibrio entre fomento de la innovación y tutela efectiva de los derechos ciudadanos. Muchas de las ideas que se recogen en este texto ya se desarrollaron más ampliamente en un paper elaborado por los dos firmantes de este trabajo y Pablo Sáez de Hurtado, disponible en línea para todos los que estén interesados en analizar el estado de la cuestión.
Contexto normativo
Para comprender el alcance y las implicaciones de la Propuesta de Directiva sobre responsabilidad civil por daños causados por inteligencia artificial, resulta imprescindible situarla en el marco normativo europeo actual, caracterizado por su carácter fragmentario y en construcción. Este entorno jurídico incluye tres pilares principales: el Reglamento de Inteligencia Artificial (AI Act), la Directiva sobre responsabilidad por productos defectuosos (actualizada en 2023), y los regímenes de responsabilidad civil extracontractual de los Estados miembros.
1. El Reglamento de Inteligencia Artificial: un marco preventivo, no reparador
Desde el 1 de agosto de 2024 está en vigor el AI Act, que establece un sistema de gobernanza ex ante basado en la clasificación de los sistemas de inteligencia artificial según su nivel de riesgo. Este instrumento impone obligaciones relativas a la transparencia, la supervisión humana, la trazabilidad y la gestión de riesgos, especialmente para los sistemas de alto riesgo. Sin embargo, su foco es netamente preventivo: busca reducir la probabilidad de daños antes de que ocurran, pero no contempla mecanismos de compensación ni resuelve los desafíos probatorios o de atribución de responsabilidad ex post. Esta carencia evidencia la necesidad de un instrumento jurídico complementario orientado a la reparación.
2. La nueva Directiva de responsabilidad por productos defectuosos como avance limitado
La reforma de la Directiva 85/374/CEE, adoptada en 2023, amplió el concepto de producto defectuoso para incluir software y sistemas basados en IA. Aunque representa un avance en la adaptación del Derecho de daños a la digitalización, sigue atada a una lógica tradicional centrada en productos tangibles y relaciones causales lineales. No ofrece una respuesta satisfactoria frente a los sistemas que operan de forma autónoma, con aprendizaje continuo, o cuyos resultados dependen de interacciones dinámicas e impredecibles.
Además, este marco sigue siendo predominantemente contractual o cuasicontractual, lo que deja sin cobertura los múltiples escenarios de daños extracontractuales producidos por algoritmos integrados en servicios digitales, plataformas o infraestructuras públicas.
3. La insuficiencia de los regímenes nacionales y la fragmentación estructural
En ausencia de una regulación europea específica, los Estados miembros han intentado adaptar sus sistemas clásicos de responsabilidad civil al entorno digital. En Francia, se ha aplicado la noción de garde de la chose (custodia de la cosa); en Alemania, los principios de causalidad y culpa se han reinterpretado para casos tecnológicos; en España, el artículo 1902 del Código Civil ha servido de base para demandas por daño informático; e Italia ha recurrido al artículo 2043 del Codice Civile. No obstante, estas herramientas —diseñadas para entornos físicos— enfrentan serias limitaciones cuando se trata de atribuir responsabilidad a sistemas que actúan sin intervención humana directa, cuyos procesos son opacos incluso para sus desarrolladores (black box effect).
Estas limitaciones se acentúan en los litigios transfronterizos, donde la diversidad de criterios sobre culpa, carga de la prueba, exoneraciones y presunciones genera una inseguridad jurídica que afecta tanto a los consumidores como a los desarrolladores.
4. Un vacío normativo estructural
Frente a esta realidad, la Propuesta de Directiva no era una duplicación innecesaria, sino una respuesta a un vacío estructural: la inexistencia de un marco armonizado que contemple las peculiaridades de los sistemas algorítmicos avanzados, en especial en lo relativo a la causalidad probabilística, la autonomía operativa y la falta de trazabilidad técnica. La narrativa de que la propuesta era “prematura” o “redundante” nos parece más reflejo de presiones externas —particularmente de grandes empresas tecnológicas que buscan evitar nuevas obligaciones legales— que resultado de una evaluación jurídica rigurosa.
En definitiva, el contexto normativo vigente es claramente insuficiente para garantizar una protección eficaz frente a los daños emergentes de la IA. La retirada de la Propuesta no soluciona este déficit: lo agrava.

(Imagen: E&J)
Premura de la propuesta
Uno de los argumentos centrales esgrimidos por la Comisión de Mercado Interior y Protección del Consumidor del Parlamento Europeo para solicitar la retirada de la Propuesta de Directiva fue su supuesta premura. Se sostuvo que la iniciativa carecía de una base empírica sólida, en la medida en que no se habían documentado suficientemente los daños causados por sistemas de inteligencia artificial, y que resultaba imprudente legislar en un contexto todavía marcado por la incertidumbre regulatoria, con el AI Act y la nueva Directiva de productos defectuosos aún en fase de implementación.
Este razonamiento, sin embargo, plantea serias objeciones desde el punto de vista tanto técnico como jurídico.
1. El falso dilema entre evidencia empírica y regulación anticipatoria
Exigir datos estadísticos robustos como condición previa para legislar en un entorno tecnológico emergente supone una inversión cuestionable del principio de precaución. En el caso de la inteligencia artificial, y especialmente de los modelos fundacionales o generativos de propósito general, la falta de evidencia empírica no se debe a la inexistencia de riesgos, sino a la dificultad de trazarlos, medirlos y atribuirlos causalmente.
La opacidad estructural de estos sistemas —con millones o incluso billones de parámetros— y su comportamiento emergente hacen que muchos daños potenciales no se manifiesten como incidentes concretos fácilmente judicializables, sino como externalidades difusas: sesgos algorítmicos, errores de predicción, impactos acumulativos o fallos difíciles de replicar. Precisamente por eso, una regulación meramente reactiva no basta: es necesario actuar de manera proactiva y precautoria, como ya se hace en otros ámbitos como el medioambiente, la salud pública o la protección de datos.
2. La falta de legislación secundaria: ¿Causa para el aplazamiento o para la acción?
La crítica sobre la inexistencia de legislación secundaria y directrices interpretativas del AI Act (por ejemplo, en relación con el artículo 96.1 sobre definición de sistemas de IA) es formalmente válida, pero no puede ser utilizada como excusa para la inacción. Al contrario, esa misma incertidumbre normativa debería haber servido como argumento para mantener y mejorar una propuesta que abordaba directamente los vacíos más críticos en materia de reparación de daños.
Además, el AI Act no impide la adopción de normas complementarias. La Propuesta de Directiva no pretendía modificar los criterios de clasificación del riesgo, sino introducir garantías procesales básicas —como la inversión de la carga de la prueba o el acceso a evidencias— indispensables en casos donde el desequilibrio informativo entre empresas tecnológicas y consumidores impide ejercer efectivamente el derecho a la reparación.
3. Reglas procesales como herramienta de equidad, no de abuso
El documento crítico de la Comisión sostiene que estas reglas podrían facilitar litigios abusivos, especialmente mediante la financiación por terceros (Third Party Litigation Funding). Sin embargo, estas herramientas son comunes en otros sectores —como la competencia, el consumo o la protección de datos— y han demostrado ser eficaces para corregir asimetrías procesales sin generar una “industria del pleito”. Más aún, su exclusión sólo perpetúa la situación actual, en la que las víctimas de decisiones algorítmicas erróneas o dañinas carecen de mecanismos reales para reclamar.
Las reglas procesales propuestas no eran radicales: eran proporcionales al nivel de complejidad y opacidad tecnológica de los sistemas de IA. Atribuirles una intención temeraria revela más bien el deseo de algunos actores económicos de blindarse jurídicamente frente a responsabilidades potenciales.
4. El argumento de la premura como coartada política
En última instancia, el argumento de la premura no parece obedecer a una evaluación normativa rigurosa, sino a una estrategia de aplazamiento interesada, promovida por grandes tecnológicas que desean operar el mayor tiempo posible en un entorno de baja exigencia regulatoria. Esta retirada no obedece tanto a una lógica de “mejor regulación” como al triunfo de una narrativa corporativa que presenta cualquier intento de tutela jurídica como una amenaza a la innovación.

(Imagen: E&J)
Innovación y competitividad: ¿Un falso dilema?
Uno de los argumentos más repetidos para justificar la retirada de la Propuesta de Directiva sobre responsabilidad por daños causados por inteligencia artificial fue su supuesto impacto negativo sobre la innovación y la competitividad del ecosistema tecnológico europeo. Desde la Comisión de Mercado Interior y Protección del Consumidor se advirtió que imponer nuevas cargas legales —especialmente de carácter procesal— podría desincentivar el desarrollo de productos basados en inteligencia artificial, retrasar su adopción y afectar especialmente a las pequeñas y medianas empresas (pymes), que constituyen el núcleo del tejido empresarial europeo.
Esta línea argumentativa, sin embargo, responde a una lógica parcial y, en muchos aspectos, errónea. En lugar de promover un entorno innovador sostenible y robusto, corre el riesgo de consolidar un modelo de desregulación competitiva, donde la ausencia de normas se presenta falsamente como condición necesaria para el progreso tecnológico.
1. El falso dilema entre regulación e innovación
Plantear un conflicto ineludible entre innovación y regulación ignora la realidad empírica: los entornos jurídicos estables y predecibles fomentan la confianza, tanto en consumidores como en desarrolladores e inversores. Un marco normativo claro no solo reduce el riesgo de litigios futuros, sino que permite diseñar sistemas de IA con criterios de seguridad jurídica desde su origen (compliance by design).
La experiencia comparada lo demuestra. En Estados Unidos, el enfoque permisivo ha favorecido una rápida adopción de tecnologías de IA, pero también ha provocado una proliferación de escándalos relacionados con sesgos algorítmicos, vigilancia masiva, discriminación automatizada y daño reputacional, lo que ha derivado en litigios costosos y desconfianza social. Por el contrario, la Unión Europea –con ejemplos como el Reglamento General de Protección de Datos (RGPD)– ha mostrado que un enfoque normativo sólido puede combinarse con liderazgo tecnológico y la tutela de derechos fundamentales.
2. Innovación responsable y competitividad a largo plazo
La Directiva no buscaba frenar la innovación, sino canalizarla de forma responsable. Establecía estándares procesales mínimos que permitirían compensar adecuadamente a los afectados por daños derivados de decisiones automatizadas, sin imponer cargas desproporcionadas a las empresas. Las reglas de inversión de la carga de la prueba, acceso a evidencias o presunciones de causalidad no constituían obstáculos, sino instrumentos para equilibrar las profundas asimetrías entre grandes plataformas tecnológicas y consumidores sin recursos técnicos ni jurídicos.
A largo plazo, un marco de responsabilidad clara fortalece la competitividad estructural de la economía europea, al promover productos más confiables, auditables y alineados con los valores del mercado interior.
3. Las pymes y su posición entre la protección y la manipulación del discurso
Uno de los argumentos más sensibles ha sido el riesgo de que las pymes sufran un impacto desproporcionado. Si bien es cierto que cualquier regulación debe tener en cuenta la capacidad de cumplimiento de los pequeños actores económicos, resulta problemático utilizar a las pymes como coartada retórica para justificar la inacción regulatoria.
En realidad, muchas pequeñas empresas podrían beneficiarse de un marco claro de imputación, que defina con precisión sus responsabilidades y reduzca la incertidumbre jurídica. Además, la Propuesta incluía mecanismos para adaptar las exigencias en función del riesgo y la complejidad del sistema, evitando una carga indiscriminada. El verdadero problema para las pymes no es la regulación, sino la opacidad de las grandes plataformas que concentran poder de mercado y limitan el acceso equitativo a tecnologías fiables y a canales de reparación jurídica.
4. El poder narrativo de las grandes tecnológicas
Finalmente, el rechazo a la Propuesta de Directiva ha estado fuertemente influido por una narrativa promovida por empresas como Apple, OpenAI, Intel o Qualcomm, que lograron imponer una visión según la cual toda regulación sería una amenaza existencial a la innovación. Esta narrativa, repetida y amplificada en foros institucionales, ha tenido un efecto distorsionador sobre el debate público y legislativo, eclipsando otras voces —académicas, judiciales o de la sociedad civil— que alertaban sobre los riesgos reales de una IA no regulada.
Lejos de tratarse de una defensa del interés general, esta oposición ha servido para preservar márgenes de maniobra jurídica, evitando exposiciones legales que podrían derivar en litigios, compensaciones o la obligación de rediseñar sistemas bajo criterios de auditabilidad y rendición de cuentas.

(Imagen: E&J)
Armonización especulativa
Uno de los argumentos más controvertidos esgrimidos por la Comisión de Mercado Interior y Protección del Consumidor para rechazar la Propuesta de Directiva fue su supuesto carácter de «armonización especulativa». Según este razonamiento, no existiría evidencia suficiente de divergencias regulatorias graves ni de fallos de mercado que justifiquen la intervención del legislador europeo mediante un instrumento horizontal de responsabilidad civil específica para inteligencia artificial.
Este enfoque minimiza un problema estructural que afecta al funcionamiento del mercado interior: la fragmentación jurídica en materia de responsabilidad extracontractual aplicada a tecnologías algorítmicas. Consideramos que esta postura no sólo es técnicamente incorrecta, sino políticamente miope.
Aunque los Estados miembros de la Unión comparten principios generales en materia de responsabilidad civil, sus desarrollos doctrinales, jurisprudenciales y procesales son heterogéneos, especialmente en ámbitos novedosos como el daño digital, el software autónomo o los sistemas de IA embebida. Las diferencias abarcan desde la interpretación de la culpa y la causalidad, hasta la admisibilidad de presunciones legales o la posibilidad de invertir la carga de la prueba.
En un entorno crecientemente transfronterizo —como el de los sistemas de IA integrados en dispositivos de consumo, plataformas digitales o servicios públicos automatizados— esta dispersión jurídica genera una inseguridad jurídica objetiva, tanto para consumidores como para operadores económicos. La posibilidad de que un mismo daño reciba respuestas distintas según el foro competente no sólo vulnera el principio de igualdad ante la ley, sino que también distorsiona la competencia dentro del mercado único.
Calificar de “especulativa” una propuesta armonizadora en un sector emergente como la inteligencia artificial equivale a ignorar la función constitucional del Derecho de la Unión Europea: garantizar niveles mínimos de protección común para los ciudadanos, allí donde el desarrollo fragmentado de los ordenamientos nacionales pueda generar desigualdad, arbitrariedad o ineficacia.
La armonización propuesta no pretendía uniformizar todas las soluciones jurídicas, sino establecer una base común —procesal y sustantiva— para casos en los que la atribución de responsabilidad por daños derivados de decisiones algorítmicas es especialmente compleja. Lejos de invadir competencias nacionales, se trataba de habilitar herramientas que permitieran a los jueces, operadores y consumidores actuar en condiciones de mayor certidumbre.
Negarse a establecer esa base común es aceptar de facto una situación donde los derechos de reparación varían drásticamente según el lugar de residencia del afectado o el domicilio del proveedor tecnológico.
La falta de armonización normativa no perjudica por igual a todos los actores. Las grandes corporaciones tecnológicas, dotadas de recursos jurídicos avanzados, pueden explotar las diferencias normativas entre jurisdicciones, recurriendo al forum shopping para litigar en foros más favorables, retrasar procesos o diluir responsabilidades. En cambio, los usuarios afectados —en su mayoría particulares o pymes— carecen de esa capacidad estratégica y suelen quedar atrapados en entornos procesales adversos o económicamente inaccesibles.
Por tanto, el verdadero efecto de la no armonización es reforzar una asimetría estructural entre quienes desarrollan, controlan y explotan la inteligencia artificial, y quienes la sufren o la utilizan sin poder real de negociación.
Lejos de ser una aspiración teórica, la armonización normativa constituye una condición de posibilidad para la justicia algorítmica. Solo con marcos comunes de imputación, acceso a pruebas, estándares de diligencia y presunciones adecuadas es posible enfrentar los retos que plantea una tecnología que escapa a los esquemas tradicionales de causalidad y control.
Además, la armonización facilita el desarrollo de acciones colectivas, litigios transfronterizos, y la acumulación de precedentes jurisprudenciales coherentes, aspectos cruciales para la maduración de un Derecho europeo de la IA que no quede limitado a la gobernanza preventiva del AI Act.
En definitiva, presentar la armonización como innecesaria o prematura no solo es jurídicamente insostenible, sino que encubre una preferencia política por el statu quo, altamente funcional para los intereses de quienes operan en la opacidad algorítmica y buscan evitar responsabilidades.

El uso de las herramientas de IA pue afectar de manera notable a colectivos vulnerables. Es fundamental revisar los algoritmos de las herramientas. (Imagen: E&J)
Litigios abusivos
Otro de los argumentos utilizados para deslegitimar la Propuesta de Directiva fue el temor a un aumento de los litigios abusivos, particularmente por la introducción de reglas procesales como la inversión de la carga de la prueba y el acceso a pruebas en manos de las empresas proveedoras de sistemas de inteligencia artificial. Se alegó que estas medidas podrían fomentar una “industria del pleito”, especialmente si se combinaban con mecanismos de financiación de litigios por terceros (Third Party Litigation Funding). Este argumento, sin embargo, refleja una visión desproporcionada y funcional a los intereses de grandes actores tecnológicos, más preocupados por limitar su exposición jurídica que por salvaguardar la equidad procesal.
En primer lugar, es importante subrayar que el riesgo de litigios oportunistas ya está abordado en numerosos ordenamientos jurídicos europeos mediante instrumentos procesales como los principios de buena fe, los requisitos de admisibilidad de la demanda y la imposición de costas al litigante temerario. No existe evidencia empírica sólida que indique que el simple hecho de introducir mecanismos como la carga probatoria invertida o la revelación judicial de evidencias haya generado una ola de demandas frívolas en sectores como el derecho de la competencia, el consumo o la protección de datos, donde ya se aplican con éxito.
En segundo lugar, estos instrumentos no deben ser vistos como privilegios indebidos, sino como herramientas necesarias para restablecer el equilibrio procesal. Frente a sistemas tecnológicos caracterizados por su opacidad estructural, trazabilidad limitada y complejidad técnica, las personas afectadas se enfrentan a una desventaja objetiva para probar la existencia del daño, su relación causal con el sistema de inteligencia artificial y la conducta atribuible al operador. En estos casos, permitir el acceso a los logs, pesos, datasets o métricas internas del sistema no es una forma de intromisión arbitraria, sino una condición necesaria para ejercer el derecho a la tutela judicial efectiva.
Además, la narrativa del litigio abusivo suele partir de una lógica disuasoria orientada a impedir la apertura de cauces reales de exigencia de responsabilidad. Al asociar la existencia de acciones judiciales con un uso fraudulento del sistema, se invisibiliza la asimetría real que existe entre corporaciones que cuentan con equipos jurídicos especializados y usuarios individuales sin conocimientos técnicos. Se construye así una caricatura del demandante como oportunista, cuando en realidad lo que se busca es que el derecho de daños sea efectivo también en contextos tecnológicos de alta complejidad.
Tampoco puede pasarse por alto que esta crítica omite mencionar que los sistemas actuales ya generan daños, aunque no todos lleguen a judicializarse. Desde errores médicos inducidos por sistemas de diagnóstico asistido por IA, hasta decisiones automatizadas en materia de crédito, contratación o selección de personal que reproducen sesgos y afectan derechos fundamentales, el número de víctimas silenciosas es probablemente mucho mayor que el de demandas formalizadas. La falta de litigios no es señal de ausencia de daño, sino de barreras procesales y cognitivas que dificultan el acceso a la justicia.
En este contexto, la Propuesta de Directiva no pretendía instaurar un sistema litigioso masivo, sino corregir una carencia fundamental: la imposibilidad de probar el daño cuando toda la información relevante está bajo control exclusivo del desarrollador o proveedor. El rechazo de estas herramientas procesales, más que una medida de prudencia jurídica, constituye una forma de consolidar la impunidad técnica. La retirada de la propuesta, en este punto, transmite un mensaje peligroso: que la sofisticación tecnológica puede servir como escudo contra la responsabilidad.

(Imagen: E&J)
Conclusiones
La retirada de la Propuesta de Directiva sobre responsabilidad por daños causados por inteligencia artificial representa mucho más que la eliminación de un instrumento legislativo específico. Es un síntoma profundo de la correlación de fuerzas que actualmente configura el derecho tecnológico en la Unión Europea. Lo que se pierde no es solo un texto jurídico, sino la oportunidad de establecer un marco coherente, proactivo y adaptado a los riesgos reales de una tecnología que ya está modificando, de forma sustantiva, las condiciones materiales de vida, trabajo, consumo y participación democrática.
Frente a los desafíos planteados por sistemas algorítmicos opacos, autónomos y capaces de tomar decisiones con efectos jurídicos, económicos y personales significativos, el ordenamiento jurídico no puede limitarse a regular ex ante con normas preventivas. La protección efectiva de los derechos exige también mecanismos ex post que aseguren la reparación del daño, el acceso a la justicia y la rendición de cuentas. La lógica de la prevención —como la que domina el AI Act— es indispensable, pero insuficiente. La responsabilidad civil, con sus funciones reparadora, disuasoria y restaurativa, es el complemento natural e ineludible de cualquier régimen normativo que pretenda tomarse en serio los derechos fundamentales.
La narrativa que ha justificado la retirada de la propuesta —basada en su supuesta premura, su impacto negativo en la innovación y su potencial para incentivar litigios abusivos— no resiste un análisis riguroso. Más bien parece el resultado de una presión sistemática por parte de grandes corporaciones tecnológicas que han logrado condicionar el discurso político-institucional, presentando la regulación como una amenaza estructural a la competitividad. En este sentido, la opinión de la Comisión de Mercado Interior y Protección del Consumidor ha funcionado como catalizador de una tendencia regresiva, donde los intereses privados prevalecen sobre las exigencias de equidad, transparencia y justicia.
Pero esta retirada no debería ser entendida como el cierre del debate, sino como una advertencia. Una llamada de atención sobre los límites del actual equilibrio normativo y sobre la necesidad urgente de repensar el papel del Derecho en la era algorítmica. La inteligencia artificial no es neutra: incorpora decisiones humanas, reproduce sesgos históricos, redistribuye riesgos y poder. Por eso, no basta con que sea técnicamente segura: debe ser jurídicamente responsable.
El riesgo que corre Europa no es solo el de quedarse atrás en una carrera tecnológica, sino el de renunciar a liderar un modelo de gobernanza algorítmica democrático, justo y centrado en la persona. En este contexto, la renuncia a una directiva de responsabilidad no es prudencia, es desprotección. No es flexibilidad regulatoria, es desequilibrio estructural. Y sobre todo, no es neutralidad institucional, sino una cesión —explícita o implícita— ante quienes han comprendido que la ausencia de reglas claras es, en realidad, la más rentable de las regulaciones posibles.

(Imagen: E&J)
Propuestas para una futura regulación sensata y eficaz
Nos encontramos ante un vacío normativo que no puede ni debe ser llenado por la inercia o la improvisación. Si bien el texto propuesto no era perfecto, su supresión sin una alternativa sólida implica desatender una necesidad estructural en el diseño de una inteligencia artificial jurídicamente integrable en el espacio europeo de derechos. La respuesta no puede consistir en retroceder al punto de partida, sino en construir un nuevo marco que asuma las lecciones aprendidas, las críticas razonables y las resistencias interesadas que han salido a la luz.
Para ello, es necesario avanzar en una regulación sensata, proporcionada y eficaz que combine los valores fundamentales del Derecho de la Unión con una comprensión realista del funcionamiento de los sistemas algorítmicos actuales. Esa regulación debería descansar sobre varios pilares complementarios. En primer lugar, debe adoptarse una responsabilidad escalonada y diferenciada que reconozca la diversidad funcional y técnica de los sistemas de inteligencia artificial. No es razonable imponer las mismas obligaciones a un chatbot escolar que a un sistema de diagnóstico clínico asistido por aprendizaje profundo. El grado de autonomía, opacidad y riesgo debería determinar el nivel de exigencia jurídica.
En segundo lugar, se requiere un marco común europeo de imputación algorítmica, que complemente al AI Act y se centre en los problemas específicos de causalidad probabilística, decisiones no deterministas y aprendizaje continuo. La responsabilidad civil tradicional, basada en la culpa o el defecto, necesita ser reinterpretada en clave de razonabilidad algorítmica y deberes reforzados de diligencia tecnológica. Esa doctrina común permitiría a los tribunales aplicar estándares compartidos sin depender del capricho interpretativo nacional.
En tercer lugar, debe garantizarse el acceso efectivo a la trazabilidad técnica y a las auditorías externas, bajo control judicial. La protección del secreto comercial no puede convertirse en una coartada para impedir la verificación de decisiones automatizadas con efectos jurídicos o económicos. La transparencia no es solo una cuestión ética, sino una condición técnica para el ejercicio de los derechos.
En cuarto lugar, el proceso judicial debe adaptarse a la asimetría informativa radical entre proveedores tecnológicos y personas afectadas. Esto exige reglas procesales comunes como la inversión de la carga de la prueba, el acceso judicial a evidencias técnicas, la tutela colectiva en materia de daños algorítmicos y la creación de presunciones razonables en casos de opacidad estructural.
Por último, sería conveniente crear un Observatorio Europeo de Responsabilidad Algorítmica, dotado de competencias técnicas, jurídicas y analíticas para monitorizar los incidentes más relevantes, evaluar riesgos sistémicos, emitir recomendaciones normativas y generar un acervo público de conocimiento sobre los efectos de la inteligencia artificial en la estructura de la responsabilidad civil.
Estas propuestas no parten de la desconfianza en la tecnología, sino de la conciencia de que su integración social requiere límites jurídicos claros, mecanismos de control legítimo y marcos de justicia accesible. No hay verdadera innovación sin responsabilidad. Y no hay legitimidad jurídica en la era algorítmica sin normas que protejan a los más vulnerables frente al poder computacional de los más fuertes.
