Connect with us
Artículos

¿Quién responde cuando se equivoca la inteligencia artificial? La crisis del sistema clásico de responsabilidad

La empresa usuaria que integra la IA en su cadena de valor se convierte en un cooperador del sistema

(Imagen: E&J)

José Montero

Presidente de Montero de Cisneros Abogados




Tiempo de lectura: 4 min

Publicado




Artículos

¿Quién responde cuando se equivoca la inteligencia artificial? La crisis del sistema clásico de responsabilidad

La empresa usuaria que integra la IA en su cadena de valor se convierte en un cooperador del sistema

(Imagen: E&J)

Por más que lo intentemos forzar, el andamiaje clásico de la responsabilidad civil encaja cada vez peor con los daños causados por sistemas de inteligencia artificial (IA). Durante décadas, la ecuación ha sido relativamente estable: una persona (física o jurídica) toma decisiones, su conducta genera un daño, y el derecho asigna responsabilidad a partir de parámetros como la culpa, el defecto del producto o el incumplimiento contractual. La irrupción de la IA —particularmente la generativa y los sistemas de alto grado de autonomía— quiebra silenciosamente esta lógica.

En el imaginario colectivo, “se ha equivocado la IA”. Pero en términos jurídicos, la IA no existe como sujeto responsable, ni tiene patrimonio propio, ni puede ser demandada. Detrás de cada sistema hay una constelación de actores: desarrolladores, proveedores de modelos, integradores, distribuidores, empresas usuarias que despliegan la tecnología, y, en último término, personas que confían en su output. La pregunta incómoda es a quién imputar el daño cuando nadie ha actuado con una culpa clásica, pero el perjuicio es real.

Global IA

El legislador europeo es consciente de esta grieta. Por un lado, el AI Act establece un marco “ex ante” de obligaciones de seguridad, gobernanza y transparencia, centrado en la clasificación por niveles de riesgo y en deberes preventivos para proveedores y desplegadores. Por otro, la propuesta de Directiva de Responsabilidad por IA (AI Liability Directive, AILD) y la reforma de la Directiva de Responsabilidad por Productos amplían la cobertura objetiva a software y sistemas de IA, facilitan el acceso a pruebas y articulan presunciones de causalidad a favor de las víctimas.

Sin embargo, el problema de fondo no es solo técnico, sino conceptual. El modelo tradicional se construye sobre la idea de causalidad lineal: A hace X, y X causa Y. En los sistemas de IA complejos, intervienen grandes volúmenes de datos, procesos de entrenamiento opacos, capas de modelos, actualizaciones continuas y, a menudo, interacciones con otros sistemas. A la hora de exigir responsabilidad, reconstruir esa cadena causal —qué algoritmo, qué versión, qué dato, qué decisión— se convierte en una tarea probatoria casi heroica para el perjudicado.

Suscríbete a nuestra
NEWSLETTER

(Imagen: E&J)

La respuesta europea ha sido, precisamente, atacar el corazón del problema probatorio. La AILD introduce la posibilidad de que los tribunales ordenen la divulgación de pruebas relativas a sistemas de alto riesgo y establece presunciones de causalidad cuando el demandado incumple deberes de diligencia u oculta información clave. Traducido al lenguaje empresarial: si no documento, si no gobierno, si no controlo mi IA, no solo incumplo el AI Act, sino que facilito que se presuma mi responsabilidad en caso de daño.

A la vez, la nueva Directiva de Responsabilidad por Productos refuerza la lógica de la responsabilidad objetiva del productor, extendiéndola explícitamente a software y sistemas de IA. Para el fabricante —concepto que incluye desarrolladores, importadores y determinados integradores— esto significa que puede responder por defectos del sistema sin necesidad de que la víctima pruebe una culpa en sentido clásico. La contrapartida es clara: mayor exposición, pero también mayor previsibilidad jurídica.

¿Resuelve esto la “crisis” del sistema clásico de responsabilidad? Solo en parte. La verdadera tensión se produce en la empresa usuaria, que no desarrolla modelos desde cero, pero los integra en su cadena de valor, los adapta, los reentrena con datos propios y los utiliza en procesos críticos: decisiones de crédito, selección de personal, recomendaciones médicas, gestión de riesgos en tiempo real. En este escenario, el papel de la empresa se desplaza desde mero “usuario” tecnológico a auténtico cooperador del sistema de IA.

El derecho responde con una lógica de corresponsabilidad. La AILD equipara las obligaciones de determinados usuarios profesionales a las de un operador de tecnología compleja, apreciando su falta si ignoran instrucciones, configuran incorrectamente el sistema o lo utilizan fuera del marco previsto. A su vez, el AI Act impone a los desplegadores de sistemas de alto riesgo deberes de evaluación del impacto, supervisión humana y gestión de incidentes. No basta con decir “la IA se equivocó”: si la empresa se apoyó acríticamente en su output, el foco jurídico se desplazará rápidamente hacia su gobernanza interna.

La consecuencia es un desplazamiento del centro de gravedad de la responsabilidad: menos énfasis en la culpa subjetiva y más en la asignación funcional de riesgos. Se perfila una suerte de “operador de IA” como figura clave: el sujeto que controla efectivamente el sistema, se beneficia económicamente de su uso y está en mejor posición para prevenir daños, aunque no haya cometido un error manual identificable. Es un enfoque coherente con otras áreas del derecho económico europeo, pero tensiona el confort de muchas empresas que aún ven la IA como un “servicio externo” sin asumir plenamente su coautoría.

(Imagen: E&J)

Desde la óptica del abogado de empresa, esta nueva arquitectura obliga a un cambio de cultura. La gestión del riesgo de IA no puede limitarse a revisar contratos con proveedores y exigir cláusulas de indemnidad amplias. Es necesario diseñar una verdadera gobernanza de la IA: inventario de sistemas, mapas de flujo de datos, criterios claros de uso permitido, mecanismos de supervisión humana, protocolos de respuesta ante incidentes y, sobre todo, una trazabilidad documental que permita demostrar diligencia en caso de litigio.

Paradójicamente, cuanto más “autónoma” es la IA, más exigente se vuelve el derecho con los humanos que la ponen en marcha. La vieja excusa de “error del sistema” pierde fuerza cuando el ordenamiento ha previsto específicamente ese tipo de riesgo y ha distribuido ex ante las cargas de prevención y de prueba. La crisis del sistema clásico de responsabilidad no significa ausencia de responsabilidad, sino reconfiguración: del binomio culpa-daño hacia un esquema de riesgo-control-beneficio.

En definitiva, cuando la IA se equivoca, no responde la máquina; responden quienes la diseñan, la entrenan, la comercializan y la utilizan para tomar decisiones que afectan a terceros. El reto para la empresa no es encontrar un “vacío legal” donde refugiarse, sino entender que el derecho está reconstruyendo, pieza a pieza, un nuevo mapa de responsabilidades en el que la palabra clave ya no es excusa, sino gobernanza.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2026 , powered by Economist & Jurist.