Connect with us
Artículos

Cuando el cliente confía más en ChatGPT que en su abogado: Nippon Life y el aviso del ICAM

¿Está la IA ejerciendo la abogacía cuando proporciona asesoramiento jurídico personalizado a un ciudadano?

(Imagen: E&J)

Beatriz del Toro

Directora del área jurídica en StratIA Global




Tiempo de lectura: 6 min

Publicado




Artículos

Cuando el cliente confía más en ChatGPT que en su abogado: Nippon Life y el aviso del ICAM

¿Está la IA ejerciendo la abogacía cuando proporciona asesoramiento jurídico personalizado a un ciudadano?

(Imagen: E&J)

La demanda de Nippon Life contra OpenAI, presentada el pasado 4 de marzo ante un tribunal federal en Illinois, no es solo una disputa sobre daños y perjuicios; es el primer caso relevante que plantea, ante un tribunal, una pregunta que el sector lleva años evitando formular con precisión: ¿ejerce la abogacía una herramienta de inteligencia artificial cuando proporciona asesoramiento jurídico personalizado a un ciudadano?

La respuesta tiene consecuencias que van mucho más allá de OpenAI.

Global IA

Qué ocurrió realmente

El origen del caso es, en apariencia, sencillo. Graciela de la Torre, una asegurada de la filial estadounidense de Nippon Life, litigó contra la compañía tras la suspensión de los pagos de su póliza de incapacidad. En 2024, ambas partes alcanzaron un acuerdo extrajudicial y el procedimiento se archivó.

Un año después, la asegurada consultó a ChatGPT sobre ese acuerdo. La herramienta no solo validó sus dudas sobre si había sufrido manipulación emocional, sino que la animó a despedir a su abogado y a continuar el proceso en representación propia. A partir de ahí, con ChatGPT como asesor de cabecera, presentó más de 40 mociones y escritos judiciales en el mismo tribunal. Muchos de ellos incluían citas jurisprudenciales inexistentes y argumentos incompatibles con los términos del acuerdo ya firmado.

Suscríbete a nuestra
NEWSLETTER

El tribunal de Illinois desestimó la reapertura del caso al considerar firme el acuerdo y las nuevas alegaciones como carentes de base. Pero Nippon Life decidió demandar a OpenAI para recuperar los gastos generados: alrededor de 300.000 dólares en costes legales y 10 millones adicionales en daños punitivos por la actuación de la herramienta.

El argumento central de la aseguradora no es baladí: ChatGPT no actuó como un buscador que proporciona información general, sino que habría asumido funciones propias de un abogado al analizar el caso concreto, formular recomendaciones estratégicas y redactar escritos procesales para la actora.

(Imagen: E&J)

El problema jurídico de fondo

Lo que hace relevante este caso no es la cifra reclamada, sino la teoría jurídica que lo sostiene. En Estados Unidos el ejercicio no autorizado de la abogacía está prohibido por ley estatal y puede dar lugar tanto a sanciones administrativas como penales. Ese marco se diseñó pensando en personas físicas que se hacen pasar por abogados o asesoran sin titulación. Y esto ahora se intenta aplicar a una herramienta de inteligencia artificial.

OpenAI por su parte ha negado que ChatGPT ejerza la abogacía y recuerda que sus políticas de uso prohíben expresamente el asesoramiento jurídico personalizado sin supervisión profesional. La compañía, además, endureció esas políticas a finales de 2025 para restringir usos en ámbitos legal, médico y financiero. La demanda de Nippon Life replica que esas salvaguardas no existían (o no eran efectivas) cuando se produjeron los hechos.

La cuestión de fondo es incómoda: si un sistema se diseña, entrena y publicita como capaz de explicar derechos, valorar acuerdos, sugerir estrategias procesales y redactar escritos, ¿hasta qué punto puede seguir calificándose como una “mera herramienta de información general”?

Las alucinaciones jurídicas agravan el cuadro. Diversos estudios y resoluciones judiciales han constatado la existencia de tasas muy elevadas de generación de jurisprudencia inexistente cuando se pide a modelos generativos que citen sentencias. Un ciudadano sin formación jurídica no tiene forma razonable de distinguir entre una cita real y una inventada. Un abogado colegiado sí, y responde disciplinaria y civilmente cuando comete un error grave. Un chatbot, por el momento, no.

La respuesta española: el ICAM y el intrusismo digital

Mientras en Illinois se discute si ChatGPT ha ejercido la abogacía de forma encubierta, en España el debate se ha trasladado al terreno legislativo. En febrero de 2026, el Ilustre Colegio de la Abogacía de Madrid (ICAM) presentó en el Congreso una propuesta de reforma del artículo 403 del Código Penal para tipificar el llamado “neointrusismo digital” en el asesoramiento jurídico.

El artículo 403 castiga hoy a quien ejerce una profesión para la que se exige título oficial sin poseerlo, con penas de multa o prisión en los casos más graves. Es un precepto pensado para un entorno analógico: el falso médico, el falso abogado, el falso arquitecto. Sin embargo, resulta claramente insuficiente cuando quien “presta” el servicio no es una persona identificable, sino una aplicación que simula el trabajo del profesional a gran escala.

La propuesta del ICAM parte de un diagnóstico compartido: las herramientas de IA capaces de generar dictámenes, escritos procesales o estrategias jurídicas personalizadas están, en la práctica, ocupando el espacio de la abogacía sin estar sometidas a sus reglas de acceso, deontología y responsabilidad. El Colegio no pretende prohibir la tecnología, sino obligar a que detrás de los sistemas que ofrecen asesoramiento jurídico exista siempre un profesional identificado y responsable.

Según el texto remitido al Congreso, se castigaría penalmente a quien, con ánimo de lucro o en el marco de una actividad empresarial, diseñe, comercialice o ponga a disposición del público sistemas automatizados que ofrezcan asesoramiento jurídico personalizado, elaboren dictámenes o redacten documentos propios de la abogacía sin intervención directa y efectiva de un abogado colegiado. La pena propuesta se alinea con el tipo básico de intrusismo actual.

La segunda pieza de la propuesta es lo que el ICAM denomina un “umbral de garantía”: la obligación de que toda herramienta de este tipo funcione bajo supervisión profesional identificable para el usuario, el famoso human-in-the-loop. No se criminaliza el uso interno de estas herramientas por parte de abogados, ni los asistentes que generan borradores para revisión humana. Lo que se sanciona es la sustitución del profesional por un sistema opaco que actúa de cara al ciudadano como si lo fuera.

(Imagen: E&J)

Dos vías distintas para la misma inquietud

La conexión entre el caso Nippon Life y la iniciativa del ICAM es evidente: ambos parten de la misma preocupación, aunque la articulen por vías diferentes.

En Estados Unidos, una aseguradora demanda a la empresa tecnológica por los daños derivados de que una usuaria se dejara guiar por un modelo generativo que se comportó como asesor jurídico sin la preparación ni los límites deontológicos de un abogado. En España, un colegio profesional propone reformar el Código Penal para anticiparse a ese mismo fenómeno antes de que un caso similar llegue a los tribunales.

En ambos escenarios subyace una falta clara de información. El ciudadano medio no sabe que un modelo de lenguaje puede “alucinar” sentencias, cambiar de criterio en función del prompt o reinventar hechos para encajar mejor la respuesta. Tampoco distingue con facilidad entre información general y asesoramiento adaptado a su caso concreto. Desde su perspectiva, la herramienta “habla como un abogado” y, por tanto, se le presupone el mismo grado de fiabilidad.

Esa confusión es el caldo de cultivo perfecto para el intrusismo digital: servicios que, con apariencia de profesionalidad y sin responsabilidad equiparable, ocupan un espacio reservado por buenas razones al ejercicio cualificado de la abogacía.

Qué implica todo esto para el Derecho tecnológico

Para quienes diseñan, venden o utilizan soluciones de legaltech, estos movimientos deberían leerse como una advertencia pero también como una oportunidad.

En primer lugar, la responsabilidad del desarrollador ya no es una hipótesis académica. Si la demanda de Nippon Life prospera, establecerá un precedente sobre hasta dónde alcanza la responsabilidad de quien diseña y comercializa modelos que se usan en contextos jurídicos sensibles. Incluso si se resuelve mediante acuerdo extrajudicial, el mensaje para el mercado es claro: no basta con un aviso genérico en las condiciones de uso.

En segundo lugar, la propuesta del ICAM anticipa por dónde puede evolucionar el marco penal y deontológico en España y, probablemente, en otros colegios y jurisdicciones. Las soluciones que pretendan ofrecer “asesoramiento jurídico” directo al ciudadano sin la mediación de un profesional colegiado tendrán cada vez más difícil encajar. En cambio, los modelos que se conciban desde el inicio como herramientas de apoyo a la decisión profesional y no como sustitutos, tendrán más recorrido y menos riesgo.

En tercer lugar, está la cuestión de la confianza. El caso Nippon Life muestra el daño reputacional que puede causar una experiencia fallida con IA en el ámbito jurídico: una persona que cree estar defendiendo mejor sus derechos termina atrapada en un laberinto procesal, y una compañía asume costes elevados por una batalla que consideraba cerrada. Si la narrativa que se instala es la de “la IA jurídica engaña a los ciudadanos”, todo el ecosistema sale perdiendo.

En este contexto, la vía razonable pasa por tres ideas sencillas: que quien diseña y comercializa estos sistemas asuma una responsabilidad clara, que siempre exista una supervisión profesional real y que se expliquen sin eufemismos los límites de la tecnología. No se trata de demonizar la IA en despachos y asesorías, ni de aceptar como normal que cualquier chatbot se presente como sustituto del abogado.

El verdadero reto para la abogacía y la legaltech es otro: diseñar herramientas que refuercen el criterio del profesional y le permitan llegar más lejos, en lugar de desplazarlo del centro de la relación con el cliente. Eso implica decisiones conscientes sobre diseño, responsabilidad y ética, no confiar en que un modelo generativo, por sí solo, esté en condiciones de asumir decisiones que siguen requiriendo criterio jurídico humano.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2026 , powered by Economist & Jurist.