Connect with us
Artículos

La advertencia global sobre el mal uso de la IA: de los casos anglosajones a la doctrina judicial española

La IA es una valiosa aliada para optimizar procesos, pero nunca exime al abogado de su deber de revisión y control profesional

(Imagen: E&J)

Jesús J. Martínez

Director jurídico de JMARTINEZASESORES – Abogados y Economista




Tiempo de lectura: 5 min

Publicado




Artículos

La advertencia global sobre el mal uso de la IA: de los casos anglosajones a la doctrina judicial española

La IA es una valiosa aliada para optimizar procesos, pero nunca exime al abogado de su deber de revisión y control profesional

(Imagen: E&J)

El caso Walters contra OpenAI (ChatGPT), resuelto recientemente por un tribunal de Georgia (EE.UU.), ha reabierto el debate sobre el uso negligente de sistemas de inteligencia artificial (IA). Aunque su alcance jurídico se limita al ámbito estadounidense, la cuestión tiene implicaciones globales. En España, algunos tribunales ya han advertido sobre la responsabilidad de los abogados que delegan tareas en la IA sin control humano. Este artículo analiza ambos enfoques y propone claves prácticas para una integración ética y responsable de estas tecnologías en el ejercicio jurídico.

1. Caso Walters contra OpenAI (Georgia, EE. UU.) y lecciones desde el Reino Unido de su Tribunal Superior

Estas advertencias no son casos aislados, sino síntomas de un fenómeno común: la posibilidad de necesidad de establecer límites éticos y jurídicos al uso de la inteligencia artificial en la práctica profesional.



En mayo de 2023, el locutor Mark Walters solicitó a ChatGPT un resumen de la demanda SAF contra Ferguson. Sin embargo, la IA generó información ficticia, atribuyéndole un fraude financiero inexistente. Aunque el periodista Frederick Riehl descartó el texto antes de publicarlo, Walters demandó por difamación. En mayo de 2025, el juez de Georgia desestimó la acción por falta de difusión a terceros, ausencia de malicia y advertencias explícitas sobre posibles imprecisiones de ChatGPT.

Además, en Reino Unido, el 6 de junio de 2025, la jueza Victoria Sharp, presidenta de la División de lo Civil del Tribunal Superior de Londres, advirtió públicamente que los abogados que presenten casos inexistentes generados por inteligencia artificial podrían enfrentarse a sanciones disciplinarias, cargos por desacato o incluso consecuencias penales. Esta advertencia se produce tras varios incidentes registrados en el sistema judicial británico, donde profesionales del Derecho utilizaron herramientas como ChatGPT para elaborar argumentos basados en jurisprudencia ficticia.
El mensaje es contundente: el uso de IA en entornos jurídicos debe ir acompañado de un control humano riguroso. Esta posición se alinea con los criterios ya establecidos en Estados Unidos y reforzados por tribunales españoles, consolidando una tendencia global que exige a los abogados mantener su responsabilidad y criterio profesional, incluso cuando se apoyan en tecnologías avanzadas como puede ser la IA.

“El tribunal de Georgia desestimó la demanda contra OpenAI al entender que el usuario había sido advertido de los posibles errores de la IA.”

2. Jurisprudencia española: supervisión obligatoria

En España, diversas resoluciones judiciales recientes, como la Sentencia número 123/2024 de la Audiencia Provincial de Madrid y el Auto número 2/2024 del Tribunal Superior de Justicia de Navarra, han reprochado explícitamente a los abogados la presentación de escritos basados íntegramente en contenido generado por inteligencia artificial sin la correspondiente verificación de fuentes y de supervisión letrada.

En ambos casos, los magistrados recalcaron que la responsabilidad última de verificar y avalar la exactitud de cualquier información presentada ante los tribunales recae exclusivamente en el abogado, advirtiendo claramente que esta función no puede delegarse completamente en sistemas automatizados.

La omisión del control humano adecuado no solo compromete la fiabilidad de los escritos procesales, sino que además expone al abogado a diversas consecuencias jurídicas: multas por mala fe procesal (art. 247 LEC), condena en costas por temeridad (arts. 247 y 394 LEC), sanciones disciplinarias colegiales por incumplimiento del deber de diligencia técnica (arts. 93-95 del RD 135/2021) e incluso la inadmisión automática de trámites por defectos formales (art. 231 LEC).

“En España, jueces han reprochado a abogados la delegación de tareas en IA sin control ni verificación.”

En definitiva, la supervisión por parte del letrado deja de ser una mera recomendación ética para consolidarse como un auténtico deber jurídico y profesional. Así lo expresa categóricamente la Audiencia Provincial de Madrid al señalar que «la intervención del profesional no puede ser sustituida por una herramienta técnica sin control humano adecuado» (Sentencia núm. 123/2024, Sección 13ª). Por su parte, el Tribunal Superior de Justicia de Navarra, aunque archivó sin sanción un caso concreto por citar incorrectamente legislación extranjera generada por IA, enfatizó que la validación final «sigue siendo indelegable», advirtiendo que futuras situaciones similares podrían resolverse con imposición de multas y condenas en costas.

(Imagen: E&J)

3. Cuadro de legislación aplicable

Norma / Directriz Ámbito Requisito clave
Reglamento (UE) 2016/679 (RGPD), art.22 Protección datos personales Derecho a no quedar sujeto a decisiones exclusivamente automatizadas
Propuesta Reglamento IA (COM (2021) m206) Sistemas de IA de alto riesgo Evaluación de riesgos, transparencia y explicabilidad
Ley Orgánica 3/2018, de 5 dic. Derecho español Adaptación del art. 22 RGPD
Código Deontológico ICAM, arts. 2 y 8 Ética profesional Deber de comprobación y secreto profesional
Principios UNESPA de ética en IA Sector asegurador Supervisión humana y auditorías algorítmicas

4. Claves prácticas para el abogado

En manos del abogado está la diferencia entre una IA que ilumina el camino y otra que lo oscurece, con buenas prácticas que podrían ser:

  • Aviso y descargo: incluir cláusulas que informen sobre IA y necesidad de verificación.
  • Verificación rigurosa: tratar el output de IA como borrador y contrastar con fuentes primarias.
  • Auditoría periódica: contratar auditorías algorítmicas para detectar sesgos y errores, como ya analice en mi primer artículo, Sesgos algorítmicos en el ámbito del Derecho: retos, ejemplos y marco normativo.
  • Formación continua: actualizarse en normativa y ética tecnológica.

Estas pautas no pretenden sustituir el juicio profesional, sino reforzarlo. La integración responsable de la inteligencia artificial en el ejercicio de la abogacía exige equilibrio entre innovación y ética, técnica y supervisión. Solo así se evitará que el uso de estas herramientas, lejos de facilitar la práctica jurídica, acabe comprometiéndola.

“La diligencia profesional exige que todo contenido generado con IA sea verificado y revisado por el letrado.”

5. Conclusiones

El precedente de Walters vs. OpenAI y la experiencia española convergen en una misma enseñanza: la IA es una valiosa aliada para optimizar procesos, pero nunca exime al abogado de su deber de revisión y control profesional. Tal y como expliqué en mi segundo, La IA al servicio de la DANA: eficiencia y agilidad en la gestión de siniestros, los sistemas automatizados pueden acelerar la valoración y el triaje, pero la última palabra debe recaer siempre en un experto humano.

Para lograr una integración verdaderamente ética y eficaz de la IA en la práctica jurídica, es imprescindible:

  1. Mantener la supervisión profesional: cualquier contenido o decisión generada con IA ha de ser sometido a revisión por el letrado, quien asume la responsabilidad de su exactitud y pertinencia, y someterse a auditorías técnicas periódicas.
  2. Combinar innovación y normativa: la tecnología debe desplegarse dentro de un marco legal claro (RGPD, Reglamento Europeo de IA, deontología colegial), garantizando transparencia, explicabilidad y rendición de cuentas.
  3. Fomentar la formación continua: los profesionales deben actualizarse tanto en las herramientas tecnológicas como en los desarrollos normativos y éticos que afecten al sector.

Solo así la IA dejará de ser un riesgo potencial —una “caja negra”— para convertirse en un motor de excelencia al servicio de la justicia y el interés de los ciudadanos.

“La integración ética de la IA en el Derecho trasciende lo técnico; es una exigencia deontológica creciente.”

Notas y referencias

  • Walters v. OpenAI, Tribunal Superior de Gwinnett County (Georgia, EE. UU.), exp. 23-A-04860-2, 19-V-2025.
  • Auto TSJN nº 2/2024, 4 septiembre 2024 (Rec. 17/2024) y Sentencia nº123/2024, Audiencia Provincial de Madrid, 12-IX-2024.
  • RGPD, art. 22, Reglamento (UE) 2016/679.
  • COM (2021) 206, Propuesta Reglamento IA.
  • Ley Orgánica3/2018, 5 dic.
  • Código Deontológico ICAM, arts. 2 y 8.
  • Principios de Ética en IA, UNESPA, 2024.

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.