Connect with us
Artículos

La IA en el Derecho: ¿Herramienta o amenaza? El Caso de Canarias y la responsabilidad del abogado

Un letrado ha sido investigado por presentar sentencias inexistentes generadas con IA

(Imagen: E&J)

Óscar Casero Miguel

Abogado internacional, consultor y profesor, especializado en Derecho mercantil e IA legal. Cuenta con un Máster en Derecho de los Negocios Internacionales. Es fundador de www.ksrolaw.com y www.egloballawyers.com




Tiempo de lectura: 6 min

Publicado




Artículos

La IA en el Derecho: ¿Herramienta o amenaza? El Caso de Canarias y la responsabilidad del abogado

Un letrado ha sido investigado por presentar sentencias inexistentes generadas con IA

(Imagen: E&J)

La irrupción de la inteligencia artificial (IA) en el sector legal ha supuesto una de las transformaciones más profundas y disruptivas de las últimas décadas. Las herramientas de IA prometen revolucionar la forma en que los abogados investigan, redactan y gestionan casos, ofreciendo una eficiencia y una capacidad de análisis de datos sin precedentes. Sin embargo, como toda tecnología poderosa, su uso conlleva riesgos y plantea importantes cuestiones éticas y de responsabilidad profesional. Un reciente caso en Canarias, donde un abogado ha sido investigado por presentar sentencias inexistentes generadas por una herramienta de IA, ha puesto de manifiesto la necesidad de un debate profundo y sosegado sobre el papel de la IA en el ejercicio de la abogacía.

Este artículo analizará en detalle el caso de Canarias, no para demonizar a la IA, sino para poner el foco en el verdadero problema: la irresponsabilidad del profesional que utiliza estas herramientas sin la debida diligencia y sin un ápice de espíritu crítico. Sostendremos que la IA no es ni una panacea, ni una amenaza en sí misma, sino una herramienta que, como cualquier otra, debe ser utilizada con competencia, ética y una supervisión humana rigurosa. La clave no está en prohibir o desconfiar de la tecnología, sino en formar a los abogados para que la utilicen de forma responsable, aprovechando sus ventajas y mitigando sus riesgos.

Global IA

El Caso de Canarias: crónica de una mala praxis anunciada

La Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) acordó a principios de 2026 investigar a un abogado por una posible falta a la buena fe procesal. El letrado, en un recurso de apelación, citó al menos siete sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial (CGPJ) que resultaron ser completamente inexistentes. La Sala, al percatarse de la “libérrima creatividad jurídica” del abogado, concluyó que este había confiado ciegamente en un algoritmo de IA, presentando como válidas las resoluciones que este le había proporcionado “sin mayor revisión”.

El TSJC, en su auto, no deja lugar a dudas sobre la gravedad de la conducta del abogado. Lejos de considerarlo un “mero desliz o error venial”, el tribunal lo califica como una “palmaria negligencia” de quien, como experto en normas procesales, debería haber verificado la autenticidad de sus fuentes. La Sala reprocha al letrado haber fiado su trabajo a un algoritmo, “omitiendo la diligencia de verificar la existencia de lo que citaba, confiando acaso en que la abundancia de referencias no solo pasaría inadvertida a este Tribunal, sino que infundiría autoridad a sus asertos”.

Suscríbete a nuestra
NEWSLETTER

Las consecuencias para el abogado pueden ser graves. Además de la posible multa por vulneración de las reglas de la buena fe procesal, el TSJC ha dado traslado de los hechos al colegio profesional correspondiente para que se depuren las posibles responsabilidades disciplinarias. Este caso, que ha tenido una amplia repercusión mediática, sirve como una advertencia para toda la profesión: la IA no es un sustituto del juicio profesional, y su uso negligente puede tener consecuencias devastadoras para la carrera de un abogado y, lo que es más importante, para los intereses de sus clientes.

(Imagen: E&J)

El verdadero problema: la abdicación de la responsabilidad profesional

El caso de Canarias es un síntoma de un problema mucho más profundo: la tendencia de algunos profesionales a delegar su responsabilidad en la tecnología, abdicando de su deber de diligencia y de su juicio crítico. La IA, en su estado actual de desarrollo, no es infalible. Los modelos de lenguaje generativo, como ChatGPT y otros similares, son conocidos por “alucinar”, es decir, por inventar información y presentarla como si fuera verídica. Estos sistemas están diseñados para generar texto coherente y plausible, no necesariamente para ser precisos o veraces.

Un abogado que utiliza una herramienta de IA para buscar jurisprudencia tiene la obligación de verificar la autenticidad de cada una de las sentencias que el sistema le proporciona. No hacerlo no es un problema de la IA, sino del abogado. Es una falta de profesionalidad, una dejación de funciones y una vulneración de los principios más básicos de la deontología profesional. El abogado es el único responsable de lo que presenta ante un tribunal, y no puede escudarse en un algoritmo para justificar su negligencia.

La confianza ciega en la tecnología, sin un ápice de escepticismo o de comprobación, es una receta para el desastre. Los abogados deben entender que la IA es una herramienta de apoyo, no un oráculo infalible. Puede ser útil para encontrar pistas, para generar ideas o para redactar borradores, pero nunca puede sustituir el análisis, la interpretación y la validación que solo un profesional cualificado puede realizar. La última palabra, y la responsabilidad última, siempre debe ser del abogado.

El papel de la IA en el sector legal: oportunidades y desafíos

Sería un error, sin embargo, demonizar a la IA a raíz de casos como el de Canarias. La inteligencia artificial tiene el potencial de transformar el sector legal para mejor, democratizando el acceso a la justicia, agilizando los procesos y permitiendo a los abogados centrarse en las tareas de mayor valor añadido. Las herramientas de IA pueden analizar miles de documentos en cuestión de segundos, identificar patrones y tendencias en la jurisprudencia, y ayudar a los abogados a preparar casos más sólidos y mejor fundamentados.

En el ámbito del Derecho mercantil, por ejemplo, la IA puede ser de gran ayuda en la revisión de contratos, en la realización de due diligence en operaciones de fusión y adquisición, y en el análisis de riesgos regulatorios. En el derecho procesal, puede utilizarse para predecir las probabilidades de éxito de un litigio, para optimizar la estrategia procesal y para gestionar de forma más eficiente la ingente cantidad de documentación que se genera en un procedimiento judicial.

No obstante, para que estas oportunidades se materialicen, es necesario abordar los desafíos que plantea la IA. El principal de ellos, como hemos visto, es el de la responsabilidad profesional. Pero también hay otros, como la privacidad y la protección de datos, la transparencia de los algoritmos, y el riesgo de que la IA perpetúe o incluso amplifique los sesgos existentes en la sociedad. Es fundamental que el desarrollo y la implementación de la IA en el sector legal se guíen por principios éticos sólidos y por una regulación adecuada que proteja los derechos de los ciudadanos.

(Imagen: E&J)

El futuro de la abogacía: hacia una colaboración inteligente entre humanos y máquinas

El futuro de la abogacía no pasa por una sustitución de los abogados por máquinas, sino por una colaboración inteligente entre ambos. Los abogados que sepan utilizar la IA de forma eficaz y responsable tendrán una ventaja competitiva indudable en el mercado laboral. Serán capaces de ofrecer un servicio de mayor calidad, más rápido y asequible a sus clientes. Por el contrario, los que se resistan al cambio o los que utilicen la tecnología de forma negligente, como el abogado de Canarias, corren el riesgo de quedarse atrás.

Para fomentar esta colaboración inteligente es necesario invertir en formación. Las facultades de Derecho y los colegios de abogados tienen la responsabilidad de formar a los futuros y a los actuales abogados en las competencias digitales necesarias para trabajar en el nuevo entorno tecnológico. Esto no significa que todos los abogados deban ser programadores, pero sí que deben tener un conocimiento básico de cómo funcionan las herramientas de IA, cuáles son sus limitaciones y cómo utilizarlas de forma ética y responsable.

Asimismo, es necesario un marco regulatorio claro que establezca las reglas del juego. La Unión Europea ya ha dado un primer paso con la aprobación de la Ley de Inteligencia Artificial, que establece un marco jurídico para el desarrollo y la utilización de la IA en Europa. Es de esperar que esta Ley, junto con las normas deontológicas de la abogacía, sirvan para guiar el uso de la IA en el sector legal y para garantizar que esta tecnología se utilice en beneficio de la sociedad.

Conclusión

El caso del abogado de Canarias es una llamada de atención para toda la profesión legal. Nos recuerda que la tecnología, por muy avanzada que sea, no es un sustituto del juicio humano y de la responsabilidad profesional. La inteligencia artificial es una herramienta poderosa que puede aportar grandes beneficios al sector legal, pero su uso exige una diligencia y un espíritu crítico que, lamentablemente, brillaron por su ausencia en el caso que nos ocupa.

La culpa no es del algoritmo, sino del abogado que lo utilizó de forma negligente. La solución no es prohibir la IA, sino formar a los abogados para que la utilicen de forma responsable. El futuro de la abogacía pasa por una colaboración inteligente entre humanos y máquinas, donde la tecnología potencie las capacidades del abogado, pero sin que este renuncie nunca a su papel de garante de los derechos y de los intereses de sus clientes. Solo así podremos aprovechar todo el potencial de la IA para construir una justicia más eficiente, más accesible y, en definitiva, más justa.

(Imagen: E&J)

Referencias

[1] El País. (2026, 5 de enero). El Tribunal Superior de Justicia de Canarias investiga a un abogado por citar sentencias inexistentes que atribuye a la IA. Recuperado de https://elpais.com/sociedad/2026-01-05/el-tribunal-superior-de-justicia-de-canarias-investiga-a-un-abogado-por-citar-sentencias-inexistentes-que-atribuye-a-la-ia.html

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.