La inteligencia artificial entra en los despachos de abogados: una revolución que afronta desafíos prácticos, éticos y normativos
La adopción de inteligencia artificial en despachos de abogados plantea oportunidades de eficiencia y ventaja competitiva, pero exige un estricto cumplimiento ético, normativo y de protección de datos para garantizar los derechos fundamentales
(Imagen: E&J)
La inteligencia artificial entra en los despachos de abogados: una revolución que afronta desafíos prácticos, éticos y normativos
La adopción de inteligencia artificial en despachos de abogados plantea oportunidades de eficiencia y ventaja competitiva, pero exige un estricto cumplimiento ético, normativo y de protección de datos para garantizar los derechos fundamentales
(Imagen: E&J)
Los días 26 y 27 de noviembre 2025 se celebraron las III Jornadas de la Asociación de letrados del Tribunal Supremo que tenían por título “Inteligencia Artificial y Justicia. Durante las jornadas, una de las ponencias trató sobre el uso de la IA por parte de los despachos de abogados y nos hizo ver algunas cuestiones relevantes tales como la asimetría que esta tecnología produce en el sector entre los grandes despachos y los pequeños o la ventaja competitiva que supone. Ese mismo día, una noticia publicada en un medio digital volvía a tratar el tema señalando que su uso ha irrumpido con fuerza en la abogacía, incidiendo nuevamente en que la proliferación de soluciones IA estaba transformando con rapidez la práctica del derecho: trabajos o procesos que antes ocupaban horas como el análisis de documentos, la redacción de escritos, revisión de jurisprudencia, e incluso el ordenar los argumentos en una demanda, ahora pueden completarse en minutos.
En ambos casos, el mensaje trasladado me resultó preocupante pues indicaba indirectamente una falta de formación y concienciación, soslayando el enorme impacto que tiene el empleo de estas soluciones no sólo para la productividad, sino para la ética profesional y las garantías de los derechos fundamentales (a la intimidad, la protección de datos personales, a la propia imagen, al honor, etc.)
Es cierto que la abogacía ya está adoptando asistentes legales potentes y especializados basados en IA (como Harvey), y otras herramientas ofrecidas por plataformas jurídicas especializadas, pero también lo es que muchos profesionales están usando los modelos gratuitos ofrecidos por las grandes tecnológicas sin un conocimiento básico de cómo funcionan, sin tener la certeza de lo que ocurre con la información con la que alimenta al sistema y sin tener claro en que consiste la anonimización de la información (quitarle los nombres a un escrito no es anonimizar, hay que tener en cuenta el proceso interno para llevar a cabo la operación, lo que incluye: evitar que el relato en su conjunto nos facilite la información, los metadatos o tener en cuenta el secreto estadístico)
Las herramientas IA no debería usarse sin el control y las garantías adecuadas pues, por un lado, hay que recordar que todo lo que permite la tecnología no lo permite la legislación y, por otro, el uso inadecuado sin un diseño basado en el estatuto de la confidencialidad de la abogacía y el cumplimiento normativo genera un nivel de riesgo muy elevado para las personas. Su adopción en el ámbito jurídico es ineludible e imprescindible, pero representa un nuevo desafío en varias materias, muy en concreto, para los responsables del sistema y los de tratamiento de datos personales.
Suscríbete a nuestra
NEWSLETTER
Hemos de ser conscientes que, en la mayoría de los casos, el uso de IA implicará el tratamiento de datos personales de categorías de personas interesadas tan heterogéneas como las que trabajan en el despacho, clientes, afectadas, comunicaciones, documentos, expedientes, autoridades judiciales y policiales, y así, un largo etc. Además, se operará con categorías de datos sensibles, especiales y los que podríamos denominar ordinarios. Es por ello por lo que, si se utiliza para procesar identificadores directos o indirectos de las personas, se deben adoptar una serie de requisitos que aseguren los derechos contenidos en la Constitución, en especial, en el artículo 18.1 y 4. Señalando que, además del cumplimiento de la normativa sobre protección de datos, conforme al artículo 5 del Código Ético de la Abogacía, las actuaciones deben ir orientadas siempre por la ética y el deber de secreto profesional.
Actuaciones como el registro, documentación y mantenimiento de los tratamientos, establecer claramente la finalidad de cada uno, obrar conforme el principio de la responsabilidad proactiva, el cumplimiento de principios como la minimización de datos, limitación de la finalidad, integridad, exactitud y confidencialidad, garantizar la información y el resto de los derechos de las personas interesadas, implantar medidas de seguridad adecuadas, procesos de anonimización y tener claro si se cederán datos a terceros o se producirán trasferencias internacionales, son obligaciones generales que los despachos deben asumir. Al mismo tiempo, si usamos herramientas de IA (obviamente, nuevas tecnologías), el RGPD nos obliga a realizar una evaluación de impacto relativa a la protección de datos (EIPD) por entender que puede entrañar un alto riesgo para los derechos y libertades de las personas.

(Imagen: E&J)
El uso de sistemas de IA añade capas de complejidad a estos aspectos puesto que también nos obliga a cumplir con el Reglamento de Inteligencia Artificial (RIA). Ambos aspectos, en conjunto, exigen asegurarse de los “términos y condiciones” de las herramientas de terceros (proveedores IA). A modo de ejemplo; ¿Leemos las condiciones de uso o las políticas de uso de ChatGPT o Grok antes de usarlos? Es imprescindible asegurarse de que los proveedores de cualquier tipo no retengan o utilicen la información para otros fines distintos al servicio prestado o contratado. No se puede obviar que, estos sistemas, especialmente los basados en modelos complejos, plantean un desafío adicional ya que su funcionamiento puede ser opaco, difícil de auditar o de explicar, lo que complica la rendición de cuentas, la trazabilidad o la transparencia.
Hay que tener en cuenta que el despacho siempre será el responsable del tratamiento y, en algunos casos, responsable de despliegue del sistema IA, por lo que, al utilizar procesos total o parcialmente automatizados, debe conjugar el RIA con el artículo 22 del RGPD, ya que el uso de IA no elimina ni diluye la responsabilidad en la toma de decisiones.
En despachos que traten datos de forma recurrente con IA conviene contar con el asesoramiento de un DPD que coopere con el cumplimiento normativo, evalúe riesgos, supervise las relaciones con proveedores, realice auditorías, gestione incidentes, y participe en la formación continua del personal en materia de protección de datos.
El pasado día 03 de diciembre, la UNESCO aprobó las “Directrices para el uso de sistemas IA en los juzgados y tribunales”, aportado una serie de 15 principios para el desarrollo, adquisición, adopción, implantación y uso de estos sistemas en el ámbito judicial. De manera resumida, este organismo reclama la necesidad de que las entidades que participan en la Justicia se guíen por estos principios durante todo el ciclo de vida de los sistemas IA: Protección de los DDHH, proporcionalidad, viabilidad de los beneficios de la herramienta, seguridad, confidencialidad, exactitud y fiabilidad, explicabilidad, auditabilidad, trasparencia, conciencia e información para su empleo, responsabilidad, rendición de cuentas y posibilidad de recurso, supervisión humana en la toma de decisiones, diseño centrado en la persona y participación y gobernanza multifactorial y colaboración.
Del mismo modo, la Agencia de Derechos Humanos de la Unión Europea (FRA), en su informe sobre la “Evaluación de la inteligencia artificial de alto riesgo: riesgos para los derechos fundamentales”, de 2025, se impone como reto el luchar contra los riesgos y las brechas en la práctica con el uso de IA, señalando que existen lagunas en la clasificación de sistemas de alto riesgo, que los proveedores poseen una conciencia limitada sobre derechos fundamentales y que la autoevaluación del proveedor no es suficiente al carecer de objetividad y, en ocasiones, de experiencia. Por ello, para combatir estos riesgos, recomienda interpretar las normas de la manera más restrictiva posible para evitar lagunas, proporcionar orientación clara y practica a los usuarios, realizar evaluaciones de impacto para derechos fundamentales y asegurar una supervisión externa y eficaz.
Como reflexiones finales, resulta obligado señalar que la adopción de IA en la abogacía debe basarse en la protección de los derechos fundamentales y ser responsable, conforme y sostenible. Para ello, resultaría ineludible desarrollar documentación de gobernanza interna que regule qué herramientas se pueden usar, para qué tipo de tareas, con qué y tipo de datos, quién tiene acceso y en qué condiciones. Esta documentación debe incluir una política interna de uso de IA que establezca qué se puede usar, qué no, cómo se documentan los usos, cómo se valida la información y quién tiene la última responsabilidad en las decisiones (incluso, en virtud del tamaño del despacho, sería útil la incorporación de un comité de ética/protección de datos que supervise los procesos de implantación y despliegue). Otra idea fuerza proviene de la velocidad con la que evoluciona a la tecnología, lo que eleva la importancia de incluir procedimientos para la revisión periódica, la auditoria, el control de las versiones, el registro de usos, la trazabilidad y la gestión de incidentes.
El cumplimiento de estos presupuestos no es un mero requisito formal, sino una exigencia de ética profesional y de cumplimiento normativo. Ignorarla, puede derivar en consecuencias graves, de carácter tangible e intangible: vulneración de derechos, pérdida de reputación (brand), sanciones millonarias, incluso puede derivar en responsabilidades penales, civiles o disciplinarias.
Por último, en cuanto al uso práctico, se debe huir de posiciones “parasociales” o humanizadoras de los asistentes o sistemas IA; hay que entender y concienciarse de que, aunque son una gran ayuda, son sólo herramientas que modifican sustancialmente el trabajo de una nueva abogacía que ya es una realidad, de la que podrán beneficiarse, eso sí, sólo aquellos que las usen sin comprometer los derechos y las garantías que protegen a las personas.

