Deontología y ética profesional del abogado ante el uso de la IA: lo que no cambia cuando cambia todo
¿Estamos usando IA de una manera que preserve los valores sobre los que descansa nuestra función?
(Imagen: E&J)
Deontología y ética profesional del abogado ante el uso de la IA: lo que no cambia cuando cambia todo
¿Estamos usando IA de una manera que preserve los valores sobre los que descansa nuestra función?
(Imagen: E&J)
Negarse a utilizar la inteligencia artificial (IA) empieza a ser comparable a ponerle puertas al campo o pedir que los ascensores sigan siendo manipulados exclusivamente por un ascensorista.
Así que los abogados y abogadas, como cualquier otro, ya la hemos incorporado en nuestro día a día y nos maravillamos ante el hecho de que redactemos informes en 20 minutos en lugar de dos días tras introducir en un sistema de inteligencia artificial generativa los datos de los clientes implicados, los correos internos más relevantes del expediente y el enfoque estratégico de defensa que estamos pensando aplicar (porque esa parte humana sigue bastante presente). Pero ¿he hecho algo indebido?
La respuesta instintiva —y probablemente mayoritaria — es «depende». Depende de qué herramienta es, de si los datos están anonimizados, de si el proveedor garantiza confidencialidad. Esa respuesta es razonable. Pero antes de llegar a ella, habría que hacerse otra pregunta mucho más básica: ¿hemos pensado, antes de pulsar enviar, en nuestras obligaciones deontológicas?
Y es que hay algo que ya sabíamos antes de que existiera la IA: que la norma deontológica sigue siendo el primer marco de referencia —antes que el AI Act, antes que el Reglamento General de Protección de Datos (RGPD), antes que la normativa bancaria— para cualquier abogado o abogada que use IA en su ejercicio profesional.
Suscríbete a nuestra
NEWSLETTER
La abogacía no es un proveedor de servicios en el sentido ordinario. Según el Código de Deontología del CCBE, servimos a los intereses de la Justicia al mismo tiempo que los intereses del cliente, y tenemos obligaciones jurídicas y morales que pueden entrar en conflicto con el cliente, con los tribunales, con la profesión o con el público. No es una función neutra. Tenemos un mandato que trasciende el encargo concreto.
El Estatuto General de la Abogacía Española articula esa misma idea: la abogacía es una profesión libre e independiente, al servicio de la Justicia y garante del derecho de defensa, asentada en principios rectores como la independencia, la dignidad, la integridad y el respeto al secreto profesional. Y la Ley Orgánica 5/2024 del Derecho de Defensa refuerza el cuadro: configura el derecho de defensa como un derecho fundamental indisponible, ligado a la tutela judicial efectiva y a la prohibición de indefensión, y lo conecta directamente con la función del abogado.
Todo esto importa porque la inteligencia artificial, en cualquiera de sus formas, es una herramienta al servicio de esa función, no la sustituye, no la simplifica en lo esencial, por tanto, no suspende las obligaciones que la sostienen.
La pregunta que debemos hacernos no es «¿podemos usar IA?» —la respuesta es sí—, la pregunta correcta es «¿estamos usando IA de una manera que preserve los valores sobre los que descansa nuestra función?».
Hay tres de esos valores que quiero tratar específicamente, porque son los que están bajo mayor presión con la adopción de la IA: el secreto profesional, la independencia del criterio jurídico, y la responsabilidad personal.

(Imagen: E&J)
Secreto profesional: «Lo que entra en la IA puede dejar de ser secreto»
El Código Deontológico es contundente: sin la garantía de confidencialidad no puede existir la confianza que sustenta la relación con el cliente. El secreto profesional es un derecho y una obligación fundamental y primordial del abogado. Comprende toda información conocida en el marco profesional, no está limitado en el tiempo, y el abogado debe exigir su observancia no solo a sí mismo, sino también a socios, empleados y cualquier persona que colabore en su actividad.
El Estatuto General de la Abogacía lo concreta: el secreto profesional comprende todos los hechos, comunicaciones, datos, informaciones, documentos y propuestas que el profesional haya conocido, emitido o recibido en su ejercicio. Y permanece incluso después de haber cesado en la prestación de los servicios, sin que se encuentre limitado en el tiempo.
La Ley Orgánica del Derecho de Defensa añade que todas las comunicaciones entre el abogado y el cliente son confidenciales y solo pueden ser intervenidas en los casos y con los requisitos previstos en la ley. Y que el secreto profesional incluye la inviolabilidad y el secreto de los documentos y comunicaciones vinculadas a la defensa.
Ahora traslademos esto a un escenario cotidiano en cualquier despacho.
Un miembro del equipo está trabajando en un asunto de litigación. Tiene acceso a una herramienta de IA generativa corporativa —o quizás a una de uso libre— y la utiliza para organizar los argumentos, revisar jurisprudencia o redactar un borrador de escrito. Para ello, alimenta el sistema con los hechos del caso, con correos electrónicos internos relevantes, quizás con datos de clientes, de la parte contraria, de correspondencia con el letrado que la representa.
La pregunta deontológica es: ¿a quién pertenece esa información una vez procesada por el sistema? ¿Dónde se almacena? ¿Puede ser usada para entrenar el modelo? ¿Qué ocurre si hay una brecha de seguridad del proveedor?
La abogacía está obligada a «hacer respetar» el secreto profesional a sus colaboradores. Y un proveedor tecnológico que procesa información jurídica confidencial es, a estos efectos, un colaborador. Eso significa que la política de uso de IA en la asesoría jurídica no es una cuestión de TI o de negocio: es una cuestión deontológica de primer orden. Y su ausencia no exime de responsabilidad.

(Imagen: E&J)
Independencia del criterio jurídico: cuando la IA se convierte en «presión exterior»
Nuestro código deontológico también afirma que la independencia de la abogacía es un requisito absoluto. Deben tomarse precauciones para no comprometer la independencia, y no debemos servirnos de ella de una manera que pongamos en peligro ese principio. El asesoramiento jurídico pierde todo valor si responde a autocomplacencia, a los intereses propios de quien la usa o a presiones externas.
Aquí hay un riesgo que no es teórico. Es un riesgo que ya se está produciendo en organizaciones que han adoptado IA a una velocidad mayor que su capacidad de reflexión.
Cuando un sistema de IA genera un análisis jurídico, una respuesta a una consulta o una recomendación de estrategia, ese output tiene una forma de autoridad implícita. Es articulado, extenso, aparentemente bien fundamentado, la presión —la presión de la productividad, de la eficiencia, del «ya lo ha revisado la máquina»— puede llevar al abogado o abogada a adoptarlo sin el análisis crítico que le exige su independencia profesional.
Eso tiene un nombre deontológico: se llama «presión exterior». Y el Código lo prohíbe.
La Instrucción 2/2026 del CGPJ, aunque dirigida a jueces, establece un principio que es perfectamente trasladable: el control humano efectivo, la no sustitución del criterio del profesional, y la exigencia de que los resultados de la IA no condicionen la libertad de criterio del operador jurídico.

(Imagen: E&J)
Responsabilidad personal y competencia: delegar una tarea no es delegar la responsabilidad
Nuestra actuación debe ser concienzuda y diligente, asumimos responsabilidad personal por el cumplimiento del mandato encomendado.
La normativa es clara: el profesional realizará con plena libertad e independencia y bajo su propia responsabilidad las actividades profesionales que se le encomienden.
Y añade el deber —no solo el derecho— de seguir una formación continuada que le capacite permanentemente para el correcto ejercicio de su actividad.
Estos tres elementos —responsabilidad personal, actuación diligente y formación continua— son los que están más directamente en tensión con el uso irreflexivo de la IA.
Si un informe jurídico elaborado con el apoyo de una herramienta de IA contiene un error —una jurisprudencia incorrectamente citada, una interpretación normativa equivocada, una «alucinación» del modelo— el responsable no es el proveedor de la herramienta. El responsable es el abogado o abogada que firmó el informe.
La Ley Orgánica del Derecho de Defensa vincula directamente la calidad del servicio de defensa a que los profesionales mantengan una formación legal continua y especializada.
Eso significa que usar una herramienta de IA sin entender sus limitaciones, sus sesgos, sus mecanismos de error y sus condiciones de uso no es solo un riesgo tecnológico, es un incumplimiento del deber de competencia profesional.
La abogacía exige a sus profesionales reconocida honorabilidad y respeto a las normas deontológicas y buenas prácticas. Independencia, integridad y secreto profesional son valores superiores de la profesión.
La inteligencia artificial es una de las transformaciones más profundas que vive el ejercicio de la abogacía en décadas. Y puede ser extraordinariamente útil.
Pero hay una trampa en la que es fácil caer: pensar que la IA es un asunto de TI, de compliance, de contratos con proveedores. No lo es. Es, ante todo, un asunto de deontología. Porque las obligaciones de secreto, independencia y responsabilidad no se suspenden cuando el trabajo lo hace una máquina. Se trasladan, con toda su fuerza, al profesional que decidió usar esa máquina y que firma el resultado.

