Inteligencia artificial, jóvenes y Derecho: cuando la tecnología avanza más rápido que el criterio jurídico
Mientras más avance la IA, más será indispensable la enseñanza del pensamiento y el criterio
(Imagen: E&J)
Inteligencia artificial, jóvenes y Derecho: cuando la tecnología avanza más rápido que el criterio jurídico
Mientras más avance la IA, más será indispensable la enseñanza del pensamiento y el criterio
(Imagen: E&J)
En los últimos meses, una escena se ha vuelto cada vez más habitual, ante la existencia de un problema legal, por ejemplo interpretación de un contrato, un despido, un conflicto familiar o un trámite administrativo, muchas personas, y particularmente, los jóvenes no acuden a un abogado, sino que acuden a una inteligencia artificial.
Según un reciente artículo publicado en el medio Infobae, mediante el cual se plantea el uso global de datos, el Chat GPT se ha convertido en una herramienta recurrente para personas que se encuentran en los rangos etarios de 25 a 40 años, los denominados “millennials” y miembros de la “generación Z” que buscan resolución de temas legales de forma rápida, gratuita y disponible las 24 horas.
El atractivo es claro, respuestas inmediatas, lenguaje más cercano que el de un código o una sentencia, sensación de autonomía frente a un sistema de justicia que muchos perciben como lejano, lento o costoso, preguntas o consultas ilimitadas. El mismo informe destaca que, entre más de cientos de millones de usuarios semanales de la plataforma, crece el porcentaje de quienes acuden a la IA, no sólo a las tareas rutinarias como traducción, resúmenes, redacción de textos, sino para tomar decisiones de complejidad sobre temas jurídicos relacionados con su bienestar.
Esto es una tendencia que preocupa a diversas disciplinas como la medicina, la psicología y a la abogacía. Se advierte que los modelos de lenguajes pueden ofrecer orientaciones inexactas, desactualizadas o incapaces de considerar particularidades de cada caso, con consecuencias potencialmente graves para quienes confían en esas respuestas como si vinieran de un profesional matriculado.
Suscríbete a nuestra
NEWSLETTER
Ahora bien, quizá la pregunta de fondo no sea solo si la inteligencia artificial puede equivocarse, sino qué nos dice este fenómeno sobre cómo estamos formando el criterio de las nuevas generaciones y, particularmente en este caso, el jurídico.
La juventud y la búsqueda de atajos jurídicos
Cada vez más jóvenes acuden a la inteligencia artificial para hacer consultas legales, debido a la creciente oferta de estos sistemas, les es mucho más factible acceder a estos, ya que se percibe al sistema jurídico tradicional como más costoso, complejo y poco accesible. En este sentido, la inteligencia artificial ofrece gratuidad, disponibilidad permanente y un lenguaje común que reduce la fricción que exhibe la entrada al mundo jurídico.
Aunado a esto, se suma un rasgo generacional, pues hay una naturalización en lo que sería una suerte de autogestión digital de problemas. Así como se recurre al internet o a las apps temas relacionados con salud, consumo o trámites administrativos, el Derecho no escapa de esta lógica, ya que se quiere resolver rápido y desde el celular.
El uso de la inteligencia artificial, particularmente el Chatbot de Open AI, Chat GPT, es uno de los sistemas a los que los adultos jóvenes tienen mayor acceso, un amplio porcentaje de estos en una población como los Estados Unidos de América, según el estudio realizado por Pew Research Center indica que el 58% de adultos menores de 30 años, afirma haberlo usado.
De esta forma, se puede denotar que muchos de estos usuarios jóvenes encuentran una suerte de ilusión de neutralidad y certeza, ya que al no ser una persona a la que se dirigen, no juzga, no se equivoca —en principio— por prejuicios y responde generalmente con objetividad. Esta percepción, viene a reforzar esta conducta, ya que el sistema ofrece respuestas bien estructuradas, seguras y con un sentido lógico que son convincentes, aun cuando la respuesta pueda ser incorrecta o parcial.
Este último punto, relacionado con la «autoridad algorítmica» es lo que hace que los jóvenes confíen más en sistemas que presentan este tipo de respuestas lógicas y coherentes, incluso cuando no saben cómo funcionan. Porque muchos de estos usuarios asumen que todo lo que la inteligencia artificial expresa es correcto por defecto.
En la realidad, lo que consiguen son respuestas generales sin un contexto jurídico real, ya que el ejercicio que hacen los sistemas algorítmicos y, particularmente, el Chat GPT, no es de razonamiento jurídico en sentido estricto, sino que genera textos probabilísticos basados en patrones lingüísticos entrenados sobre grandes cantidades de datos. Según la documentación técnica de OpenAI y como lo vemos los usuarios, el sistema puede alucinar, por lo cual vemos como hay citas de normas inexistentes, mezcla marcos normativos de distintos países e incluso cita fallos imaginarios.
Esto representa un riesgo significativo, ya que si tenemos una respuesta aparentemente correcta, la misma puede ser inaplicable, estar desactualizada o no considerar elementos fácticos particulares como jurisdicción, plazos, pruebas o consecuencias jurídicas.
Ahora bien, los riesgos jurídicos que se corren cuando se delegan decisiones de contenido legal en los sistemas de inteligencia artificial son múltiples y muy concretos, ya que por ejemplo en el artículo citado (id.) se denotan decisiones en materia laboral, familiar, migratorias y patrimoniales, donde un error puede generar daños irreversibles. Tanto en la aceptación de disposiciones contractuales desfavorables, hasta perder plazos legales o incluso, iniciar acciones incorrectas, la confianza acrítica en la inteligencia artificial puede traducirse en consecuencias jurídicas reales.
Tanto es así, que se advierten esos mismos riesgos, incluso en entornos profesionales, lo cual es un problema incluso más serio. Porque como se ha visto en múltiples casos recientes, incluso profesionales han sido sancionados por presentar escritos con jurisprudencia falsa generada por inteligencia artificial, lo que denota la necesidad de reforzar el control y el criterio humano.
En definitiva, el inconveniente más profundo no radica en que la inteligencia artificial se equivoque, sino que reemplace el ejercicio del juicio jurídico en personas que aún no lo han desarrollado. En el momento en el que sistema algorítmico se convierte en el primer y, en muchas oportunidades, el único consejero legal, el usuario deja en la inteligencia artificial la habilidad central del derecho que es interpretar, dudar, ponderar, razonar y argumentar.
El núcleo del debate jurídico y educativo se basa en la ausencia del criterio previamente formado, la inteligencia artificial no potencia la formación, sino que puede empobrecerla cuando sustituye el razonamiento. Debido a que si el usuario recurre permanentemente a los sistemas algorítmicos, sin el conocimiento, discernimiento y la responsabilidad, de que las respuestas son lógicas y coherentes, pero no necesariamente correctas, podría llevar a consecuencias legales muy riesgosas, consecuencias que un profesional puede, en la medida de sus posibilidades, contener, por la pericia y conocimiento jurídico que este posee —y para las que se ha preparado— y no así, el usuario.

(Imagen: E&J)
El docente como formador de juicio jurídico en tiempos de la IA
Durante siglos, la enseñanza del Derecho estuvo atravesada por una limitación estructural que es el acceso al conocimiento jurídico. Libros escasos, jurisprudencia difícil de consultar, doctrinas reservadas a bibliotecas especializadas, lenguaje poco accesible, en ese contexto el docente es quien ocupaba principalmente el rol de transmisor autorizado del saber.
La irrupción de la inteligencia artificial generativa rompe definitivamente el esquema clásico. Hoy en día, normativas, fallos, explicaciones y argumentos están disponibles de forma inmediata. La cuestión ya no es acceder a la información, sino cómo buscarla, qué preguntar y qué hacer con ese exceso de información. La abundancia de respuestas no garantiza comprensión y, claramente, mucho menos un buen juicio.
El problema, entonces, radica en que ya no se encuentra en la necesidad de información, sino en el acceso al criterio necesario para discernir la información ofrecida.
Como venimos desarrollando y resulta esencial entender, es que los sistemas algorítmicos no razonan como un jurista, ya que no interpretan normas desde principios, no ponderan valores, no anticipan consecuencias institucionales ni asumen responsabilidad por sus respuestas, ofrecen una simulación lingüística del razonamiento.
En el marco del trabajo presentado por quien escribe, en las XV Jornadas de la Enseñanza en la Facultad de Derecho de la Universidad de Buenos Aires, se advierte que el riesgo no radica en que la inteligencia artificial reemplace al jurista experto, sino que interfiera en la formación del jurista en etapa de aprendizaje, ofreciendo conclusiones sin el recorrido intelectual previo.
El Derecho no se aprende acumulando respuestas correctas, sino entrenando la capacidad de preguntar, dudar, argumentar y decidir bajo incertidumbre. Ninguna de esas competencias puede ser delegada sin consecuencias.
En este sentido, el docente viene a tener un rol muy importante que es el de formador de juicio, guía del discernimiento, no como corrector de respuestas, ya que no las valida, sino quien enseña a pensar. Esto significa que el docente trabaja sobre:
- identificación de problemas jurídicos reales,
- lectura crítica de posibles soluciones,
- detección de errores, vacíos o sesgos en respuestas automatizadas,
- contextualización normativa, institucional y social.
Entonces, a pesar de los avances tecnológicos, donde muchos piensan que ciertos roles se van a perder, al contrario, se reinventan en ese marco tecnológico y se vuelve, por lo tanto, más necesario pues lo que busca es evitar que los sistemas algorítmicos se conviertan en un atajo cognitivo que empobrezca la formación, sino que sea un uso reflexivo y responsable.
Esto último en consonancia con las recomendaciones internacionales más recientes sobre IA y educación, que insisten en que el pensamiento crítico y el rol humano deben reforzarse, no diluirse.
De este modo, la inteligencia artificial no desplaza al docente ni al jurista, sino que reinventa y mejora la capacidad, ya que no se trata de solo respuestas, lo cual denota gran debilidad, sino que se pone de manifiesto, la necesidad de enseñar a pensar. Desde esta perspectiva, el desafío ya no es técnico, sino pedagógico y cultural, es decir formar criterio en un mundo donde las respuestas ya no escasean.

(Imagen: E&J)
Breves propuestas para universidades, docentes, colegios y estudiantes
Para universidades y facultades de derecho
En lugar de prohibir la inteligencia artificial, o ignorarla, las instituciones deberían integrar explícitamente en sus políticas académicas, algunas universidades ya lo han incorporado, en países como en Grecia ya lo están aplicando.
Una de las cosas que deberían tener en cuenta, es definir un marco claro de uso, cuándo se admite, por ejemplo en caso de borradores, ideas, resúmenes, y cuándo no, que sería el caso de exámenes, trabajos, desarrollo de algunas actividades evaluativas.
Podría definirse incorporar módulos de inteligencia artificial y formación jurídica, para formar parte integrante de la Teoría General del Derecho, metodología o ética profesional.
Asimismo, teniendo en cuenta la incorporación de sistemas algorítmicos actualizar reglamentos de evaluación, que el estudiante declare el uso de la inteligencia artificial, en qué medida y qué controles ejerció, así de esta manera puede explicar, defender y corregir críticamente lo desarrollado.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) remarca la necesidad de que las instituciones adopten marcos de gobernanza de la inteligencia artificial en la educación, garantizando trazabilidad y transparencia o el Consejo de Europa (COE) que se manifiesta en este mismo sentido, reconociendo la integración de la tecnología y la educación
Para docentes de Derecho
En el caso de los docentes, y particularmente de los docentes en abogacía, la inteligencia artificial no debería ser un enemigo, sino un nuevo recurso pedagógico, pues le habilita para diseñar actividades con estos sistemas como insumo y no como sustituto.
Incluso, a través de estos sistemas podría hacer visible el proceso, y no solo el resultado, por ejemplo consultando a los sistemas algorítmicos “cómo llegó a esa conclusión” y que el estudiante identifique los principios, normas, argumentos usados por el sistema que permitan verificar si estos respaldan o no lo que generó el sistema.
Esto habilitaría trabajar a su vez, la ética profesional en clave digital, ya que hay principios que rigen en el ejercicio profesional como la diligencia debida, lealtad y confidencialidad.
Además, entre profesores podrían establecer pautas comunes para tener una uniformidad de criterios en el uso de los sistemas algorítmicos.
Esto se alinea con lo establecido en las recomendaciones de la Unión Europea y la Organización para la Cooperación y el Desarrollo Económico (OCDE)
Para colegios, barras y organizaciones profesionales
En este caso, estas instituciones tienen un papel esencial en la ética y deontología de las profesiones y, particularmente, como es el caso, en el uso de la inteligencia artificial en la práctica profesional.
Se podrían emitir criterios claros sobre el uso responsable de los sistemas algorítmicos, donde haya verificación humana de cualquier texto generado, prohibición de presentar ante tribunales material no revisado, así como informar al cliente, cuando corresponda, el uso de herramientas automatizadas.
Asimismo, deberán actualizar los códigos y reglamentaciones deontológicas, adaptando referencias expresas a los sistemas algorítmicos, que tengan foco en la competencia profesional, confidencialidad, secreto profesional y protección de datos.
Otro impulso que podría surgir de parte de estas instituciones, sería el ofrecimiento de talleres y cursos sobre los sistemas algorítmicos aplicados al ejercicio profesional, evidentemente, desde el punto de vista de la lógica de la herramienta bajo control humano.
Tenemos casos que podemos citar como ejemplo, como es el caso de American Bar (ABA), donde se establecen parámetros o guías para el uso de la inteligencia artificial en el ejercicio de la profesión o el caso de la Council of Bars and Law Societies of Europe (CCBE).
Para estudiantes y usuarios de sistemas algorítmicos
Tal como hemos adelantado, en casos como en el artículo citado, o para quienes estudian con inteligencia artificial, o quienes lo usan como “abogado de bolsillo”, la idea no es juzgarlos ni prohibirles el uso de estos sistemas, más bien, desde el punto de vista profesional, que sigan algunas pautas mínimas para un correcto uso, por mencionar algunas:
- Si hay decisiones importantes de por medio, no depender meramente de la inteligencia artificial, sobre todo cuando lo que está involucrado es la familia, vivienda, trabajo, responsabilidades penales y fiscales.
- Usar la inteligencia artificial como punto de referencia, no como base legal definitiva, se puede pedir explicación, investigar, profundizar en ciertos puntos para tener más herramientas para poder conversar con un profesional de la abogacía.
- A raíz de lo anterior, esto permite que pueda preguntar mejor, hacer mejores fórmulas de consulta, pedirle expresamente al sistema que no genere jurisprudencia inexistente lo cual nos lleva a verificar siempre la información y revisar personalmente las fuentes.
- Y, finalmente, asumir la responsabilidad personal y profesional que implica el uso de los sistemas algorítmicos.
Lo más importante de todo, es que la integración de la inteligencia artificial y el ejercicio del Derecho no implica delegar en ella las decisiones, sino diseñar estructuras o mecanismos que permitan usar el criterio jurídico, permitiendo que el mismo se fortalezca, teniendo en cuenta que las respuestas fáciles y la información, ya no son bienes escasos.

(Imagen: E&J)
Cuando las respuestas abundan, lo que hace falta es criterio
La expansión de herramientas tecnológicas, como la inteligencia artificial en el ámbito jurídico no debería leerse únicamente como una amenaza técnica ni como una moda pasajera. Es una muestra hasta qué punto las nuevas generaciones buscan orientación rápida en un sistema jurídico que perciben como complejo, distante o inaccesible, pero también deja al descubierto una carencia más profunda, que es la fragilidad del criterio cuando no ha sido suficientemente formado.
La inteligencia artificial puede ofrecer respuestas coherentes, lógicas, bien redactadas y aparentemente razonables, pero no puede ofrecer responsabilidad, prudencia ni juicio jurídico. Esa es una cualidad que se construye con formación, en el diálogo con el docente, en el error corregido, en la argumentación justificada y, por supuesto, en la conciencia que tiene un profesional sobre la responsabilidad que toda decisión implica. Delegar este ejercicio sin mediación crítica, no le da fuerza al estudiante, ni al ciudadano, sino que, por el contrario, lo vuelve dependiente de una respuesta carente de criterio, sin tener en cuenta la responsabilidad y las consecuencias jurídicas que conllevan esas decisiones.
Es por ello, que el rol del docente, y más aún el de Derecho, se hace más exigente y esencial, pues no se trata de producir respuestas correctas, sino de formar profesionales capaces de interrogar las respuestas que reciben, no importa de donde vengan, si de un libro, un tribunal o un algoritmo, sino que tenga la capacidad que pueda decidir con autonomía, responsabilidad y sentido coherente. Mientras más avance la inteligencia artificial, más será indispensable la enseñanza del pensamiento y el criterio.
Así es que, el desafío hoy en día no es tecnológico, sino pedagógico, cultural, pues la necesidad está en que, ante la integración de la inteligencia artificial en el día a día, lo que se busca es establecer una comprensión clara de sus límites. Ahora, si asumimos este desafío, la inteligencia artificial se va a convertir en un aliado formativo, porque si eludimos ese compromiso, corremos el riesgo de formar ciudadanos que saben consultar, pero no discernir.
El futuro de la humanidad, no está en la dependencia de cuán inteligente sean los sistemas algorítmicos, sino de cuán preparados y formados estén quien decida usarlas.

