Del código a la norma: “algorética” y lenguaje jurídico en la era de la inteligencia artificial
"La educación jurídica y tecnológica, una necesidad urgente"

(Imagen: E&J)
Del código a la norma: “algorética” y lenguaje jurídico en la era de la inteligencia artificial
"La educación jurídica y tecnológica, una necesidad urgente"

(Imagen: E&J)
La inteligencia artificial (en adelante, “IA”) ha dejado de ser un fenómeno futurista para convertirse en protagonista esencial de nuestra realidad social, económica y jurídica. Hoy, algoritmos predictivos, modelos generativos y sistemas automatizados toman decisiones que antes eran dominio exclusivo de personas. En este nuevo contexto, la tradicional función del Derecho de regular la conducta humana se enfrenta al desafío inédito de gobernar entidades algorítmicas cuya lógica, basada en datos y código, desafía la interpretación flexible y abierta del lenguaje jurídico.
Surge así la «algorética», un término acuñado por el teólogo y científico italiano Paolo Benanti que designa la incorporación consciente de valores éticos como la transparencia, equidad, responsabilidad y dignidad humana dentro del propio desarrollo tecnológico. Su propósito fundamental es asegurar que los algoritmos no solo sean eficientes y precisos, sino también justos y respetuosos con los derechos fundamentales.
Sin embargo, la efectividad de estos principios éticos depende de la capacidad del lenguaje jurídico para convertirlos en normas claras y exigibles. Este proceso implica superar la tensión intrínseca entre el carácter flexible del Derecho y la rigidez formal del código informático.
En este contexto semiótico, términos como «transparencia», «equidad» o «sesgo» adquieren significados distintos según el entorno en que se utilicen. La interpretación abierta propia del lenguaje jurídico —que permite adaptarse a contextos diversos y situaciones imprevistas— choca con la necesidad tecnológica de instrucciones claras, concretas y previsibles que puedan ser ejecutadas por máquinas. Ante esta disyuntiva, es esencial encontrar un equilibrio que permita mantener la flexibilidad jurídica sin sacrificar la precisión técnica requerida para regular eficazmente el comportamiento de algoritmos.
La dificultad de alcanzar este equilibrio se refleja claramente al analizar cómo distintos ordenamientos jurídicos abordan la regulación de la IA. La Unión Europea ha optado por una estrategia integral, plasmada en el reciente Reglamento sobre Inteligencia Artificial de 2024. Este Reglamento establece un enfoque basado en el riesgo, prohibiendo aquellos usos considerados inaceptables —como los sistemas de puntuación social— e imponiendo rigurosos controles sobre sistemas de alto riesgo, especialmente aquellos vinculados a derechos fundamentales como la salud, el empleo, la justicia o el crédito. Destacan requisitos específicos para minimizar sesgos algorítmicos, asegurar transparencia hacia usuarios afectados y garantizar una supervisión humana real y efectiva.
Por su parte, Estados Unidos adopta un enfoque pragmático y menos intervencionista, confiando principalmente en la aplicación adaptativa de regulaciones sectoriales existentes como las leyes antidiscriminación, protección al consumidor o responsabilidad civil por productos defectuosos. Aunque carece de una legislación federal general sobre IA, su gobierno ha emitido lineamientos éticos —como el Blueprint for an AI Bill of Rights— que establecen principios fundamentales en torno a la transparencia, equidad y alternativas humanas en decisiones críticas. Este enfoque flexible favorece la innovación, pero también genera incertidumbre regulatoria y una posible protección desigual en ciertos ámbitos sensibles.
China, en contraste, desarrolla una aproximación más estructurada y centralizada, caracterizada por regulaciones específicas y verticales destinadas a controlar el uso de algoritmos en plataformas digitales y servicios comerciales. En sus recientes normativas sobre recomendaciones algorítmicas, deepfakes e IA generativa, China enfatiza valores propios como la «armonía social» y la promoción de valores socialistas, subordinando las consideraciones éticas individuales a objetivos colectivos definidos por el Estado.
Pese a las diferencias, todos estos marcos regulatorios coinciden en elementos clave como la prevención de daños a la dignidad humana, la exigencia de transparencia en función del riesgo implicado y la garantía de que siempre exista un responsable humano claramente identificable.

(Imagen: E&J)
Esta convergencia ética, reforzada además por iniciativas internacionales como el Convenio Marco del Consejo de Europa sobre IA y Derechos Humanos, subraya la importancia de traducir principios éticos universales en normas jurídicas exigibles a nivel global. La clave para lograr esta traducción reside en definir obligaciones jurídicas claras y precisas para todos los actores involucrados en el desarrollo y uso de sistemas algorítmicos: desde quienes diseñan y entrenan algoritmos hasta quienes los despliegan y supervisan en contextos reales.
Precisamente en este proceso de traducción normativa emergen conceptos prácticos que ya comienzan a incorporarse en diversas regulaciones nacionales e internacionales, tales como la obligación de realizar auditorías de sesgo, la transparencia en cuanto a las decisiones automatizadas que afectan derechos fundamentales, y la responsabilidad explícita de proveedores y usuarios ante posibles daños causados por el mal funcionamiento o uso indebido de sistemas de inteligencia artificial. Asimismo, se han planteado soluciones innovadoras para garantizar la explicabilidad razonable de las decisiones algorítmicas, permitiendo a usuarios y afectados entender y, en su caso, impugnar decisiones automatizadas injustas o discriminatorias.
Además, la irrupción de la IA obliga a repensar elementos fundamentales del Derecho tradicional, como la causalidad, la prueba o la responsabilidad civil y penal. Por ejemplo, ¿cómo atribuir culpa o responsabilidad cuando las decisiones son tomadas de forma autónoma por un algoritmo? La tendencia general descarta atribuir personalidad jurídica propia a las máquinas, insistiendo en la responsabilidad humana última detrás de cada sistema autónomo. No obstante, continúan desarrollándose doctrinas innovadoras sobre responsabilidad objetiva, seguros específicos o inversión de la carga de la prueba para daños provocados por algoritmos.
Ante estos desafíos, el Derecho debe actualizar continuamente sus herramientas epistemológicas y ontológicas para responder eficazmente a los retos que plantean estas tecnologías disruptivas. Para ello resulta fundamental la cooperación interdisciplinar entre juristas, ingenieros, científicos sociales y expertos en ética, que trabajen conjuntamente en la creación de regulaciones flexibles, actualizables y respetuosas con los derechos fundamentales. Asimismo, la educación jurídica y tecnológica de jueces, abogados y legisladores emerge como una necesidad urgente para garantizar la adecuada aplicación y supervisión de estos marcos regulatorios.
En definitiva, pasar «del código a la norma» implica reconocer que la regulación efectiva de la inteligencia artificial depende, en última instancia, de la capacidad del Derecho para hablar un lenguaje que tanto humanos como máquinas puedan entender claramente. Si se logra este equilibrio, la IA se convertirá en una herramienta al servicio de la justicia, la equidad y el desarrollo humano, manteniendo intacta la dignidad y la autonomía de cada persona en la era digital.
