Connect with us
Artículos

El giro copernicano de la «alfabetización» en IA

Análisis crítico de la reforma del artículo 4 del Reglamento de IA por la Propuesta "Ómnibus Digital"

(Imagen: E&J)

Pablo Sáez Hurtado

Delvy A.I. Senior Counsel. Presidente de la «comisión joven» de ENATIC. Director general de «BeAl Foundation». Gestor Ético de «OdiselA». Responsible and Trustworthy A.l. Lawyer.




Tiempo de lectura: 6 min

Publicado




Artículos

El giro copernicano de la «alfabetización» en IA

Análisis crítico de la reforma del artículo 4 del Reglamento de IA por la Propuesta "Ómnibus Digital"

(Imagen: E&J)

Introducción: de la responsabilidad privada a la abdicación pública

El Reglamento de Inteligencia Artificial de la Unión Europea, aprobado en junio de 2024, nació con la ambición de erigirse en un faro regulatorio global, un estándar de oro para una IA segura, transparente y respetuosa con los derechos fundamentales de los ciudadanos europeos. En su núcleo, el artículo 4, dedicado a la «alfabetización en materia de IA», se concibió como una piedra angular fundamental: una obligación directa y exigente para que proveedores y responsables del despliegue de sistemas de IA garantizaran que su personal y colaboradores tuvieran un «nivel suficiente» de conocimientos sobre esta tecnología transformadora. La responsabilidad, por tanto, recaía inequívocamente en el sector privado, una carga operativa y económica considerable, pero necesaria para asegurar una implementación responsable.

Sin embargo, la Propuesta de Reglamento Ómnibus Digital, presentada por la Comisión Europea el 19 de noviembre de 2025, ejecuta un giro copernicano que dinamita este paradigma regulatorio. Con el pretexto de «simplificar» la implementación y «reducir cargas administrativas» para las empresas, la propuesta modifica sustancialmente el artículo 4, transfiriendo la obligación principal de fomentar la alfabetización en IA desde los operadores privados hacia la Comisión Europea y los Estados miembros. Este movimiento no es una mera corrección técnica o editorial, sino una reforma estratégica de profundo calado que redefine por completo el ecosistema de responsabilidades en la gobernanza de la IA. Sostenemos que, si bien esta modificación alivia una carga significativa para las empresas y resuelve una compleja paradoja legal en la lucha contra los sesgos algorítmicos, también introduce un peligroso vacío de protección y debilita, de manera alarmante, las garantías para los sistemas que no son de alto riesgo.

Global IA

El artículo 4 original: una obligación universal pero deliberadamente debilitada

Para comprender la magnitud de este retroceso regulatorio, es imperativo analizar el tenor literal del artículo 4 original del Reglamento de IA. La norma establecía una obligación de alcance universal, aplicable a todos los proveedores y responsables del despliegue de sistemas de IA, independientemente del nivel de riesgo del sistema. El precepto les exigía «adoptar medidas para garantizar que, en la mayor medida posible», su personal y «demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA» tuvieran un «nivel suficiente de alfabetización en materia de inteligencia artificial».

La redacción, aunque bienintencionada, adolecía de una notable ambigüedad jurídica. Conceptos como «mayor medida posible» y «nivel suficiente» son estándares jurídicos indeterminados que, si bien otorgan flexibilidad a los operadores, generan una considerable inseguridad jurídica. ¿Qué se consideraba «suficiente»? ¿Cómo se medía en la práctica? La norma remitía a criterios como los conocimientos técnicos, la experiencia, la educación y el contexto de uso, pero dejaba fundamentalmente en manos de los operadores privados la interpretación y la implementación. Esto suponía una carga operativa y económica considerable, especialmente para pequeñas y medianas empresas, que debían diseñar e implementar programas de formación sin un marco de referencia claro. La obligación se extendía a «demás personas», una formulación amplia que podía incluir a contratistas, consultores y terceros, multiplicando exponencialmente la complejidad del cumplimiento.

Suscríbete a nuestra
NEWSLETTER

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) interpretó este artículo como un pilar fundamental para la aplicación efectiva del Reglamento, conectándolo directamente con deberes cruciales como la supervisión humana (artículo 14) y la transparencia (artículo 13). Sin una adecuada alfabetización, argumentaba la agencia, la supervisión humana se tornaría ineficaz e incapaz de detectar y corregir comportamientos inapropiados de los sistemas. A pesar de su importancia estratégica, la carga impuesta era desproporcionada y su aplicación práctica, incierta.

La Propuesta Ómnibus: un nuevo reparto de cartas que diluye la responsabilidad

La Propuesta Ómnibus Digital altera radicalmente este escenario regulatorio. El nuevo texto propuesto para el artículo 4 establece: «La Comisión y los Estados miembros fomentarán la alfabetización en materia de inteligencia artificial». Posteriormente añade: «Los proveedores y responsables del despliegue de sistemas de IA de alto riesgo adoptarán medidas para garantizar que su personal tenga un nivel suficiente de alfabetización en materia de IA». Este cambio introduce profundas divergencias que debilitan sustancialmente la protección de los ciudadanos y la calidad de la gobernanza de la IA en Europa.

(Imagen: E&J)

La primera y más evidente divergencia es la transferencia radical de responsabilidad. La alfabetización en IA pasa de ser una obligación directa y exigible del sector privado a una mera responsabilidad de «fomento» del sector público. Esto, si bien reconoce que la capacitación digital es fundamentalmente una tarea de política pública que excede las capacidades de los operadores individuales, en la práctica diluye la responsabilidad directa y exigible, creando un vacío de cumplimiento. La segunda divergencia clave es la drástica reducción del alcance de aplicación. La obligación para las empresas ya no es universal, sino que se restringe exclusivamente a los sistemas de alto riesgo. Esto deja a los sistemas de riesgo bajo o limitado en un preocupante limbo normativo, sin una obligación explícita de formación para quienes los operan, a pesar de que pueden tener impactos significativos en los ciudadanos. En tercer lugar, la naturaleza de la obligación se debilita significativamente: se pasa de «garantizar» un nivel suficiente a simplemente «adoptar medidas», un estándar de cumplimiento mucho más laxo y difícil de fiscalizar por las autoridades competentes. Finalmente, se restringe el universo de personas a formar, eliminando la referencia a «demás personas» y ciñéndola únicamente al «personal» directo, excluyendo a contratistas, consultores y otros terceros implicados.

El artículo 4 bis: una solución necesaria a una paradoja peligrosa

Quizás la innovación más relevante y acertada de la Propuesta Ómnibus sea la introducción de un nuevo artículo 4 bis. Este precepto viene a resolver una de las mayores tensiones jurídicas del Reglamento original: la prohibición de tratar categorías especiales de datos personales para la detección y corrección de sesgos. El Reglamento de IA obligaba a garantizar la no discriminación, pero el Reglamento General de Protección de Datos (RGPD) impedía, en la práctica, analizar los datos necesarios para verificar si un sistema estaba discriminando a ciertos colectivos.

El nuevo artículo 4a establece una base jurídica explícita para que los proveedores puedan, excepcionalmente, tratar datos sensibles con la única y exclusiva finalidad de detectar y corregir sesgos algorítmicos. Esta medida, reclamada insistentemente por la industria y la academia, es un paso indispensable para avanzar hacia una IA más justa y equitativa. Sin embargo, la propia norma exige que este tratamiento se realice con «salvaguardias adecuadas para los derechos y libertades fundamentales». Aunque no las detalla exhaustivamente, la doctrina y las mejores prácticas apuntan a la necesidad de implementar tecnologías de mejora de la privacidad (PETs), como la privacidad diferencial o el aprendizaje federado, junto a una gobernanza de datos extremadamente robusta, con políticas de limitación de la finalidad, controles de acceso estrictos y una total transparencia y auditabilidad.

Conclusión: un avance con preocupantes claroscuros

La reforma del artículo 4 del Reglamento de IA por parte de la Propuesta Ómnibus Digital es un movimiento audaz con importantes claroscuros. Por un lado, representa un avance innegable en términos de realismo y pragmatismo regulatorio. Trasladar la carga principal de la alfabetización en IA al sector público es una decisión acertada que alinea la responsabilidad con la capacidad institucional y reconoce la naturaleza de bien público de la formación digital. Asimismo, la introducción del artículo 4a es una solución valiente y necesaria a la paradoja de la corrección de sesgos, proporcionando la seguridad jurídica que el sector necesitaba.

Sin embargo, la reforma también introduce debilidades preocupantes. La drástica reducción del alcance de la obligación de formación a solo los sistemas de alto riesgo crea un vacío normativo para una vasta cantidad de sistemas de IA que, aunque no sean de alto riesgo, interactúan diariamente con los ciudadanos europeos y pueden tener impactos significativos. El debilitamiento de la obligación, pasando de «garantizar» a «adoptar medidas», y la restricción de su alcance al «personal» directo, rebajan el nivel de exigencia de una manera que podría comprometer la calidad de la supervisión humana en muchos contextos operacionales.

En definitiva, la Propuesta Ómnibus Digital supone un cambio de paradigma que, si bien soluciona problemas evidentes de la regulación original, abre nuevos interrogantes de importancia. El éxito de este nuevo enfoque dependerá de la diligencia con que la Comisión y los Estados miembros asuman su nueva responsabilidad de fomento, de la claridad con que se definan las «medidas» exigibles a los operadores de sistemas de alto riesgo y, sobre todo, de la capacidad del ecosistema europeo para garantizar que la alfabetización en IA no se convierta en un privilegio de unos pocos, sino en un derecho accesible de todos. La gobernanza de la IA en Europa ha entrado en una nueva fase, más pragmática quizás, pero no por ello menos compleja.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.