El «sandbox» regulatorio de la IA es el entorno adecuado para testar esta tecnología disruptiva
La iniciativa será pionera en Europa y puede ser clave a nivel de derecho de la competencia

IA (Foto: Freepik)
El «sandbox» regulatorio de la IA es el entorno adecuado para testar esta tecnología disruptiva
La iniciativa será pionera en Europa y puede ser clave a nivel de derecho de la competencia

IA (Foto: Freepik)
La Comisión Nacional de los Mercados y la Competencia (CNMC) publicaba recientemente su informe sobre el sandbox regulatorio de inteligencia artificial (IA) que prepara el Gobierno.
Concretamente, el Ejecutivo español anunció su intención de abrir un sandbox regulatorio para poder realizar ensayos de proyectos de inteligencia artificial en nuestro país, antes de que se aprobasen las normativas europeas sobre esta materia. Estos entornos de pruebas facilitan a los poderes públicos reevaluar de manera permanente la regulación actual, así como analizar y anticipar los problemas que pueden presentarse antes de intervenir en un mercado.
Cuatro juristas expertos en derecho tecnológico analizan para Economist & Jurist las líneas maestras de este informe del regulador de competencia. Un estudio que valora “positivamente” estas iniciativas, ya que facilitan experiencias innovadoras a los operadores económicos que posteriormente beneficien a los consumidores y también permiten evaluar con precisión si el marco regulatorio se adecúa a los principios de buena regulación.
Algoritmos e Inteligencia Artificial
Francisco Pérez Bes, socio de derecho digital de Ecis Group, afirma que, “en el comercio electrónico actual, los algoritmos son la base sobre la que se desarrollan modelos de inteligencia artificial aplicada a los negocios online, lo que permite tomar decisiones empresariales basadas en la gestión masiva de información y en la capacidad de procesamiento y aprendizaje automático (deep learning y machine learning), los cuales, obviamente, pueden afectar a las reglas del mercado y a la libre competencia”.
Desde su punto de vista “en este ecosistema económico competitivo regido por tecnología, la regulación parece imprescindible. En efecto, en un entorno donde empresas y consumidores interactúan constantemente, debe garantizarse que las empresas asuman el riesgo de las decisiones empresariales que, basadas en algoritmos, toman en cada momento. Y que el impacto de dichas decisiones en el mercado en general, y en el consumidor en particular, sea el adecuado”.
Este jurista señala que “en este contexto no podemos olvidar que los algoritmos, en cuanto soluciones tecnológicas que promueven el desarrollo de la economía, están diseñados para optimizar la eficiencia de las empresas que interactúan en tales mercados”. A su juicio, “en este caso, también suponen un riesgo de desestabilización de la libre competencia, por cuanto pueden tener la capacidad de tomar, con cierta autonomía, decisiones que impacten directamente en el mercado”.
Así señala “el caso Uber en nochebuena de 2016, cuando su algoritmo multiplicó por siete el precio normal de los servicios ante la gran demanda existente, lo que planteó un debate sobre si estamos ante un supuesto de fomento de la libre competencia o, por el contrario, ante una infracción del principio de “neutralidad algorítmica” que debe exigirse a este tipo de servicios con carácter previo a su entrada y aplicación en el mercado”.

Francisco Perez Bes, socio de derecho digital de Ecis Group y ex secretario general de INCIBE (Foto: EcisGroup)
Para este jurista “de este modo, la conveniencia de idear un sistema de entorno controlado de pruebas, o sandboxing, queda lejos de toda duda, si bien lo relevante es el diseño normativo que permita una regulación equilibrada entre las necesidades del mercado y los intereses particulares de las empresas que intervienen en él”. Continúa comentando este experto que, “además, también ha surgido un mercado específico, formado por una industria de desarrollo y distribución de algoritmos y modelos matemáticos que se ofrecen a las empresas, con el fin de que monitoricen el mercado y puedan fijar el precio y otras condiciones económicas aplicables a sus productos y servicios”.
“En este caso, la utilización de un mismo algoritmo por parte de varias empresas competidoras, y el intercambio de información empresarial derivado de su uso conjunto, puede suponer un problema de derecho de la competencia, en este caso relacionado con la prohibición de cárteles, asuntos en los que la CNMC ya intervino sancionando a determinadas empresas de intermediación online de venta y alquiler de inmuebles”.
A juicio de este experto “este tipo de situaciones pueden evitarse si los algoritmos se diseñan sobre modelos respetuosos con la libre competencia (“antitrust by design), que es -en el fondo- el espíritu que subyace en esta propuesta de sandboxing regulatorio, y que ha llevado a que consultoras españolas, como Ecix Tech, hayan incorporado el uso y explotación de la Inteligencia artificial dentro de los modelos de cumplimiento normativo de sus clientes”.
En conclusión, la aplicación del derecho de la competencia en el uso de algoritmos en el sector empresarial es esencial para el desarrollo de un mercado único digital eficaz. En su opinión “debe servir de base para apoyar el crecimiento de la economía de la Unión y para garantizar que los consumidores, los comerciantes y las empresas en general disfruten de posibilidades de elección y condiciones de transparencia en todos los servicios, de modo que puedan aprovechar plenamente las ventajas que ofrece dicho mercado”.
“Esperamos que el sandboxing primero, y la Agencia reguladora de la Inteligencia Artificial, después, contribuyan a este objetivo de manera eficaz y transparente”, subraya.
Las ventajas de un entorno de pruebas
Para Joaquín Muñoz, socio de Commercial en Bird & Bird, “estas iniciativas son siempre positivas en su concepción pues persiguen acortar la distancia entre el regulador y las empresas innovadoras, buscando la retroalimentación de ambas; el reto está en conseguir crear un entorno en el que la empresa pueda seguir desarrollando su actividad dentro de una libertad controlada y el regulador pueda ser lo suficientemente flexible como para entender los avances tecnológicos y adaptar sus requerimientos a la práctica del mercado, protegiendo al consumidor pero sin limitar la innovación”.
Precisamente, Bird & Bird está coordinando el sandbox de Blockchain de la Comisión Europea y, Joaquín Muñoz nos cuenta, desde esta experiencia, alguna de las claves para el éxito de estas iniciativas: «es fundamental que los trámites burocráticos para participar sean lo más flexibles posible de forma que la selección de proyectos esto no se convierta en una barrera de acceso y así poder incluir a proyectos que aporten valor real al sandbox«.
«Además, la involucración de diferentes reguladores es muy necesaria, ya que los proyectos de IA suelen tener implicaciones legales de otras áreas en ocasiones más relevantes aún desde el punto de vista jurídico que la propia tecnología IA, no solo protección de datos sino también ciberseguridad, identificación electrónica, competencia o propiedad intelectual, entre otros, por lo que a participación de los reguladores u organismos incumbentes para cada proyecto es determinante».
El hecho de que la participación sea voluntaria es un aliciente pero, según Muñoz, «que las primeras ediciones del sandbox cumplan sus objetivos y no supongan un lastre en la evolución de las empresas que participen va a determinar también el éxito de la iniciativa”.

Joaquin Muñoz, socio de Commercial en Bird & Bird (Foto Bird & Bird)
Desde su punto de vista “las empresas tienen que percibir que obtienen valor a cambio de su participación en el sandbox ya sea porque pueden ofrecer certidumbre de cumplimiento a sus clientes o porque contribuyan a definir una regulación más compensada por el conocimiento adquirido por el legislador, si esto no sucede, la participación de las empresas irá decayendo como ya pasó recientemente en iniciativas similares».
Por último, «creo que la interrelación que tenga el sandbox con otras iniciativas alrededor de la regulación de IA como son las guías que previsiblemente irá publicando la Agencia de Inteligencia Artificial, va a ser interesante”. Así señala que, “la propia Agencia como otras autoridades participantes se van a poder nutrir de información de primera mano para elaborar guías prácticas que, en una materia en evolución continua como es la IA, van a conformar seguro un softlaw muy necesario para la certidumbre jurídica de las empresas tanto proveedoras como receptoras de servicios».
Una iniciativa pionera en Europa
Belén Arribas, abogada experta en Derecho Digital, Presidenta de la International Federation of Computer Law Associations (IFCLA); Vicepresidenta de la Asociación de Expertos Nacionales de la Abogacía TIC (ENATIC); y miembro español de International Network of Privacy Law Professionals (INPLP); también ha compartido su punto de vista sobre este tema con Economist & Jurist.
Esta jurista fue la primera mujer abogada española nombrada Consejera del Board of Directors de la International Technology Law Association (ITechLaw); y recientemente, ha sido nombrada miembro del Pool of Experts de European Data Protection Board de la Unión Europea (EDPB).
“Como es sabido, la Propuesta de Reglamento AI prevé la creación de regulatory sandboxes, «cajas de arena” regulatorias, en el ámbito de IA, para fomentar la innovación en inteligencia artificial (IA) en toda la UE. Con carácter general, un sandbox regulatorio es una herramienta que permite a la iniciativa privada experimentar con servicios o negocios nuevos e innovadores bajo la supervisión de una agencia”, comenta Arribas.
También ha destacado que “brinda a los innovadores incentivos para probar sus innovaciones en un entorno controlado de pruebas y permite a los reguladores comprender mejor la tecnología. A largo plazo, se dice, fomenta la competencia y la elección del consumidor”.
Esta jurista recuerda que se está gestando ahora mismo el sandbox IA español. “Una iniciativa pionera en UE, pues se adelanta a la aprobación del futuro Reglamento europeo, el cual en su artículo 53 habilita espacios controlados de pruebas para la IA. Como todo proyecto sandbox, es un proyecto complejo, al incluir un procedimiento de colaboración público-privado. Se creará un Comité de Gobernanza y se contará con stakeholders académicos y de estandarización y normalización”.
Al mismo tiempo aclara que en el mes de mayo el Ministerio de Asuntos Económicos y Transformación Digital publicó el borrador de Real Decreto que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento de Inteligencia Artificial (“PRD” o “Propuesta de Sandbox IA”).
A su juicio “esta Propuesta de sandbox IA supone la puesta en marcha del primer entorno controlado de pruebas para determinar la forma de implementar los requisitos aplicables a los sistemas de inteligencia artificial de alto riesgo contemplados en la propuesta de Reglamento europeo de Inteligencia Artificial”. En principio el objeto “del entorno controlado será estudiar la operatividad de los requisitos establecidos en la propuesta de Reglamento europeo, así como la autoevaluación de cumplimiento y la prueba de sistemas de supervisión de los sistemas de inteligencia artificial de alto riesgo de los participantes durante su funcionamiento”.

Belén Arribas, vicepresidenta de ENATIC (Foto: ENATIC)
Sobre el informe de la CNMC sobre el sandbox, Arribas destaca que el regulador “recomienda minimizar la distorsión de la competencia que produzca entre operadores que participen y operadores que no participen, que el acceso al entorno controlado de pruebas siga un proceso reglado y se someta a criterios suficientemente objetivos y no discriminatorios y haya suficientes plazas disponibles para que todos o la gran mayoría de operadores que quieran participar, puedan hacerlo”.
En segundo lugar, “considera que las empresas participantes podrían obtener ventajas si, mediante su participación, obtienen información no disponible para el resto de agentes del mercado. Para evitar esto, todo el conocimiento generado durante las pruebas se pondrá a disposición del público y, en concreto, del resto de operadores que actúan en el mercado, o aquéllos interesados en entrar en el mismo, de forma detallada y limitada en el tiempo”, apunta. “En cuanto a los requisitos mínimos de elegibilidad, el apartado primero del artículo 5 impone que todo operador participante (proveedor de sistemas de IA o usuario) en el entorno controlado de pruebas debe ser residente en España o tener un establecimiento permanente en España. Por cuanto, la CNMC ve insuficiente la justificación planteada en la norma, y se aconseja su replanteamiento”, destaca.
Otras cuestiones que destaca esta jurista es que “la CNMC invita a evitar flujos injustificados de información, ya que el sandbox no supone una exención de la normativa nacional y de la UE de defensa de la competencia”.
Adicionalmente, según la CNMC, dada la peculiar naturaleza de este entorno de pruebas, que finalizarían a la entrada en vigor de la normativa de la UE, “se recomienda que se contemplen mecanismos para poder mantener la vigencia de aquellos siempre que encajen dentro de la normativa de la Unión Europea aprobada, e incluso, si hiciera falta, que se realizaran los ajustes no esenciales que fueran pertinentes para facilitar el proceso de transición de un marco regulatorio a otro”.
Para esta jurista “es importante que la norma salga adelante y entre en vigor cuanto antes a los efectos de poner en funcionamiento este, si se quiere, sui géneris, sandbox, en particular habida cuenta de la velocidad con que se está desplegando sistemas de IA, sobre todo LLMs y modelos fundacionales, con la controversia y el intenso debate público al que asistimos en los últimos meses entorno al trade-off entre el avance económico-social que supone su uso versus los riesgos del mismo”.
Un entorno de pruebas necesario
Por su parte, Xavier Ribas, socio fundador de Ribas & Asociados, cree que “el proyecto de Real Decreto crea un entorno de pruebas que actúa como una simulación de casos de uso y permite anticipar temporalmente, en beneficio de los proveedores, usuarios y autoridades supervisoras, los requisitos que establecerá el Reglamento IA de la UE, de forma que todos ellos puedan comenzar un proceso de aprendizaje mutuo sobre cómo aplicar los nuevos requisitos regulatorios.”
“De esta manera se pueden probar nuevos sistemas y aplicaciones de IA en diferentes áreas y compararlas con el marco regulatorio existente en la actualidad y con el marco futuro, en un proceso realizado por las entidades participantes y coordinado por la autoridad reguladora”, comenta este experto.
Asimismo recuerda que “existen experiencias previas de entornos de prueba como este en otros sectores como el financiero, el eléctrico, el industrial, el de las empresas emergentes y el de la movilidad sostenible”.

Xavier Ribas, socio director de Ribas & Asociados (Foto: Ribas & Asociados)
Desde su punto de vista las ventajas para las empresas participantes son las siguientes supone que “podrán ir adaptándose a los requisitos normativos que se prevé serán aprobados y entrarán en vigor en un futuro próximo, a la vez que y al mismo tiempo tienen la posibilidad de desarrollar sus proyectos de IA de acuerdo con la nueva normativa”.
A juicio de este jurista “las ventajas para las autoridades competentes son las siguientes: en primer lugar, podrán ensayar la aplicación y supervisión de estos requisitos normativos a los proyectos que voluntariamente se presenten y, al mismo tiempo podrán aprovecharse de un proceso de aprendizaje previo a la entrada en vigor definitiva de estos requisitos”.
Hay que mencionar que se elaborarán guías prácticas en las que se explicará con detalle y con la experiencia práctica obtenida durante la simulación, cómo deben aplicarse las disposiciones del Reglamento IA. Sobre estas guías recuerda que “serán publicadas con la finalidad de que todos los operadores del mercado puedan acceder a ellas en igualdad de condiciones y extraer las lecciones oportunas, de cara a la aplicación general del Reglamento IA”.
