Connect with us
Actualidad

Olivia Delagrange: «Está prohibido y es peligroso que las administraciones recopilen datos para categorizar a los ciudadanos»

Uno de los requisitos que deberán cumplir los fabricantes de productos en la futura Ley de Inteligencia Artificial de la Unión Europea es garantizar la vigilancia humana

(Imagen: Archivo)

María González Villasevil

Redacción editorial E&J




Tiempo de lectura: 3 min



Actualidad

Olivia Delagrange: «Está prohibido y es peligroso que las administraciones recopilen datos para categorizar a los ciudadanos»

Uno de los requisitos que deberán cumplir los fabricantes de productos en la futura Ley de Inteligencia Artificial de la Unión Europea es garantizar la vigilancia humana

(Imagen: Archivo)



En la actualidad continúa existiendo gran preocupación por la inteligencia artificial (IA), por lo que es y por los cambios que puede generar esta tecnología, a pesar de que lleva integrada en la cotidianidad diaria de las personas desde hace bastantes años. No obstante, Olivia Delagrange, especialista en litigios de seguros, asegura que las dudas que se generan entorno a la IA se deben principalmente a la ignorancia que persiste sobre la misma en la sociedad.

Aunque aún queda mucho camino por recorrer en lo que respecta a la regulación legislativa de esta materia y cómo resolverán los tribunales los futuros litigios que se presenten, la Unión Europea ya está trabajando en la creación de normas para dar cavidad a estas cuestiones. “Para los juristas es difícil de entender lo que es la IA y se han visto en la necesidad de intentar legislar esta tecnología para controlarla”, asegura Delagrange.



Olivia Delagrange, socia de Simmons & Simmons, Dispute Resolution, ha realizado durante la mañana de hoy un webinar en Economist & Jurist sobre el impacto que tiene la IA en el sector de los seguros. La ponencia se ha centrado en analizar el marco legislativo a nivel europeo en materia de Inteligencia Artificial y cómo estas nuevas iniciativas afectarán a los seguros.

La socia de Simmons & Simmons ha destacado que “la IA no es un producto acabado, nunca”, porque una vez que sale de la fábrica al mercado, “tiene vida, continúa actualizándose”.



La ponente ha recordado que la Comisión Europea, con fecha 28 de septiembre de 2022, adoptó dos propuestas para implementar las normas de responsabilidad a la era digital, la economía circular y el impacto de las cadenas de valor mundiales. La Directiva Europea establece normas comunes sobre la responsabilidad de los operadores económicos por los daños sufridos por personas físicas y que han sido causados por productos defectuosos.



Asimismo, en la actualidad la UE está trabajando en la aprobación de la Ley de Inteligencia Artificial, la cual, a pesar de que aún es un proyecto, se están logrando grandes avances para sacarla adelante. Pues, los objetivos de esta norma se basan en dar legalidad al uso de la IA y dotar a los fabricantes y proveedores de los productos, así como a sus consumidores de un marco de seguridad.

Delagrange asegura a este medio que, en lo que respecta a España, nuestro país “ya ha hecho sus deberes. Ha sido el primer miembro de la Unión en crear una Agencia de Supervisión de la Inteligencia Artificial”.

Olivia Delagrange, socia de Simmons & Simmons, Dispute Resolution (Imagen: Simmons & Simmons)

Los fabricantes deberán cumplir con los requisitos de la UE

Olivia Delagrange ha explicado que la Ley Europea de Inteligencia Artificial divide esta tecnología en cuatro categorías: la primera es con riesgos inaceptables (están prohibidos, no se puede usar esta tecnología en la UE); otra es con riesgos altos; la tercera con riesgos limitados; y la última en riesgos mínimos.

En lo que se refiere a las prácticas prohibidas con riesgos inaceptables, la ponente ha destacado, entre otras, las prácticas de social scoring por administraciones públicas, “es decir, estos organismos no pueden recopilar datos para dividir a sus ciudadanos en categorías, como por tendencias políticas o creencias religiosas. En la historia hemos visto que esto puede ser muy peligroso cuando llega a las manos equivocadas”; y la identificación biométrica en tiempo real en espacios públicos, “estas últimas tienen excepciones cuando se justifica por razones de seguridad, como amenazad de ataques terroristas”.

Respecto a los sistemas de alto riesgo, Delagrange ha afirmado que estos son diseñados para garantizar la seguridad de los productos, pero que a la vez también ponen en peligro la seguridad de las personas y, también, tienen implicaciones en los derechos fundamentales. En esta línea ha puesto de ejemplo los vehículos autónomos, los cuales a pesar de estar pensados para garantizar mayor seguridad en la vía pública, también pueden suponer un peligro para las personas.

“Para los sistemas de alto riesgo la ley establece una serie de requisitos que deberán de cumplirse, como la vigilancia humana, es decir, los sistemas de IA no pueden eliminar la vigilancia de las personas cuando hacen eso de esta tecnología. En el ejemplo de un coche autónomo, este vehículo tiene que permitir que en cualquier momento el conductor pueda coger el control del coche”.

Delagrange ha destacado que a la hora de vender un sistema de IA en la Unión Europea, es necesario nombrar un representante dentro de la UE: “Siempre tiene que haber alguien que se pueda identificar con el responsable de los requisitos de la Ley de la Inteligencia Artificial”.

Estas obligaciones nuevas que derivan de esta norma conlleva a responsabilidad civil de estos agentes de IA, una responsabilidad civil que será asegurable en el mercado. “Ahí ya vemos un primer efecto del impacto de la Inteligencia Artificial en los seguros”, afirma la ponente.

Click para comentar
0 Comentarios
Inline Feedbacks
View all comments

Última hora jurídica



Recibe nuestra newsletter de forma gratuita