Connect with us
Actualidad

Juristas españoles cuestionan el cambio del Código Penal italiano para combatir delitos relacionados con la IA

El Proyecto de Ley prevé cárcel por el uso de imágenes hechas a través de inteligencia artificial que generen daños a terceros

El Parlamento Italiano estudia un proyecto de ley para que esos delitos por imágenes de IA tengan penas de cárcel. (Imagen: Wikipedia)

Luisja Sánchez

Periodista jurídico




Tiempo de lectura: 9 min

Publicado


GUARDAR CONVERTIR A PDF


Actualidad

Juristas españoles cuestionan el cambio del Código Penal italiano para combatir delitos relacionados con la IA

El Proyecto de Ley prevé cárcel por el uso de imágenes hechas a través de inteligencia artificial que generen daños a terceros

El Parlamento Italiano estudia un proyecto de ley para que esos delitos por imágenes de IA tengan penas de cárcel. (Imagen: Wikipedia)



El Gobierno italiano aprobó este martes un decreto en el que se prevén penas de cárcel de uno a cinco años para quien cause “daños injustos” con el uso de sistemas de inteligencia artificial (IA) y que incluye una dotación de mil millones de euros para apoyar el desarrollo de startups en el sector.

“Quien difunda sin consentimiento videos o imágenes alteradas con IA, causando daño injusto, será castigado con prisión de uno a cinco años”, afirmó el ministro de Justicia italiano, Carlo Nordio, en la rueda de prensa posterior al Consejo de Ministros. El proyecto, que ahora debe ser aprobado por el Parlamento, donde la coalición de derechas que preside Giorgia Meloni cuenta con mayoría absoluta, trata de poner orden en un sector con múltiples campos de aplicación cuyo potencial e implicaciones están aún por explorar, según el Ejecutivo.



El texto, que también obliga al consentimiento paterno para la inscripción de los menores de 14 años en sistemas como los chatbots, estipula que la IA debe desarrollarse y aplicarse respetando la autonomía humana y el poder de decisión, y no deben socavar la conducción democrática de la vida institucional y política.

“Intentamos aprovechar la oportunidad de la IA tanto en la organización de las oficinas como en la investigación, sin condicionar a los magistrados, ni sustituir la inteligencia humana por la inteligencia artificial”, dijo Nordio, que explicó que “se prevé una circunstancia agravante” para quienes utilicen la IA de forma “engañosa”.



Borja Adsuara aclara que «no hay ningún vacío legal. Ya tenemos tipos penales si el juez quiere abordar estas cuestiones como vimos en el asunto de las imágenes de menores de Almendralejo». (Imagen: Cesión propia)



No hay vacíos legales

Borja Adsuara, abogado, consultor y profesor universitario, experto en derecho digital, privacidad y protección de datos y uno de los miembros del Comité de Expertos de la Carta de Derechos Digitales, aclara que hay una Proposición de Ley de Sumar desde octubre del 2023 que busca regular las deep fakes. En la propuesta italiana, a falta de aprobarse por el Parlamento de aquel país, no queda claro si sería para imágenes que generan daño desde la IA o hay que hablar también de fake news.

Desde su punto de vista, “no hay que cerrar la puerta a la reforma del Código Penal por nuevas modalidades de cometer los delitos, pero al mismo tiempo hay que indicar que no hay ningún vacío legal. Ya tenemos tipos penales si el juez quiere abordar estas cuestiones. Lo vimos recientemente en el asunto de la pornografía infantil producida por menores en el pueblo extremeño de Almendralejo. “No hace falta citar expresamente a la IA, la difusión de imágenes realistas que causen un perjuicio ya está en el Código Penal, independientemente de que lo hagas con IA o con Photoshop”.

En su opinión, “ya está regulado lo que se entiende como pseudo-pornografía infantil, pero incluso no solo para menores de edad, sino incluso para los delitos contra la intimidad y contra la propia imagen en el artículo 197 del Código Penal ya hay tipos penales que se pueden aplicar. Ahora la discusión es entre los penalistas si se ajusta bien o no al tipo penal. Unos señalan que no hay descubrimiento de secreto porque no es el cuerpo verdadero, y sin embargo otros opinamos que ya hay delito que atenta contra la intimidad, un bien jurídico más amplio, en el caso de las fotos falsas”.

Para este jurista, “el debate está abierto, si para resolver las discusiones que se generan por el actual artículo 197 del Código Penal hay que retocarlo, pues adelante. Es lo que se hizo ya con la porno-venganza, como ya no encajaba en ese artículo se hizo el 197.7. La manera de retocarlo sería copiando el artículo de la pornografía infantil, quitando el adjetivo infantil. En este artículo para proteger la intimidad y la propia imagen”.

Sobre las deep fakes o fake news, que no son sexuales sino políticas, Adsuara cree que «es un tema más difícil de regular y habría que tener más cuidado en hacerlo. Al final habría que ver quién determina si una noticia es falsa o no. Pero aquí la problemática es la noticia que se hace para engañar a un tercero. Eso es complicado llevarlo al Código Penal en cuanto a saber quién decide que esa noticia es falsa. Hay que darse cuenta de que si causa un delito podríamos estar ante injurias o calumnias».

En este sentido, este experto recuerda que “no debemos volvernos locos con la IA. Los tipos penales se regulan por el resultado en cuanto al bien jurídico vulnerado o atacado. Para este experto con la IA se pueden generar diferentes delitos: contra la intimidad y propia imagen; delito contra el honor, contra la integridad moral, menores y libertad sexual, delito contra el orden económico porque a través de bulos se podrían modificar precios en Bolsa. El panorama ya está en el Código Penal, pero el delito de estafa es el mismo se haga con el timo de la estampita o un phishing. Al final no es tanto crear delitos como modalidades de comisión de esos delitos”.

Francisco Pérez Bes cree que «la necesidad de formación tecnológica para los jueces y fiscales va a ser aún más importante si queremos lograr una justicia digital». (Imagen: Cesión propia)

Se pueden revisar tipos penales

Para Francisco Pérez Bes, socio digital de Ecix Group y exsecretario general de INCIBE, el Código Penal debe castigar determinados actos con independencia de la tecnología empleada para ello, como sería, en este caso, la inteligencia artificial.

“Ahora bien, debido al potencial mayor impacto que puede tener la comisión de ilícitos utilizando tal tecnología (como en el caso de deep fakes, desinformación, delitos de odio, estafas informáticas o daños a terceros, por citar algunos) no cabe duda de que deben revisarse los tipos agravados actuales, con tal de determinar si la incorporación de la IA requiere una adecuación de determinadas figuras, no pensadas para este tipo de tecnología disruptiva”, comenta.

Para este jurista, “adicionalmente, hay que prever el impacto en determinados campos, como pueda ser el delito medioambiental o los relacionados con la seguridad nacional, así como todo lo que tiene que ver con los delitos cometidos en el seno de las empresas y su tratamiento dentro del compliance penal basado en el artículo 31 bis del Código Penal actual, ya que la IA puede ser empleada para realizar este tipo de actividades”.

“Pero es que, a efectos del principio de tipicidad, es contraproducente limitar o condicionar la comisión de actos delictuales al uso de la inteligencia artificial, pues ello requeriría, con carácter previo, una labor de concreción clara de la definición de qué debe entenderse por inteligencia artificial a efectos penales, con el consiguiente riesgo de una evolución tecnológica que haga cuestionarse si uno u otro ilícito ha sido cometido empleando dicha tecnología, como ocurrió en la regulación de los ciberdelitos”, indica.

Desde su punto de vista, “la propuesta italiana parece plantear más dudas que ventajas. Y si bien España no ha abierto este debate, si podemos prever que una cuestión de esta naturaleza pueda abordarse a través de una instrucción de la Fiscalía que aclare las cuestiones que eventualmente puedan surgir acerca del impacto del uso de la IA en la comisión de delitos ya tipificados, con base en una necesidad de seguridad jurídica que se antoja imprescindible en la regulación de este tipo de situaciones”.

“Lo que sí podemos afirmar, sin temor a equivocarnos, es que la necesidad de formación tecnológica para los jueces y fiscales va a ser todavía más importante si queremos lograr una justicia digital”, comenta.

Moisés Barrio indica que no son tanto tipos penales «como adoptar de forma inmediata medidas cautelares, especialmente las encaminadas a evitar la continuidad de la infracción del derecho». (Imagen: Cesión propia)

Las dos caras de la IA en Italia

A juicio de Moisés Barrio, letrado del Consejo de Estado, profesor de derecho digital y asesor de diversos Estados en regulación digital, es muy positiva la decisión de Italia de crear un fondo de innovación público para impulsar el desarrollo e implantación de sistemas de IA.

Al final, el tópico de que Europa va por detrás de Estados Unidos o de China en el desarrollo de la IA puede simplificar en exceso la cuestión, porque olvida que Europa puede apostar —y de hecho lo está haciendo— por aplicar tecnologías propietarias o de código abierto de IA para mejorar procesos en los ámbitos público y privados. También lo está llevando a cabo España.

Según un reciente estudio de Amazon, en 2024 el 36 % de las empresas en España usa al menos una herramienta de IA en sus operaciones diarias, superando la media europea del 33 %, comenta.

“En cuanto a nuestra Administración, el presidente del Gobierno Pedro Sánchez anunció en el Mobile World Congress (MWC) la construcción de un modelo de lenguaje de IA entrenado en español y las lenguas cooficiales”, recuerda.

“Y contamos ya con un espacio de pruebas o sandbox de IA, que busca conectar a las autoridades competentes con las compañías desarrolladoras de inteligencia artificial para definir de forma conjunta buenas prácticas a la hora de implementar el inminente Reglamento Europeo de IA, y garantizar su aplicación. Su ámbito es europeo, no únicamente nacional”, comenta.

Ahora bien, destaca, «en cuanto a la cuestión penal que plantea el Gobierno italiano en un próximo Proyecto de Ley, a mi juicio no se trata tanto de crear nuevos tipos penales como de establecer mecanismos para que los juzgados y tribunales puedan adoptar de forma inmediata medidas cautelares, especialmente las encaminadas a evitar la continuidad de la infracción del derecho arrasado y la persistencia de los efectos del delito».

“Y, sobre todo, no olvidar que la incorporación de medidas preventivas de ciberseguridad es la vía más eficaz, por encima de la amenaza penal, para combatir la cibercriminalidad”, comenta.

Para este jurista, “por eso, estoy profundamente convencido de la urgencia que cale en todos los sectores de la sociedad la relevancia que ha alcanzado la ciberseguridad, y que ello se traduzca en pautas adecuadas de comportamiento”.

Desde su punto de vista, “la generación de una cultura nacional de ciberseguridad debe ser impulsada desde el Gobierno y tiene que comprender a los ciudadanos, las empresas y las Administraciones públicas, abarcando asimismo desde los responsables de la toma de decisiones hasta los usuarios”, concluye.

Cristina Villasante no ve necesario modificar el Código Penal. Es más partidaria de mantener la neutralidad tecnológica. (Imagen: ECIJA)

Mantener la neutralidad tecnológica

Para Cristina Villasante, socia de IP/IT de ECIJA y asociada a DENAE, impulsora de muchos de los proyectos de IA en esta firma española, considera que no es necesario «modificar el Código Penal en nuestro caso para responder a los daños que se generen por el uso de imágenes de la IA como se pretende hacer en el Proyecto de Ley que irá al Parlamento italiano. En nuestro caso, el marco normativo que tenemos hoy en día ya tiene delitos similares tipificados en nuestro ordenamiento penal».

Desde su punto de vista, no sería necesario modificar la normativa penal para estos nuevos delitos generados por la IA a nivel de emisión de imágenes, independientemente de la herramienta con la que se produzca. Esto iría contra el principio de neutralidad tecnológica. Lo fundamental es el daño y lo que hay que hacer es proteger el daño que se provoca independientemente de la herramienta que se esté utilizando.

Para esta jurista, «no podemos olvidar que la tecnología avanza mucho y que las herramientas tecnológicas van avanzando de forma progresiva más que nuestro Derecho, con lo cual es impensable que la normativa penal pueda estar al día realmente en este tipo de asuntos. Con este principio de neutralidad tecnológica se trata de evitar la obsolescencia tecnológica y crear un marco normativo que genere esa seguridad jurídica».

Junto a ello, otra de las medidas es promover el consentimiento paterno para que los menores de 14 años se inscriban en los chatbots dentro de un contexto en el que estas herramientas protejan la autonomía humana. «Eso es más normal. Es lógico que no se permita el acceso de los menores a estas plataformas. Los sistemas tecnológicos pueden permitir el acceso a determinados contenidos.

«En el mundo digital todo se magnifica y hay que proteger los intereses y la identidad de los menores. Para eso se están creando sistemas de verificación de edad en las plataformas. No es suficiente preguntar si es menor o mayor de edad. Es posible que cualquier persona pueda saltarse esa pregunta. Al final, lo que se busca ahora son sistemas que puedan verificar esas edades», destaca.

Esta experta recuerda la transversalidad de la IA, lo que ha hecho que despachos como ECIJA hayan puesto en marcha equipos disciplinares. «Hay una pata de propiedad intelectual, otra de gobierno corporativo y gobernanza, también otra de protección de datos y ciberseguridad. Muchas de estas políticas de control y gobernanza tienen que pasar por la representación legal de los trabajadores en relación al control y uso de dispositivos tecnológicos. Incluso sobre competencia desleal. Eso hace que los profesionales trabajemos alineados», puntualiza.

Última hora jurídica



Recibe nuestra newsletter de forma gratuita