Connect with us
Artículos

El ordenamiento español y su tejido institucional lideran, a nivel comunitario, los revulsivos del escándalo de «Grok Imagine»

Crónica de un doble contraataque del Estado de Derecho frente al, anhelo de desestabilización de la «paz social» europea, de Silicon Valley

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

Pablo Sáez Hurtado

Delvy A.I. Senior Counsel. Presidente de la «comisión joven» de ENATIC. Director general de «BeAl Foundation». Gestor Ético de «OdiselA». Responsible and Trustworthy A.l. Lawyer.




Tiempo de lectura: 15 min

Publicado




Artículos

El ordenamiento español y su tejido institucional lideran, a nivel comunitario, los revulsivos del escándalo de «Grok Imagine»

Crónica de un doble contraataque del Estado de Derecho frente al, anhelo de desestabilización de la «paz social» europea, de Silicon Valley

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

El año 2026 se despliega ante nosotros como un lienzo en el que se solapan dos realidades aparentemente antagónicas, pero intrínsecamente conectadas. Por un lado, la consolidación de un andamiaje regulatorio sin precedentes en la Unión Europea, diseñado para gobernar el desarrollo y despliegue de la inteligencia artificial (IA); por otro, la aceleración de una carrera tecnológica desenfrenada, liderada por los laboratorios de Silicon Valley y sus homólogos en China, que persiguen con fervor casi mesiánico el advenimiento de la “singularidad tecnológica”. Esta tensión fundamental entre la prudencia normativa y la ambición desregulada define el campo de batalla en el que se librará el futuro de nuestra soberanía digital y, en última instancia, la protección de la dignidad humana.

En este escenario de alta volatilidad, emergen figuras que encarnan la disrupción en su forma más pura. Actores como Donald Trump en el ámbito político, y Elon Musk en el tecnológico, junto a la sombra persistente de la influencia de Vladimir Putin en el ciberespacio, configuran un eje de poder que desafía abiertamente el modelo europeo de gobernanza digital. Su visión, que prioriza la innovación a cualquier coste y la desregulación como motor de la competitividad, choca frontalmente con los principios de precaución, ética y centralidad de la persona que sustentan el marco jurídico de la Unión. La propuesta de un Reglamento Ómnibus Digital, surgida a finales de 2025 con la intención de “simplificar” el entorno normativo, no es sino un reflejo de esta presión externa, un caballo de Troya que amenaza con diluir las salvaguardas trabajosamente construidas en aras de una supuesta agilidad competitiva frente a Estados Unidos y China.

Global IA

Esta carrera por la supremacía en IA no es meramente económica o geopolítica; adquiere tintes existenciales. La búsqueda de la “singularidad” —ese punto hipotético en que la inteligencia de las máquinas superaría a la humana— se ha convertido en el Santo Grial de Silicon Valley. Sin embargo, esta búsqueda, desprovista de un anclaje ético y de un marco de responsabilidad robusto, nos aboca a un futuro incierto. ¿Qué sucede cuando la velocidad de la innovación supera nuestra capacidad para comprender y mitigar sus riesgos? ¿Qué defensas nos quedan cuando la tecnología, en lugar de servir al progreso humano, se convierte en un vector para la desinformación, la manipulación y la vulneración de nuestros derechos más fundamentales? El escándalo de Grok Imagine, que estalló en los albores de 2026, no es una anomalía, sino la consecuencia lógica y previsible de esta deriva. Es el primer gran incendio en un edificio construido con materiales inflamables, la primera gran crisis que pone a prueba la resiliencia de nuestro Estado de Derecho digital. Y es, precisamente, en la respuesta a esta crisis donde España, a través de la acción coordinada de su Gobierno y sus instituciones, ha emergido como un faro de liderazgo y determinación en el corazón de Europa.

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

Suscríbete a nuestra
NEWSLETTER

Rememorando el inicio de todo: proliferación masiva de ‘Deep-Fakes’ sexuales con Grok

El año 2026 apenas despuntaba y la inteligencia artificial ya nos arrojaba a la cara su primera gran crisis existencial. No se trató de un ciberataque a una infraestructura crítica ni de un algoritmo bursátil descontrolado, sino de algo mucho más íntimo y, por ello, más insidioso: un ataque masivo y viral a la dignidad y la imagen de miles de personas, perpetrado a través de la funcionalidad “Imagine” del modelo de IA Grok, propiedad de la empresa xAI de Elon Musk. Este incidente no fue un mero fallo técnico, sino el primer test de estrés en tiempo real para el recién implementado Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) y, más ampliamente, para la capacidad de nuestras democracias de gobernar una tecnología con un potencial de disrupción social sin parangón.

La crisis se desató durante las últimas semanas de 2025 y las primeras de 2026, cuando la red social X, también propiedad de Musk, se vio inundada por una marea de imágenes de carácter libidinoso y pseudopornográfico. Estas imágenes, creadas sin el más mínimo atisbo de consentimiento, “desnudaban” digitalmente a personas anónimas y a figuras públicas, incluyendo, en un giro especialmente execrable, a menores de edad. La tecnología subyacente, conocida popularmente como deepfake, había alcanzado un nivel de realismo tal que resultaba prácticamente imposible para el ojo no entrenado distinguir la manipulación de la realidad. Las víctimas describieron la experiencia con impotencia y rabia, expresando sentirse «deshumanizadas» y «violadas» digitalmente, mientras sus imágenes manipuladas se propagaban a una velocidad vertiginosa, acumulando millones de visualizaciones y comentarios vejatorios.

Este escándalo, sin embargo, no surgió de la nada. Fue la crónica de una catástrofe anunciada, la culminación de una serie de advertencias que fueron sistemáticamente ignoradas o minimizadas. En septiembre de 2023, el caso de las menores de Almendralejo (Badajoz), cuyas imágenes fueron manipuladas y difundidas por sus propios compañeros, ya había encendido todas las alarmas en España, demostrando la extrema vulnerabilidad de los adolescentes en el entorno digital. Apenas unos meses después, en enero de 2024, la difusión masiva de imágenes pornográficas falsas de la cantante Taylor Swift a través de la misma red social X evidenció la escala global del problema y la insuficiencia de las medidas de moderación de contenidos de las plataformas. Estos precedentes eran el prólogo ominoso de lo que estaba por venir, la prueba irrefutable de que la tecnología para crear deepfakes dañinos avanzaba a una velocidad muy por delante de las barreras éticas y legales que intentaban contenerla.

La reacción inicial de Elon Musk y xAI ante la crisis de Grok Imagine fue un ejercicio de manual de la arrogancia de Silicon Valley. En un primer momento, Musk celebró en su propia red social la “creatividad sin límites” que su herramienta permitía, llegando a calificar las primeras quejas como un intento de “censura” por parte de la “policía de lo políticamente correcto”. Solo cuando la presión mediática se hizo insostenible y las primeras advertencias legales comenzaron a llegar desde Europa, la compañía se vio forzada a entonar un tibio mea culpa, admitiendo “fallos en las salvaguardias” y prometiendo una revisión de sus protocolos. Para entonces, el daño ya estaba hecho. El escándalo de Grok Imagine había abierto la Caja de Pandora, demostrando al mundo con una claridad aterradora cómo una innovación tecnológica, en ausencia de un marco de responsabilidad claro y de un compromiso ético por parte de sus creadores, puede convertirse en un arma de destrucción masiva contra la integridad moral y la paz social.

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

La tímida reacción de otros ordenamientos jurídicos europeos:

Ante la inacción inicial de la compañía y la rápida propagación del contenido dañino, la primera respuesta institucional contundente no provino de Bruselas, sino de Roma. El 9 de enero de 2026, el Garante per la protezione dei dati personali, la autoridad italiana de protección de datos, emitió un provvedimento de advertencia que marcó un punto de inflexión. Este movimiento, audaz y pionero, demostró la capacidad de las autoridades nacionales para actuar con celeridad y firmeza, utilizando las herramientas del Reglamento General de Protección de Datos (RGPD) como primera línea de defensa.

La advertencia del Garante no fue una mera declaración de intenciones. Señaló directamente a servicios como Grok, ChatGPT y Clothoff (una plataforma similar que ya había sido bloqueada por la autoridad en octubre de 2025), y recordó que el uso de estas herramientas para generar y difundir contenido a partir de imágenes reales sin el consentimiento de los interesados constituye una grave violación de los derechos y libertades fundamentales. El comunicado fue inequívoco al afirmar que estas acciones acarrearían “todas las consecuencias, también sanzionatorie, previstas por la normativa europea”.

Además, en un movimiento estratégico de gran calado, el Garante anunció que ya estaba colaborando estrechamente con su homóloga irlandesa, la Data Protection Commission (DPC). Esta coordinación era crucial, dado que el establecimiento principal de X en Europa se encuentra en Irlanda, lo que convierte a la DPC en la autoridad de control principal competente para supervisar las actividades de la plataforma en todo el territorio de la Unión. La iniciativa italiana, por tanto, no fue un acto aislado, sino el catalizador de una respuesta paneuropea, sentando las bases para una investigación coordinada y demostrando que el mecanismo de cooperación transfronteriza previsto en el RGPD podía ser activado eficazmente para hacer frente a amenazas digitales de esta magnitud. La rápida y decidida intervención del Garante italiano fue el primer revulsivo, la señal de que el Estado de Derecho europeo no permanecería impasible ante el caos.

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

El doble contraataque del Estado de Derecho: martes, 13 de enero del 2026

Si la acción del Garante italiano fue la primera luz de alarma, la respuesta del Estado de Derecho español, apenas cuatro días después, fue un dique de contención robusto y multifacético. El 13 de enero de 2026 se convirtió en una fecha emblemática, un día en el que el Gobierno y las instituciones españolas demostraron una capacidad de reacción y una sofisticación jurídica extraordinarias, posicionando a España a la vanguardia de la defensa de los derechos fundamentales en la era digital. Este contraataque se articuló en un doble movimiento, normativo e institucional, que no solo abordaba la crisis inmediata de GROK IMAGINE, sino que sentaba las bases para un modelo de gobernanza de la IA a largo plazo.

A)    Movimiento normativo: el Anteproyecto de Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen

El Consejo de ministros, en una clara demostración de voluntad política, aprobó en esa fecha clave el Anteproyecto de Ley Orgánica destinado a modernizar y adaptar la histórica Ley Orgánica 1/1982. Esta reforma no fue un mero retoque cosmético, sino una refundación completa de la protección de los derechos de la personalidad para afrontar las amenazas del siglo XXI. El texto, de una precisión y ambición notables, se erigió como la respuesta legislativa más avanzada de Europa frente al fenómeno de los deepfakes.

El corazón de la reforma reside en la actualización del concepto de “intromisión ilegítima”. Por primera vez, el artículo 7.1.f) del Anteproyecto tipifica como tal “la utilización de la voz o la imagen de una persona para finalidades publicitarias, comerciales o de naturaleza análoga” mediante IA sin el consentimiento del titular. De forma aún más directa y en respuesta a escándalos como el de Grok, el artículo 7.1.g considera intromisión ilegítima “la creación, a través de sistemas de inteligencia artificial o tecnologías análogas, de imágenes, voces o sonidos de una persona que la muestren en una situación en la que no se ha encontrado o realizando una acción que nunca ha llevado a cabo, cuando ello vaya en descrédito o menosprecio de la misma o suponga una vulneración de su derecho a la propia imagen”. Esta redacción, quirúrgica y contundente, cierra cualquier resquicio a la impunidad.

La protección se extiende con especial celo a los colectivos más vulnerables. El artículo 7.2 refuerza la salvaguarda de los menores, estableciendo que, incluso con su consentimiento (fijado a partir de los 16 años), cualquier uso de su imagen que menoscabe su dignidad o reputación constituirá una intromisión ilegítima. Asimismo, se introduce una novedosa protección post mortem en el artículo 6, permitiendo a una persona designar en testamento a quien deba prestar el consentimiento para el uso de su imagen tras su fallecimiento, blindando su memoria frente a explotaciones comerciales o manipulaciones espurias.

Consciente de la necesidad de equilibrar derechos, el Anteproyecto contempla en su artículo 8.3.c) una excepción crucial para la libertad de expresión y la creación artística. Permite el uso de estas tecnologías en un contexto creativo, satírico o de ficción, siempre y cuando la persona afectada tenga proyección pública y, de manera imperativa, se indique expresamente el uso de la tecnología. Esta salvaguarda, alineada con el Reglamento Europeo de IA, busca proteger la parodia y la creación cultural sin dar carta blanca a la difamación.

Finalmente, la reforma aborda uno de los puntos más débiles de la legislación anterior: la reparación del daño. Se establecen por primera vez criterios claros para la fijación de la indemnización por daño moral, prohibiendo que esta sea meramente simbólica. Además, se modifica la Ley de Enjuiciamiento Civil para agilizar la adopción de medidas cautelares (artículo 727.11ª), permitiendo a los jueces ordenar la retirada inmediata de los contenidos ilícitos, una herramienta fundamental para frenar la viralización del daño.

B)     Movimiento institucional: La nota informativa de la Agencia Española de Protección de Datos (AEPD)

De forma simultánea a la acción del Gobierno, la Agencia Española de Protección de Datos (AEPD), en su rol de guardiana de la privacidad, publicó una nota informativa de enorme calado pedagógico y preventivo. Este documento, titulado “El uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles”, se convirtió instantáneamente en una referencia para ciudadanos, empresas y operadores jurídicos.

La AEPD, con una claridad meridiana, distinguió entre dos tipos de riesgos. Los riesgos visibles son los más evidentes y directamente relacionados con el escándalo de Grok: la sexualización y creación de contenido íntimo sintético, la atribución de hechos no reales con efectos reputacionales, la descontextualización de imágenes y el impacto agravado en menores y personas vulnerables. La Agencia subraya que estas prácticas constituyen una vulneración flagrante de la normativa de protección de datos.

Sin embargo, el análisis más innovador de la AEPD se centra en los riesgos invisibles, aquellos que se producen por el mero hecho de subir una imagen a un sistema de IA, incluso si el resultado no se difunde. La Agencia alerta sobre la pérdida efectiva de control sobre el dato personal, la retención técnica de copias no visibles por parte del proveedor, la generación de metadatos e inferencias que perfilan al individuo, y el riesgo de identificación persistente que permite a la IA reutilizar los rasgos de una persona para crear nuevos contenidos. Esta disección de la “fontanería” de los sistemas de IA expone una realidad a menudo ignorada por los usuarios: al interactuar con estas herramientas, cedemos una parte de nuestra soberanía personal a un ecosistema opaco de actores tecnológicos.

La nota concluye con una delimitación precisa de sus competencias, aclarando que, si bien su marco de actuación es el RGPD, en aquellos casos en los que existan indicios claros de delito (como el acoso, las injurias o los delitos contra la integridad moral), la actuación corresponde a las autoridades policiales, la Fiscalía y los órganos judiciales. Esta puntualización es fundamental, pues teje una red de seguridad institucional, asegurando que cada pieza del Estado de Derecho actúe de forma coordinada para ofrecer una protección integral al ciudadano. La doble acción del Gobierno y la AEPD el 13 de enero de 2026 no fue una coincidencia, sino la materialización de una estrategia de Estado meditada y contundente.

(Imagen elaborado por Pablo Sáez con inteligencia artificial)

¿Qué indican, a este respecto, los artículos 50 y ss. del Reglamento europeo de IA?

La respuesta española, si bien robusta y pionera, no opera en un vacío, sino que se engarza y potencia dentro del marco regulatorio más ambicioso del planeta en esta materia: el Reglamento (UE) 2024/1689 de Inteligencia Artificial (RIA). Este reglamento, cuyo período de implementación culmina en gran medida en 2026, es el pilar sobre el que se construye toda la estrategia europea de gobernanza de la IA. Frente al escándalo de Grok Imagine, el RIA no ofrece meras directrices etéreas, sino obligaciones concretas y un régimen sancionador disuasorio, actuando como un bisturí de precisión que corta de raíz la opacidad de los sistemas generativos.

En el epicentro de este marco se encuentra el artículo 50, un baluarte de la transparencia diseñado para devolver al ciudadano el control y el conocimiento sobre su interacción con la IA. De manera específica, el artículo 50.2 se revela como la némesis directa de la tecnología que posibilitó el escándalo. Establece, sin ambages, que los proveedores de sistemas de IA que generen contenido sintético de audio, imagen, vídeo o texto, deben asegurar que los resultados de salida del sistema estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial. Esta obligación, conocida popularmente como la exigencia de una “filigrana digital” o watermark, es una medida técnica de un calado jurídico inmenso. Su entrada en vigor, prevista para el 2 de agosto de 2026, supondrá un antes y un después, pues impedirá que los contenidos sintéticos circulen por la red camuflados como reales, proporcionando una primera y crucial capa de discernimiento para usuarios y plataformas.

El Reglamento va más allá, abordando directamente el concepto de “ultrasuplantaciones” (deepfakes). El artículo 50.4 obliga a los responsables del despliegue de un sistema que genere este tipo de contenidos a hacer público que han sido generados o manipulados artificialmente. Esta obligación de divulgación explícita, que se suma al marcado técnico, crea un doble cerrojo de transparencia. Es precisamente esta disposición la que el Anteproyecto de Ley Orgánica español recoge y adapta en su artículo 8.3.c, demostrando una perfecta alineación y sintonía entre la legislación nacional y la supranacional.

La fuerza del RIA no reside únicamente en la definición de obligaciones, sino en su capacidad para hacerlas cumplir. El artículo 99 despliega un régimen sancionador que pretende ser genuinamente disuasorio para gigantes tecnológicos con volúmenes de negocio estratosféricos. El incumplimiento de las obligaciones de transparencia del artículo 50, según lo estipulado en el artículo 99.4.g, está sujeto a multas administrativas de hasta 15.000.000 de euros o, si el infractor es una empresa, de hasta el 3% de su volumen de negocios mundial total del ejercicio anterior, optándose por la cuantía que sea mayor. Esta amenaza creíble de sanción económica transforma las obligaciones de transparencia de una mera recomendación a un imperativo de negocio. Para empresas como xAI, ignorar el mandato de transparencia del RIA deja de ser una opción viable para convertirse en un riesgo financiero de primer orden. El andamiaje legal europeo, por tanto, no solo legisla, sino que dota a sus principios de un poder coercitivo real, equilibrando la balanza de poder entre los innovadores tecnológicos y los reguladores que protegen el interés público.

Un problema jurídico-social masivo, que se maximiza con la propuesta Ómnibus Digital:

Sin embargo, justo cuando el modelo europeo de gobernanza de la IA parece consolidarse como un referente global, una sombra de incertidumbre se cierne desde el corazón mismo de la maquinaria legislativa de Bruselas. El 19 de noviembre de 2025, la Comisión Europea presentó una serie de Propuestas de Reglamento Ómnibus Digital, un paquete legislativo concebido con el propósito declarado de simplificar y armonizar el vasto corpus normativo digital de la Unión. No obstante, bajo esta pátina de eficiencia y desburocratización, se esconden elementos que han generado una profunda preocupación entre juristas, defensores de los derechos civiles y las propias autoridades de protección de datos.

Estas propuestas, impulsadas por un poderoso lobby industrial y por la presión de competir a la misma velocidad que los ecosistemas de innovación de Estados Unidos y China, amenazan con erosionar pilares fundamentales del modelo europeo. Dos de sus puntos son especialmente alarmantes. En primer lugar, se plantea la posibilidad de retrasar la aplicación de los requisitos más estrictos para los sistemas de IA de alto riesgo previstos en el RIA, ofreciendo a las empresas un período de gracia más prolongado para adaptarse. Esta medida, justificada como un alivio para la carga regulatoria, podría en la práctica dejar a los ciudadanos en una situación de desprotección precisamente en los ámbitos más sensibles, como la salud, el empleo o la justicia.

En segundo lugar, y de forma aún más preocupante, las propuestas sugieren una redefinición del concepto de “datos personales”, abriendo la puerta a un tratamiento mucho más laxo de los datos seudonimizados. Este cambio, aparentemente técnico, tendría consecuencias devastadoras para la privacidad, pues permitiría a las empresas utilizar y combinar grandes volúmenes de datos con finalidades de entrenamiento de algoritmos, eludiendo las garantías y los requisitos de consentimiento del RGPD. Se trata de una tensión fundamental entre la sed de datos de la industria de la IA y el derecho fundamental a la protección de datos, una batalla en la que el Reglamento Ómnibus Digital parece inclinarse peligrosamente hacia el lado de la industria.

La tramitación de este paquete legislativo a lo largo de 2026 se convertirá, por tanto, en un momento decisivo para el futuro de la soberanía digital europea. La votación en el Parlamento y en el Consejo no será una mera decisión técnica, sino una elección política de primer orden sobre el tipo de sociedad digital que Europa desea construir. ¿Prevalecerá la visión de una Europa que compite globalmente a costa de relajar sus propios estándares de protección de derechos, o se reafirmará el compromiso con un modelo que sitúa la dignidad y la seguridad de la persona en el centro, incluso si ello implica un ritmo de innovación más pausado y reflexivo? La respuesta a esta pregunta determinará si el robusto andamiaje legal construido en los últimos años se consolida como una fortaleza inexpugnable o se convierte en una fachada vulnerable a las presiones del mercado global.

Conclusión: 2026, el año en que España lideró la defensa del Estado de Derecho digital

El año 2026 será recordado como el año en que la inteligencia artificial perdió su inocencia. El escándalo de Grok Imagine, con su capacidad para generar y diseminar deepfakes dañinos a una escala masiva, ha puesto de manifiesto una verdad incómoda: la tecnología, desprovista de un marco ético y de responsabilidad, no es inherentemente benigna. Puede convertirse, con una facilidad pasmosa, en una herramienta para erosionar la confianza, perturbar la paz social y vulnerar la dignidad de las personas. La amenaza de los deepfakes no es una cuestión futurista; es un peligro presente y tangible que ataca la línea de flotación de nuestras sociedades, poniendo en jaque el concepto mismo de verdad y realidad compartida.

En este contexto de crisis, la respuesta coordinada y contundente del Estado de Derecho español ha sido ejemplar. La aprobación del Anteproyecto de Ley Orgánica de protección del derecho al honor y la publicación de la nota informativa de la AEPD no son meras reacciones a un incidente aislado. Son la manifestación de una estrategia de Estado meditada, que posiciona a España como un verdadero embajador de la AI Governance en el escenario global. Mientras otras potencias mundiales priorizan una carrera tecnológica sin frenos, España ha optado por la vía de la prudencia, la garantía de derechos y el fortalecimiento institucional. La creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), en conjunción con la labor consolidada de la AEPD, configura un modelo de supervisión dual, especializado y colaborativo, que se erige como un referente exportable para el resto de la Unión Europea.

Este liderazgo institucional demuestra que la fuerza de un Estado de Derecho no reside en su capacidad para prohibir la innovación, sino en su habilidad para encauzarla, para asegurar que el progreso tecnológico se alinee con los valores fundamentales de una sociedad democrática. Frente al anhelo de desestabilización y desregulación que emana de ciertos sectores de Silicon Valley, la respuesta española y europea es un recordatorio de que la soberanía digital no es una quimera, sino una construcción jurídica y política que requiere de voluntad, rigor y determinación. El Reglamento Europeo de IA, con sus obligaciones de transparencia y su régimen sancionador, es la piedra angular de esta construcción, un escudo que protege a 450 millones de ciudadanos de los excesos de un mercado sin control.

Nos encontramos en una encrucijada histórica. El camino a seguir no es el de la tecnofobia ni el de la rendición incondicional ante el avance tecnológico. El desafío consiste en encontrar un equilibrio sostenible entre la promoción de una IA innovadora y competitiva, y la protección irrenunciable de la dignidad humana, la privacidad y los derechos fundamentales. La experiencia de 2026 nos ha enseñado que este equilibrio es frágil y requiere de una vigilancia constante. La labor de nuestros legisladores, jueces, autoridades de supervisión y de una sociedad civil informada y crítica es más necesaria que nunca.

El futuro de la inteligencia artificial, y quizás el nuestro, depende de las decisiones que tomemos hoy. La responsabilidad de construir un ecosistema digital seguro, ético y respetuoso con nuestros valores no es una cuestión técnica, sino un imperativo moral que define el tipo de futuro que queremos legar. El escándalo de Grok Imagine ha sido una dura lección, pero también una oportunidad para reafirmar nuestros principios. España ha sabido estar a la altura del desafío, liderando con el ejemplo y demostrando que, en la era de la inteligencia artificial, la mejor innovación es la que se pone al servicio de la humanidad.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.