Connect with us
Artículos

OPEN AI inicia su nueva fase evolutiva en 2026: penetrar en la casuística diaria de las profesiones liberales, con herramientas propias especializadas en ámbitos sectoriales

¿Y los riesgos legales de usar GenAI, en el mundo de la salud qué?

(Imagen: E&J)

Pablo Sáez Hurtado

Delvy A.I. Senior Counsel. Presidente de la «comisión joven» de ENATIC. Director general de «BeAl Foundation». Gestor Ético de «OdiselA». Responsible and Trustworthy A.l. Lawyer.




María Sánchez Besga

Técnico Jurídico Senior de Gobernanza en el proyecto HealthData@MAD-R&I y experta externa del CEIm del Hospital Universitario La Paz




Tiempo de lectura: 10 min

Publicado




Artículos

OPEN AI inicia su nueva fase evolutiva en 2026: penetrar en la casuística diaria de las profesiones liberales, con herramientas propias especializadas en ámbitos sectoriales

¿Y los riesgos legales de usar GenAI, en el mundo de la salud qué?

(Imagen: E&J)

En enero de 2026 OpenAI publicó el informe AI as a Healthcare Ally, revelando cifras impactantes. Más del 5% de los mensajes de ChatGPT en todo el mundo giran en torno a la salud[1][2]. Con más de 800 millones de usuarios regulares, uno de cada cuatro solicita consejos médicos o administrativos cada semana[1], y decenas de millones lo hacen a diario. En los Estados Unidos, donde el sistema sanitario es «notoriamente complejo y opaco»[3], estos datos reflejan un uso masivo en asuntos como facturación, planes de seguro y trámites clínicos. Los pacientes emplean ChatGPT para decodificar facturas médicas, detectar cobros indebidos y apelar denegaciones de cobertura[4], especialmente fuera de horario de consulta (7 de cada 10 conversaciones de salud ocurren cuando las clínicas están cerradas[5][6]). Este uso extensivo no es por azar: 1,6–1,9 millones de mensajes semanales abordan solo temas de seguros en EE.UU.[5], y comunidades rurales envían casi 600.000 mensajes semanales en salud[7][8]. A nivel profesional, OpenAI reporta que el 66% de los médicos estadounidenses usaron IA en 2024 (frente al 38% en 2023) y casi la mitad de las enfermeras la emplean semanalmente[9]. En definitiva, la crónica de adopción de ChatGPT en el sector salud de EE.UU. es imparable y plantea un escenario de oportunidades para mejorar el acceso y el empoderamiento del paciente, pero también cuestiona la integridad de la información en un sistema ya sobrecargado.

Pero OpenAI no se detuvo ahí. Tan solo dos días después de la publicación del informe, la compañía anunció el lanzamiento de ChatGPT Salud en fase experimental. Esta iniciativa constituye un avance significativo en la estrategia de OpenAI orientada a la aplicación de la inteligencia artificial en el ámbito sanitario, al proponer un entorno especializado para el acompañamiento informativo de los usuarios en cuestiones de salud. Si bien el despliegue inicial se limita a un grupo reducido de participantes, dicha restricción responde a una lógica metodológica: evaluar el funcionamiento del sistema, optimizar la experiencia de uso y reforzar los mecanismos de protección de datos sensibles. En este sentido, OpenAI manifestó desde el inicio su voluntad de escalar progresivamente la herramienta y extender su disponibilidad a un público más amplio, una vez consolidados los aprendizajes derivados de esta etapa piloto.

Global IA

Visión y estrategia de OpenAI en el sector salud

OpenAI ha puesto la salud como prioridad estratégica. El lanzamiento de GPT-5 en 2025 incorporó avances específicos para el ámbito médico: este modelo supera ampliamente a sus predecesores en benchmarks sanitarios (por ejemplo, logró 46,2% de acierto en HealthBench Hard frente a 31,6% de GPT-4)[10], y fue diseñado para ofrecer asistencia proactiva en contextos clínicos, incluso pidiendo al usuario aclaraciones o consultando las últimas publicaciones médicas. OpenAI describe GPT-5 como un «socio cognitivo» de alto nivel, capaz de mejorar su confiabilidad al fundamentar sus respuestas en datos clínicos pertinentes[10]. En palabras de la empresa, los nuevos modelos «formulan más preguntas» y dirigen al usuario hacia profesionales cuando la situación lo exige[11][10].

En paralelo, OpenAI fomenta políticas públicas y estándares que faciliten el desarrollo ético. Por ejemplo, ha colaborado en crear HealthBench, un benchmark para IA en salud desarrollado con la contribución de 262 médicos de 60 países[12]. HealthBench ofrece 5.000 conversaciones simuladas en el entorno clínico, con rúbricas creadas por expertos, para evaluar a los sistemas de IA bajo criterios realistas. Esta iniciativa ilustra la visión de OpenAI: no solo mejorar la tecnología, sino definir junto con médicos cómo evaluarla y regularla para usos sanitarios seguros.

Suscríbete a nuestra
NEWSLETTER

La estrategia tecnológica se complementa con alianzas sectoriales. Muchas empresas farmacéuticas y de biotecnología han integrado soluciones de OpenAI. Un caso emblemático es Moderna: utilizó ChatGPT Enterprise para desarrollar Dose ID, una herramienta que automatiza el análisis de datos clínicos de sus ensayos. Con ella, los investigadores validan la dosis óptima de vacunas frente al COVID-19 generando automáticamente gráficos y justificaciones basadas en los datos[13]. “Si lo hiciéramos a la antigua, necesitaríamos cien mil personas; creemos que con unos pocos miles, usando IA, podemos multiplicar nuestro impacto en los pacientes”, declaró el CEO de Moderna, Stéphane Bancel[14].

(Imagen: laboratorio de investigación biomédica)

La colaboración entre IA y biotecnología ya se plasma en entornos reales: laboratorios de investigación conjugan la inteligencia artificial con sus bases de datos para descubrir fármacos y vacunas. Por ejemplo, con ChatGPT las empresas farmacéuticas aceleran el diseño de moléculas, el análisis de genomas y la optimización de procesos experimentales. OpenAI también ha servido como plataforma colaborativa para gigantes del sector: Thermo Fisher planea integrar APIs de OpenAI en su plataforma Accelerator de desarrollo farmacéutico, mientras que Lundbeck (farmacéutica danesa) ha desplegado ChatGPT entre su personal para potenciar la I+D y las tareas comerciales[15][16]. Estos ejemplos muestran cómo la visión de OpenAI apuesta por un papel de soporte a la innovación biomédica: IA para reducir los costes de experimentación, identificar rápidamente opciones terapéuticas y mejorar la eficiencia administrativa, con el objetivo de que los investigadores dediquen más tiempo al descubrimiento científico.

Divergencias transatlánticas en implicaciones legales

En materia legal, Estados Unidos y Europa siguen caminos distintos. EE.UU. no tiene una ley federal única de IA; en cambio, la regulación sanitaria se ejerce por sectores. Así, la HIPAA de 1996 protege la información de salud de los pacientes (PHI): exige medidas de seguridad y firmar business associate agreements (BAA) para compartir datos con terceros. En la práctica, ChatGPT no es HIPAA-compliant, pues OpenAI no firma esos acuerdos[17], lo que restringe su uso con información de pacientes. Simultáneamente, la FDA regula los softwares médicos basados en IA como Medical Devices (Class II o III según su riesgo), exigiendo aprobaciones previas (510(k) o PMA) y estudios clínicos de validación[18]. El modelo estadounidense valora la seguridad técnica y clínica comprobada: los médicos pueden confiar en que las herramientas autorizadas por la FDA han sido probadas rigurosamente antes de su uso[18]. Aún así, prevalecen las demandas clásicas de negligencia médica o producto defectuoso cuando un sistema falla, pues aún no existe un régimen específico de responsabilidad para la IA.

Europa, en cambio, ha instaurado un marco europeo armonizado. Desde agosto de 2024 entró en vigor el Reglamento de Inteligencia Artificial (RIA)[19]. Bajo este régimen jurídico, cualquier IA usada en salud (software de diagnóstico o asistentes clínicos) se considera alto riesgo, con obligaciones estrictas: gestión de riesgos documentada, uso de datos de entrenamiento representativos, transparencia (informar al usuario que es IA) y supervisión humana en la toma de decisiones[20][19]. De forma complementaria, el Reglamento General de Protección de Datos (RGPD) clasifica los datos de salud como categorías especiales (art.9): su tratamiento está prohibido salvo excepciones estrictas y requiere medidas como anonimización, minimización y EIPD (evaluación de impacto de protección de datos)[21][22]. Además, en marzo de 2025 entró en vigor el Reglamento del Espacio Europeo de Datos de Salud (REEDS)[23], creando estándares comunes de interoperabilidad de historias clínicas electrónicas y facilitando la reutilización de datos para investigación con una serie de garantías. El enfoque europeo valora la confianza, la privacidad y la seguridad: obliga a que la innovación ocurra dentro de un marco controlado, evitando riesgos y garantizando la calidad de los datos antes de que se generalice el uso de los productos derivados de los datos en pacientes.

A modo de síntesis, la siguiente tabla compara las principales obligaciones y clasificaciones de riesgo en ambos ámbitos:

Aspecto Estados Unidos Unión Europea
Datos de salud HIPAA: requiere BAA y medidas de seguridad para PHI[17]. Multas civiles por brechas (hasta ~$2.13M/año[24]). Leyes estatales aplican estándares similares. RGPD art. 5, 6 y 9: datos de categorías especiales. Requiere respetar principios relativos al tratamiento, una de las bases de licitud del tratamiento del art. 6 y del art. 9 conjuntamente. Multas hasta 4% de ingresos globales.
Dispositivos médicos FDA clasifica IA médica como SaMD (Class II/III). Exige aprobación previa y estudios clínicos[18]. Vigilancia post-mercado obligatoria. MDR/IVDR: La IA con fines médicos se considera producto sanitario (clase I a III). Requiere marcado CE y estudios clínicos[25]. Ante modificaciones sustanciales deben reevaluarse.
IA clínica rutinaria No hay ley general de IA. Se aplica normativa existente: responsabilidad por negligencia médica o por producto defectuoso. Herramientas sin marca FDA se usan «off-label». RIA: cualquier IA sanitaria es de alto riesgo. Obliga a evaluación de conformidad, requisitos de gobernanza del dato, precisión, solidez, ciberseguridad y transparencia (informar usuario)[20][19].
Interoperabilidad y uso de datos ONC/Cures Act promueven interoperabilidad de EHR y prohíben bloqueo de datos sanitarios. Sin embargo, no hay marco unificado de intercambio de datos. Reglamento de Gobernanza de Datos y Reglamento de Datos: fomentan la reutilización y el intercambio de datos.

REEDS: establece estándares técnicos comunes para la interoperabilidad y la gestión de datos de salud en la UE[23].

Responsabilidad civil Modelo de mala praxis y productos defectuosos. Tanto el médico como el fabricante de software pueden ser demandados bajo leyes generales. Falta una regulación específica de IA. Directiva de productos defectuosos: aplica a la IA y establece presunciones de nexo causal, daño y defectuosidad.
Sanciones HIPAA: multas civiles hasta ~$2.13M/año[24]; posible cárcel si hay violaciones intencionales. La FTC puede multar por prácticas engañosas. RIA: multas hasta 35M€ o 7% de facturación global para incumplimientos graves[26]; hasta 15M€/3% para otros. GDPR: hasta 20M€ o 4% por brechas de datos de salud.

MDR: retirada forzada de productos si se detecta un fallo en IA y posibilidad de llevar a cabo una acción resarcitoria por producto defectuoso.

A pesar de diferencias, ambos sistemas apuntan a objetivos similares: garantizar la seguridad, transparencia y equidad en la IA sanitaria. La UE avanza con un enfoque preventivo y basado en el riesgo, mientras EE.UU. lo hace mediante la regulación sectorial y la jurisprudencia.

Riesgos legales profundos: responsabilidad, privacidad, transparencia y sesgos

El uso de IA en salud plantea riesgos críticos. Primero, la privacidad y seguridad de los datos. La historia clínica contiene información muy sensible, lo que incrementa la amenaza ante ciberataques o filtraciones. La OMS enfatiza que la alta sensibilidad de estos datos requiere cifrado fuerte, anonimización robusta y vigilancia constante, pues cualquier brecha puede causar daños irreparables al paciente[21]. En la práctica, si se introducen datos de un paciente real en ChatGPT sin garantías, se violaría la HIPAA en EE.UU. o el RGPD en la UE. Por ello, expertos recomiendan usar siempre entornos controlados (modelos certificados o nubes hospitalarias) cuando se trate información clínica.

(Imagen: datos de salud en formato digital)

La exposición indebida de datos biomédicos a modelos de IA puede vulnerar la confidencialidad del paciente. Además de medidas de seguridad, es esencial contar con auditorías y registros de acceso a los datos. Cualquier incidente (por ejemplo, un fallo que revele información) podría desencadenar sanciones legales. En la UE, las infracciones de protección de datos de salud pueden costar hasta el 4% de la facturación anual[21]; en EE.UU., las sanciones bajo HIPAA pueden alcanzar varias decenas de miles de dólares por violación.

Otro gran riesgo es la transparencia algorítmica. Los modelos de lenguaje son cajas negras: explican pobremente cómo llegaron a una conclusión. Esto genera inseguridad en entornos clínicos. El reglamento europeo exige ahora que los sistemas de alto riesgo de salud incluyan mecanismos de transparencia (por ejemplo, logs de las decisiones y notificaciones de limitaciones)[20][19]. Un ejemplo ilustrativo: si un algoritmo diagnostica un tumor, debe permitir que el médico audite su razonamiento antes de tomar decisiones clínicas[27]. En EE.UU., aunque no hay mandato específico de transparencia para IA, los médicos tienen el deber profesional de entender las herramientas que usan, lo que ejerce cierta presión para la explicabilidad.

Los sesgos algorítmicos son otra preocupación. Si los datos de entrenamiento carecen de diversidad, el modelo puede discriminar. Por ejemplo, ya se han documentado IA médicas que funcionan peor con pacientes de ciertos grupos étnicos o de edad avanzada. La OMS advierte que la IA puede amplificar sesgos existentes si no se corrigen[28]. Esto implicaría decisiones clínicas injustas. Para mitigarlo, los desarrolladores deben entrenar con datos representativos y las instituciones sanitarias deben supervisar continuamente las salidas del modelo. Cualquiera que sea el sesgo, en la práctica puede dar lugar a reclamaciones legales: un paciente desfavorecido por un error algorítmico podría demandar por discriminación o negligencia.

Finalmente, las consecuencias jurídicas. En Europa, el incumplimiento del AI Act implica multas muy altas: hasta 35 millones de euros o el 7% de la facturación anual para infracciones graves[26] (p.ej. no realizar pruebas adecuadas). Además, está la responsabilidad civil derivada del MDIR (MDR): un defecto en un software médico conlleva indemnizaciones bajo la Directiva de productos defectuosos. En EE.UU., los proveedores se enfrentan sobre todo a demandas de mala praxis. Las multas civiles HIPAA llegan a $2.13 millones al año por infractor[24], pero la defensa suele centrarse en juicios civiles o sanciones estatales. En resumen, aunque el régimen de sanciones difiere, el peligro es real en ambos continentes: violar las normas de IA o datos puede costar enormes sumas y reputación a profesionales y empresas.

Conclusiones y recomendaciones

La integración masiva de IA generativa en la salud exige prudencia activa. Profesionales sanitarios deben formarse en el uso ético de IA: verificar siempre las recomendaciones de la herramienta con su propio criterio, documentar su aplicación y obtener el consentimiento del paciente. Es esencial realizar Evaluaciones de Impacto (DPIA o “DRIA”) antes de desplegar cualquier IA clínica, identificando los riesgos potenciales y planificando salvaguardas. Se recomienda usar solo sistemas certificados o especializados para salud, y actualizar protocolos de privacidad en cada fase del desarrollo tecnológico.

Administraciones públicas y reguladores deben acelerar la creación de entornos seguros para la IA en salud. Esto implica implementar el REEDS y desarrollar guías claras de cumplimiento (por ejemplo, modelos de contrato de datos de salud). Deberían establecer sandboxes regulatorios donde hospitales y startups experimenten con IA bajo supervisión, facilitando la innovación controlada. Es crucial también educar a los jueces y abogados en las particularidades de la IA para que las sentencias de 2026 en adelante sean coherentes. Adicionalmente, las agencias de salud públicas deberían fomentar estándares técnicos y de interoperabilidad (p.ej. XDS/XCA, HL7 FHIR) que permitan compartir datos con IA de forma legal y segura.

Desarrolladores y empresas de tecnología han de incorporar la regulación desde el diseño (“compliance by design”): esto incluye construir modelos con datos diversos, versiones auditables del software y privacidad por defecto. Deben anticiparse a la normativa (p.ej. preparar documentación de calidad de datos, códigos de ética internos) para acelerar la aprobación regulatoria. Colaborar estrechamente con clínicos y autoridades de salud durante el desarrollo es clave: así se ajustan mejor las herramientas a las necesidades reales y se acelera el cumplimiento de requisitos. Fomentar la transparencia (p.ej. publicando métricas de rendimiento o planes de mitigación de sesgos) aumentará la confianza y reducirá el riesgo legal.

De cara a 2026 y siguientes años, se vislumbran tendencias claras: la IA proporcionará medicina personalizada a gran escala, con predicciones de salud basadas en IA y seguimiento continuo del paciente a través de wearables. Habrá más telemedicina inteligente (triage automatizado, asistentes virtuales) y el cruce de datos genómicos con IA para descubrir tratamientos novedosos. Jurídicamente, probablemente se aprobarán leyes federales de IA en EE.UU. y la UE adaptará su marco tras los primeros casos de uso masivo. El reto será equilibrar la innovación médica con la protección jurídica: idealmente, se avanzará hacia un ecosistema donde la regulación evoluciona al mismo ritmo que la tecnología, garantizando así que herramientas tan potentes como ChatGPT sean un aliado real del cuidado de la salud y no una fuente de nuevos problemas legales.

[1] [5] [7] [9] 40 million Americans use ChatGPT for healthcare: Report – Becker’s Hospital Review | Healthcare News & Analysis

https://www.beckershospitalreview.com/healthcare-information-technology/ai/40m-americans-turn-to-chatgpt-for-healthcare-report/

[2] [3] [4] [6] [8] [11] OpenAI’s ChatGPT helps users navigate health care and health insurance

https://www.axios.com/2026/01/05/chatgpt-openai-health-insurance-aca

[10] Introducing GPT-5 | OpenAI

https://openai.com/index/introducing-gpt-5/

[12] Introducing HealthBench | OpenAI

https://openai.com/index/healthbench/

[13] [14] Accelerating the development of life-saving treatments | OpenAI

https://openai.com/index/moderna/

[15] [16] Thermo Fisher, Lundbeck Announce New OpenAI Partnerships Advancing AI in Drug Development | Applied Clinical Trials Online

https://www.appliedclinicaltrialsonline.com/view/thermo-fisher-lundbeck-announce-new-openai-partnerships-advancing-ai-drug-development

[17] Is ChatGPT HIPAA Compliant? Updated for 2025

https://www.hipaajournal.com/is-chatgpt-hipaa-compliant/

[18] [20] [22] [25] [27] Legislación de la Inteligencia Artificial en el ámbito sanitario | UNIA

https://www.unia.es/vida-universitaria/blog/legislacion-de-la-inteligencia-artificial-en-el-ambito-sanitario

[19] Inteligencia artificial en la asistencia sanitaria – Public Health

https://health.ec.europa.eu/ehealth-digital-health-and-care/artificial-intelligence-healthcare_es

[21] [28] Directrices de la OMS sobre IA aplicada a la salud – PROTECCIÓN DATA

https://protecciondata.es/directrices-de-la-oms-sobre-ia-aplicada-a-la-salud/

[23] European Health Data Space Regulation (EHDS) – Public Health

https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space-regulation-ehds_en

[24] HIPAA Violation Fines – Updated for 2025

https://www.hipaajournal.com/hipaa-violation-fines/

[26] Artículo 99: Sanciones | Ley de Inteligencia Artificial de la UE

https://artificialintelligenceact.eu/es/article/99/

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.