Connect with us
Artículos

Despidos algorítmicos en España: cuando la máquina firma tu carta de despido

“Te ha despedido una máquina” no es una anécdota futurista: es la crónica de una mala praxis

El despido algorítmico ya ha tenido un precedente en España: el TSJ de Cataluña anulo un despido de estas características. (Imagen: E&J)

Carlos Bravo Díaz

Abogado Laboral y Graduado Social. Director de Acción Legal Emprende




Tiempo de lectura: 4 min

Publicado




Artículos

Despidos algorítmicos en España: cuando la máquina firma tu carta de despido

“Te ha despedido una máquina” no es una anécdota futurista: es la crónica de una mala praxis

El despido algorítmico ya ha tenido un precedente en España: el TSJ de Cataluña anulo un despido de estas características. (Imagen: E&J)

Que un algoritmo te mida ya no sorprende; que te despida, sí. La gestión automatizada ha saltado de la operativa a las decisiones críticas: turnos, objetivos, bonus… y extinciones. El Derecho del Trabajo español se ve obligado a responder a un escenario en el que la “motivación” ya no la mide un directivo, sino una plantilla, un modelo o un asistente de IA. El riesgo jurídico es enorme: opacidad, sesgos, falta de motivación y vulneración de derechos de defensa. Y, lo más preocupante, la tentación de naturalizarlo.

El primer aviso serio lo ha dado el Tribunal Superior de Justicia de Cataluña. En 2024 anuló un despido porque la carta era, en palabras del tribunal, “impresentable”: un corta-pega torpe o directamente generada con IA, con errores materiales sobre el sector de la empresa y sin una mínima motivación de hechos y pruebas. La Sala dejó claro que la forma importa: una comunicación automatizada, estereotipada o mal construida no satisface las exigencias del artículo 55 del Estatuto de los Trabajadores ni permite al trabajador conocer y rebatir la causa. El mensaje para las empresas es inequívoco: si delegas la decisión en software, la responsabilidad que conlleva a la nulidad sigue siendo tuya.

Global IA

El segundo golpe llega desde la protección de datos: la AEPD está sancionando usos de biometría, tanto de huella como facial para control horario y acceso cuando no se justifican con una base legal robusta, una Evaluación de Impacto de Protección de Datos, EIPD, superada y medidas de seguridad acordes al alto riesgo. En 2024 impuso 365.000 euros de multa en un asunto laboral por emplear biometría para fichar sin cumplir información, seguridad ni evaluación de impacto. La propia Guía de la AEPD sobre control de presencia biométrico fija un listón elevadísimo: la regla general es no usar datos biométricos salvo casos excepcionales y proporcionados, con alternativas no intrusivas evaluadas. Para las compañías, el aviso es doble: no todo lo “inteligente” es legal, y los sistemas de reconocimiento pueden terminar invalidando despidos o sanciones si la prueba nace de un tratamiento ilícito.

MFL ITTI

El tercer hito, decisivo para la era de la IA, lo ha marcado el Tribunal Supremo en septiembre de 2025: obliga al Gobierno a abrir el código de BOSCO, el algoritmo que decide el bono social eléctrico. Aunque no es un caso laboral, su doctrina es dinamita para el ecosistema algorítmico: cuando un algoritmo afecta derechos, la transparencia prevalece frente a excusas de propiedad intelectual o seguridad. El Supremo subraya que el acceso al funcionamiento interno es clave para detectar errores, sesgos y arbitrariedades. Trasladado a la empresa privada y al empleo, el principio es evidente: no puede haber decisiones automatizadas sin explicabilidad suficiente; el trabajador y, llegado el caso, el juez, deben poder entender de qué depende el “sí” o el “no” que decide su futuro.

A partir de estos tres vectores —motivación real en el despido, licitud del control biométrico y transparencia algorítmica— se dibuja el mapa de riesgos. Primero, la nulidad por falta de motivación: cartas generadas con IA o plantillas genéricas, sin hechos concretos, fechas, pruebas y nexo causal, son una autopista hacia la improcedencia o, en determinados supuestos, la nulidad por indefensión. La IA puede ayudar a ordenar información, pero no exime de individualizar la causa y respetar el derecho de defensa.

Segundo, la prueba contaminada: si el rendimiento o la “productividad” provienen de sistemas ilícitos de control, la cadena de custodia probatoria se resiente. La AEPD ya ha dejado claro que fichar con huella o facial no es la vía estándar; y cuando sanciona, la empresa no solo paga la multa: también compromete pleitos laborales donde esa “evidencia” se derrumba.

Tercero, la opacidad técnica: si la empresa se ampara en “el algoritmo dice” y no puede explicar variables, ponderaciones, datos de entrenamiento o reglas de decisión, la presunción de validez se quiebra. El Supremo, con BOSCO, ha colocado la piedra angular: sin transparencia real, no hay garantías. Y el AI Act de la UE refuerza esta dirección al clasificar como alto riesgo los sistemas que evalúan personas, imponiendo trazabilidad, documentación y supervisión humana obligatoria. La consecuencia práctica: las compañías deben prepararse para abrir sus modelos en conflicto.

El problema de los algoritmos es que necesitan control humano para evitar que generen estas situaciones de despidos. (Imagen: Garrigues)

¿Qué hacer, entonces, para no caer en el “despido algorítmico” fallido?

Primero, supervisión humana: ningún cese ni sanción debe formalizarse sin revisión humana cualificada que contraste hechos, contexto y proporcionalidad, dejando rastro escrito de esa intervención.

Segundo, compliance algorítmico: registro de modelos y versiones, datasets utilizados, justificación de variables, test de sesgo y estabilidad, auditorías periódicas internas y, si es posible, externas.

Tercero, datos y privacidad: si el control se apoya en biometría u otras tecnologías intrusivas, hay que justificar idoneidad, necesidad y proporcionalidad, ofrecer alternativas y superar una EIPD con garantías; si no, el riesgo sancionador y procesal será elevado.

Por su parte, trabajadores y representantes deben exigir explicaciones comprensible: qué datos se recogen, con qué fin, quién accede, cómo se decide y cómo se impugna. La representación legal tiene base para solicitar información sobre sistemas que afecten a condiciones de trabajo y evaluaciones; y los juzgados cuentan ya con mimbres para pedir a las empresas la “caja negra” de sus herramientas cuando de ellas depende la suerte del pleito. Si el algoritmo decide, el algoritmo debe ser explicable.

“Te ha despedido una máquina” no es una anécdota futurista: es la crónica de una mala praxis. El Derecho del Trabajo español dispone de herramientas para poner límites —motivación suficiente, legalidad del tratamiento de datos, control judicial efectivo—, y los tribunales empiezan a activarlas. Con una lección transversal: la IA puede asistir, no sustituir las garantías. Porque cuando el código firma, la empresa responde; y cuando la opacidad manda, la justicia abre la caja.

  • telegram

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.