Connect with us
Artículos

Denuncias y algoritmos: cuando la IA acusa antes de escuchar

Un escenario posible donde la eficacia tecnológica puede vulnerar los derechos fundamentales

(Imagen: E&J)

Carlos Bravo Díaz

Abogado Laboral y Graduado Social. Director de Acción Legal Emprende




Tiempo de lectura: 4 min

Publicado




Artículos

Denuncias y algoritmos: cuando la IA acusa antes de escuchar

Un escenario posible donde la eficacia tecnológica puede vulnerar los derechos fundamentales

(Imagen: E&J)

A las 08:17, Laura abre un correo: una notificación formal por presunto incumplimiento contractual. Redacción impecable, referencias legales, número de expediente. Lo inquietante no está en el encabezado, sino en el autor: no es una persona, es un sistema de IA.

Nadie la escuchó, nadie ponderó el contexto; solo un modelo que, cruzando datos y patrones, decidió que su nombre encajaba.



En un mundo que idolatra la inmediatez, la línea entre agilizar y atropellar es peligrosamente fina. Y aquí no hablamos solo de garantías procesales: hablamos de derechos fundamentales. La tutela judicial efectiva y la presunción de inocencia, en el artículo 24 de nuestra Constitución Española (CE), la privacidad y protección de datos, en el artículo 18 CE, o el principio de legalidad y proporcionalidad sancionadora, artículo 25 CE, pueden erosionarse si la eficacia tecnológica se convierte en atajo.



La digitalización ha sido un salto cualitativo: ya no hacemos cola en ventanilla para todo. Hoy interponemos escritos y comunicaciones desde el móvil. Y el salto cuantitativo llega con la IA: sistemas que rellenan formularios, clasifican casos por “probabilidad de éxito”, redactan notificaciones con precisión de jurista.

En España, además, el ecosistema administrativo de la Tesorería de la Seguridad Social y la Agencia Tributaria opera con notificaciones electrónicas centralizadas en DEHú, que activan procedimientos de control, sanción o recaudación con efectos inmediatos, no son “denuncias penales”, pero sí actos acusatorios administrativos con gran impacto.

Ambos organismos citados, remiten y gestionan comunicaciones a través de sus sedes y de la Dirección Electrónica Habilitada única, lo que permite flujos altamente automatizados desde el primer clic.

El problema no es la herramienta; es su uso sin contrapesos. La presunción de inocencia, el derecho a ser oído o la motivación de las decisiones no son decorado, son fundamentos de la justicia. Un algoritmo detecta patrones, no matices; reconoce palabras, no intenciones; alinea coincidencias, no contextos. Si dejamos que la eficiencia sea el único indicador clave de desempeño, sacrificaremos justicia en el altar de la rapidez.

La evidencia comparada ofrece lecciones costosas. Reino Unido: el algoritmo del DWP para detectar fraude en ayudas flageó erróneamente a más de 200.000 personas en tres años; dos tercios de los casos marcados como “alto riesgo” eran legítimos. Resultado: revisiones invasivas y millones gastados en comprobaciones que no llevaban a ninguna parte.

En Estados Unidos: el software de predicción policial registró en New Jersey, una tasa de acierto inferior al 0,5% tras analizar 23.631 predicciones. El sistema acabó abandonándose; más ciudades han reculado tras auditorías por sesgos e ineficacia.

España también tiene su propia advertencia: Veripol, la IA de la Policía Nacional para detectar denuncias falsas por robo con violencia. Se presentó con más del 90% de “acierto” y se desplegó en 2018; en octubre de 2024 dejó de estar operativa por falta de validez jurídica, entre críticas de opacidad y muestras de entrenamiento insuficientes. La confirmación oficial llegó meses después. Mensaje claro: sin transparencia, control humano y auditoría, hasta la “herramienta estrella” cae.

(Imagen: E&J)

Dimensión humana: recibir una notificación automatizada es como ser llamado por un número oculto que te exige explicaciones sin explicar nada. No solo te enfrentas al procedimiento; te enfrentas a un acusador sin rostro. Esa sensación de indefensión algorítmica y temeridad erosiona la confianza en el sistema incluso cuando el caso termina archivado.

Dimensión de mercado: el volumen solo va a crecer. En 2021, Interior registró más de 28.000 denuncias por acoso en redes y mensajería, aumentando en un 17,5% en comparación con 2020. Con cifras así, la tentación de usar IA para filtrar y procesar a gran escala es evidente… y también lo son los riesgos sistémicos si la automatización falla.

Marco regulatorio: el AI Act de la UE ya está en vigor desde el 1 de agosto de 2024, con despliegue progresivo de obligaciones: transparencia, gestión de riesgos, supervisión humana reforzada en sistemas de alto riesgo. Para operadores públicos y proveedores, el calendario no es retórico: es compliance con fecha. Planificar auditorías algorítmicas, registros de eventos, evaluación de impacto y gobernanza de datos ya no es “nice to have”.

En este nuevo escenario, los operadores jurídicos, las administraciones y también las empresas tecnológicas tienen una responsabilidad común: exigir trazabilidad y transparencia a los sistemas que utilicen. Ningún acto con efectos sancionadores debería formalizarse sin una revisión humana real y motivada, capaz de aportar contexto donde el algoritmo solo ve datos.

La calidad y legalidad de la información que alimenta a la IA es igualmente crucial: los “silos opacos” no solo generan errores, también contaminan decisiones que afectan a derechos. Y si la supervisión independiente, a través de auditorías periódicas y mecanismos de control, no se convierte en práctica habitual, el riesgo no será técnico, sino reputacional: la ciudadanía perderá confianza en el sistema.

Al final, el verdadero reto no está en acelerar procesos, sino en garantizar que quien recibe una notificación automática tenga derecho a una explicación comprensible y a un cauce ágil para impugnarla. Porque sí, la IA puede ser aliada: reduce tiempos, filtra ruido, detecta patrones.

Pero en justicia, también en la administrativa sancionadora, la rapidez nunca vale más que la verdad. Los errores humanos duelen, pero permiten pedir cuentas; la caja negra no entiende de empatía ni de duda razonable. El verdadero riesgo no es sustituir jueces o inspectores, sino crear un filtro invisible que decida quién merece justicia… sin que lo sepamos.

La hoja de ruta responsable es clara: supervisión humana obligatoria antes de formalizar actos acusatorios generados por IA; trazabilidad completa del razonamiento y acceso a la explicación; formación de operadores y auditorías periódicas. La tecnología no debe decidir a quién acusamos; debe ayudarnos a decidir mejor.

En manos equivocadas, la IA no será la herramienta de la justicia, sino su acusador implacable. Y si dejamos que esa lógica avance sin freno, descubriremos que lo verdaderamente peligroso no son las denuncias falsas, sino las denuncias sin alma.

SUSCRÍBETE A NUESTRA NEWSLETTER

  • tiktok

Copyright © 2025 , powered by Economist & Jurist.