Sobre Asuntos europeosNuestro proyecto Asuntos europeos te lleva al interior de las negociaciones sobre leyes que nos afectan a todos. Publicamos historias que llegan a la raíz de la toma de decisiones en la UE, explican por qué los acuerdos políticos firmados en Bruselas importan a cualquier ciudadano, y arrojan luz sobre las cuestiones críticas de nuestro tiempo.
Los gobiernos de la UE podrán desplegar tecnologías basadas en inteligencia artificial que rastreen a los ciudadanos en espacios públicos, vigilen en tiempo real a los refugiados en zonas fronterizas y utilicen sistemas de reconocimiento emocional de las personas. Todo ello se regula en la Ley Europea de Inteligencia Artificial, aprobada el verano pasado, aunque algunos de sus artículos más polémicos entran en vigor el próximo 2 de febrero.La Ley de Inteligencia Artificial es pionera en el mundo a la hora de regular este sector. La legislación está diseñada para mitigar los innumerables riesgos para la privacidad que rodean el uso de tecnologías y algoritmos de inteligencia artificial (IA), y la UE sostiene que el Reglamento creará “un ecosistema de IA que beneficie a todos”. Sin embargo, la norma recoge diversas exenciones por motivos de seguridad nacional y algunas lagunas regulatorias que pueden chocar contra el proclamado objetivo de garantizar los derechos fundamentales de los ciudadanos.Las medidas más polémicas fueron introducidas en el Reglamento por las presiones secretas de varios Estados liderados por Francia. Documentos internos de las negociaciones en la UE, obtenidos por el consorcio de periodistas Investigate Europe, revelan que varios Estados miembros hicieron campaña con éxito para diluir las medidas más garantistas, dando a las fuerzas policiales y a las autoridades fronterizas mayor libertad para vigilar encubiertamente a los ciudadanos.“Con una serie de lagunas y omisiones burocráticas, la Ley de Inteligencia Artificial no es la legislación ambiciosa y protectora de los derechos humanos que muchos esperaban”, reflexiona Sarah Chander, cofundadora de la ONG Equinox Initiative for Racial Justice. “En realidad, la legislación es un instrumento favorable a la industria diseñado para acelerar el mercado europeo de la IA y promover la digitalización de los servicios públicos”, critica.Investigate Europe analizó más de 100 documentos de reuniones a puerta cerrada del Coreper, el principal órgano preparatorio de las reuniones del Consejo de la UE, y habló con múltiples fuentes presentes en las negociaciones. Las actas de las reuniones y los testimonios de todo el espectro político detallan cómo Francia elaboró estratégicamente las enmiendas al Reglamento.La ley prohíbe en general el uso de la inteligencia artificial en espacios públicos, pero los cambios impulsados entre otros por el Gobierno de Emmanuel Macron implican que las fuerzas del orden y los funcionarios de fronteras podrán saltarse la prohibición. Las manifestaciones por el clima o las protestas políticas, por ejemplo, podrán ser objeto de vigilancia mediante IA si la policía considera que existe un riesgo para la “seguridad nacional”.Cuando los representantes de los Estados se reunieron en el Coreper el 18 de noviembre de 2022, el de Francia fue inequívoco sobre los deseos de su país: “La exclusión de la seguridad y la defensa (...) debe mantenerse a toda costa”. Era una referencia a una parte de la ley que proponía que sólo los militares pudieran llevar a cabo vigilancia en espacios públicos. Francia quería una exención para todas las autoridades siempre que fuese necesario para la “seguridad nacional”. En una reunión posterior, Italia, Hungría, Rumanía, Suecia, la República Checa, Lituania, Finlandia y Bulgaria expresaron su apoyo a la postura francesa.“Esta batalla era una de las más duras y la perdimos”, admite una fuente del Parlamento Europeo implicada en las negociaciones, que pidió permanecer en el anonimato. En el texto final ya no hay requisitos para el uso de la vigilancia en espacios públicos –como la obligación de aprobarlo por parte de una agencia o de declarar el producto en un registro público– si un Estado lo considera necesario por motivos de seguridad nacional. 
Las manifestaciones podrán vigilarse con IA si las autoridades policiales alegan razones de "seguridad nacional".Shutterstock
En la práctica, estas exenciones también cubrirán a las empresas privadas –o posiblemente a terceros países– que proporcionen la tecnología basada en IA a la policía y las fuerzas del orden. El texto estipula expresamente que la vigilancia en dichos supuestos está permitida “independientemente del tipo de entidad que lleve a cabo esas actividades”.
“Este artículo [el 2.3 de la Ley] va en contra de toda Constitución, en contra de los derechos fundamentales, en contra de la legislación europea”, denuncia un jurista del grupo conservador PPE en el Parlamento Europeo, hablando bajo anonimato. “Francia podría, por ejemplo, pedir al Gobierno chino que utilice sus satélites para hacer fotos y luego vender los datos al Gobierno francés”, ejemplifica.
La exención también va aparentemente en contra de sentencias del Tribunal de Justicia de la Unión Europea (TJUE) de 2020 y 2022, afirma Plixavra Vogiatzoglou, investigadora postdoctoral de la Universidad de Ámsterdam. Esas sentencias determinaron que las empresas de telecomunicaciones francesas habían infringido la legislación de la UE al retener datos de clientes por motivos de seguridad nacional. “El Tribunal de la UE especificó que las empresas privadas que participan en actividades de seguridad nacional no están exentas, siguen estando sujetas a la legislación de la UE, que la excepción de seguridad nacional debe interpretarse de forma muy restrictiva y que el Estado miembro tiene que justificarla realmente», explica Vogiatzoglou.
Las presiones de Francia en las reuniones del Consejo de la UE van en línea con su apuesta pública por explotar las tecnologías de IA. En mayo de 2023, el Tribunal Constitucional del país validó el uso de videovigilancia con IA durante los Juegos Olímpicos de París, celebrados el año pasado. La medida fue la primera de este tipo en la UE y Amnistía Internacional la calificó de “grave amenaza para las libertades cívicas y los principios democráticos”. Ahora, estos métodos podrían extenderse a todo el bloque comunitario.
La ley de Inteligencia Artificial de la UE fue presentada por la Comisión Europea en abril de 2021 y, desde el principio, estuvo sometida a un fuerte debate interno. El resultado finalmente aprobado está repleto de excepciones.
El uso de sistemas de reconocimiento emocional –tecnologías que interpretan el estado de ánimo o los sentimientos de las personas– estará prohibido a partir del 2 de febrero en lugares de trabajo, escuelas y universidades. Las empresas tendrán por ejemplo prohibido rastrear a los clientes en las tiendas para analizar sus intenciones de compra, y los empleadores no podrán utilizar los sistemas para analizar si el personal está contento o es probable que busquen otro trabajo.
Pero gracias en parte a la presión ejercida por Francia y otros Estados miembros, esos sistemas de reconocimiento emocional están permitidos para todas las fuerzas policiales y las autoridades de inmigración y fronteras. Aún no está claro si los sistemas se permitirán también para los procesos de contratación, por ejemplo para que las empresas evalúen a los aspirantes a un puesto de trabajo.
Durante una reunión del Coreper celebrada el 29 de noviembre de 2023, el representante de Dinamarca afirmó que cualquier prohibición “debe ser proporcionada y sólo debe aplicarse si existe riesgo de discriminación”. Países Bajos, Portugal y Eslovaquia adoptaron una postura similar en esa reunión, y todos ellos se mostraron “generalmente críticos” con la ampliación de las prohibiciones del uso de productos de IA por parte de las fuerzas del orden.

Actas de las negociaciones secretas entre los Gobiernos de la UE dentro del Coreper.Georgia Choleva//Spoovio
También son polémicos los sistemas de identificación biométrica utilizados para determinar la raza, las opiniones políticas, las creencias religiosas, la orientación sexual e incluso si alguien forma parte de un sindicato. La ley los prohíbe, pero hay una excepción. La policía será libre de utilizar los sistemas y recopilar datos de imágenes de cualquier individuo o comprar datos a empresas privadas.
Francia volvió a ser una fuerza impulsora de esa medida. Un documento enviado el 24 de noviembre de 2023 por el Gobierno francés al Consejo de la UE indicaba que era “muy importante preservar la posibilidad de buscar a una persona... que exprese una creencia religiosa u opinión política, como el uso de una insignia o accesorio, cuando esa persona esté implicada en extremismo violento o presente un riesgo terrorista”.
Además, el software de reconocimiento facial puede utilizarse en tiempo real si es “estrictamente necesario” para el cumplimiento de la ley. Puede ser utilizado por la policía cuando investiga 16 delitos específicos, incluida una referencia general a los “delitos contra el medio ambiente”. Varios Estados querían que se añadieran decenas más a la lista. Las actas de la reunión del Coreper de finales de noviembre de 2023 revelan que Francia, junto con los representantes de Italia, Chipre, Estonia, Letonia, Bulgaria y Hungría, presionaron para que se ampliara el ámbito de aplicación.
Grecia, país a la cabeza de las llegadas de inmigrantes a Europa en los últimos años, fue otro de los partidarios. En la misma reunión, su embajador “exigió una exclusión explícita” de las prisiones y zonas fronterizas de cualquier prohibición, y presionó para que las autoridades tuvieran potestad para realizar análisis biométricos en tiempo real en espacios públicos de ciudadanos, refugiados y solicitantes de asilo.
Los sistemas biométricos podrían utilizarse ahora para vigilar millones de rostros y cotejarlos con las bases de datos nacionales para identificar a las personas. El uso de esta tecnología en espacios públicos “significa el fin del anonimato en esos lugares”, advirtió la Red Europea de Derechos Digitales en 2020.
La sociedad civil y las ONG llevan tiempo dando la voz de alarma sobre los perjuicios que podría acarrear la Ley de Inteligencia Artificial, que llega tras el escándalo del programa espía Pegasus y las revelaciones de que varios países de Europa han utilizado algoritmos discriminatorios en materia de ayudas sociales.
“En última instancia, vivimos en un clima en el que nuestros gobiernos presionan para conseguir cada vez más recursos, leyes y tecnologías que faciliten la vigilancia, el control y el castigo de la gente corriente”, denuncia Sarah Chander, de Equinox, quien considera que estamos “cada vez más lejos de un futuro en el que los recursos podrían destinarse a la provisión y protección social en lugar de a las tecnología de vigilancia”.

La Policía podrá utilizar programas de reconocimiento facial para investigar 16 delitos.Spoovio/Georgia Choleva.
Otra laguna legal se refiere a la denominada “policía predictiva”, es decir, la teórica capacidad de un algoritmo para predecir quién va a cometer un delito. España, que ocupaba la Presidencia del Consejo de la UE cuando las negociaciones se acercaban a su fin a finales de 2023, ya utiliza algoritmos policiales predictivos. Dos ejemplos son Viogen, donde se recogen las denuncias por violencia de genero, o VeriPol, para certificar la veracidad de las denuncias por robo. España y Países Bajos son los únicos Estados de la UE que admiten utilizar policía predictiva.“La policía predictiva es una herramienta importante para el trabajo eficaz de las fuerzas de seguridad”, defendió el representante español en una reunión del Coreper en octubre de 2023. En otro encuentro celebrado un mes después, Irlanda, la República Checa y Finlandia se hicieron eco de opiniones similares, abogando contra una prohibición total de los productos de policía predictiva. El texto final permite el uso de los sistemas, siempre que haya una supervisión humana de la tecnología.Cuando comenzó el diálogo final a tres bandas entre el Consejo, el Parlamento y la Comisión, el 6 de diciembre de 2023, la Presidencia española estaba ansiosa por cerrar el texto antes de las elecciones europeas de junio de 2024 y el previsible ascenso de los partidos de extrema derecha. Y antes de que la Hungría de Viktor Orbán asumiera la Presidencia seis meses después. Los negociadores estuvieron encerrados en una habitación durante un día y medio, recuerda un funcionario presente en las discusiones, que pidió el anonimato: “Estábamos agotados, y sólo después de una noche de negociaciones empezamos a hablar de las prohibiciones a las seis de la mañana. Al final conseguimos que cada producto fuera autorizado por una autoridad nacional independiente”.Y así, el uso de las llamadas tecnologías de “alto riesgo” estará sujeto a requisitos como una autorización judicial, el registro en una base de datos europea y una evaluación de impacto para el respeto de los derechos fundamentales. 
Defensores de los derechos digitales temen que el uso de tecnología basada en IA suponga el "fin del anonimato" en los espacios públicos.Shutterstock
Pero incluso esto viene con una salvedad. Se ha añadido un artículo que permite a las empresas rellenar una autocertificación y decidir si su producto es de “alto riesgo” o no, lo que podría liberarlas de ciertas obligaciones. Un documento de trabajo interno del servicio jurídico del Parlamento Europeo obtenido por Investigate Europe cuestionaba la decisión: “Se deja un alto nivel de subjetividad a las empresas, lo que parece contrastar con el objetivo general de la Ley de IA, que es abordar el riesgo de daño que plantean los sistemas de IA de alto riesgo”.
La preocupación por defender los intereses empresariales también fue expresada por varios Estados miembros, en particular Francia, sede de varias empresas punteras, entre ellas Mistral AI. En una reunión del Coreper celebrada el 15 de noviembre de 2023, la delegación francesa advirtió de que si no se permitía un uso más amplio de las tecnologías “se corría el riesgo de que las empresas deslocalizaran su actividad a regiones donde los derechos fundamentales no desempeñaran ningún papel”.
El Gobierno francés no respondió a las preguntas planteadas por los periodistas sobre su posición en la negociación del Reglamento, como tampoco lo hicieron los Ejecutivos de Grecia, Portugal o Italia.
Sólo el tiempo dirá cómo se aplica la Ley de Inteligencia Artificial. Anton Ekker, abogado holandés experto en derechos digitales, cree que las exenciones tendrán poco impacto en la práctica. «Soy muy crítico con el uso de algoritmos por parte de un Estado. Sin embargo, la narrativa de que como hay excepciones entonces las cosas están permitidas, no es correcta. Hay muchas leyes nacionales, constitucionales, que protegen los derechos fundamentales”, mantiene Ekker.
En cambio, la profesora Rosamunde van Brakel, que enseña cuestiones jurídicas, éticas y sociales de la IA en la Universidad Libre de Bruselas, sostiene que los mecanismos nacionales de rendición de cuentas pueden no aportar mucho consuelo a los afectados por las tecnologías: “En la mayoría de los casos, la regulación y la supervisión sólo se ponen en marcha después de que se haya producido la violación, no nos protegen antes”.
“Además, las aplicaciones de IA utilizadas en el sector público a menudo afectan a poblaciones vulnerables que no están facultadas para plantear una queja o confiar en que una queja será tomada en serio”, concluye Van Brakel.
–––––––––––––
Edición: Chris Matthews.
Esta investigación periodística, además de en infoLibre en España, se publica en los siguientes medios: Netzpolitik (Alemania), EU Observer (Bélgica), Disclose (Francia), Efsyn y Reporters United (Grecia), Il Fatto Quotidiano (Italia) y Publico (Portugal).
Recibe en tu correo historias de investigación de una Europa en movimiento.
Recibe en tu correo historias de investigación de una Europa en movimiento.