AI ACT: Parte il controllo di massa nei luoghi pubblici

Spoovio/Georgia Choleva

Maria Maggiore
Maria Maggiore
Leïla Miñano
Leïla Miñano
Harald Schumann
Harald Schumann
22 gennaio 2025
Documenti interni del Consiglio Ue, ottenuti da Investigate Europe, rivelano come Parigi, sostenuta da altri paesi, tra cui l’Italia, abbia ottenuto un via libera generale all’uso dell’intelligenza artificiale negli spazi pubblici. Riconoscimento facciale in tempo reale, interpretazione delle emozioni, categorizzazione del pensiero religioso, sessuale, politico, potrebbero tra poco diventare la quotidianità nelle nostre società.
Immagina di partecipare a una manifestazione per il clima, di indossare un distintivo o di portare un cartello. Una telecamera “intelligente” rileva questi segni e trasmette le immagini del volto per confrontarle con il file delle persone ricercate anche per reati ambientali. I tuoi dati vengono conservati. O immagina un naufrago appena sbarcato a Lampedusa, interrogato con l’aiuto di una telecamera per il rilevamento delle emozioni, che a un certo punto comincia a registrare segni di nervosismo, paura, indecisione. La macchina conclude che l’immigrato sta mentendo sulle sue origini. La sua domanda d'asilo è rifiutata. Queste scene potrebbero diventare realtà nelle prossime settimane.

Il 2 febbraio entreranno in vigore gli articoli più controversi - noti come “rischi inaccettabili” - del regolamento europeo sull’intelligenza artificiale. Presentato come una novità mondiale, l'AI Act avrebbe dovuto proteggere i diritti e le libertà dei cittadini dell'UE di fronte agli abusi dell'intelligenza artificiale. Ma due anni di negoziati segreti tra gli Stati europei hanno cancellato le ambizioni. “Lontano dalle promesse iniziali, questo testo è fatto su misura per l'industria tecnologica e le forze di polizia europee”, riassume Félix Treguer de La Quadrature du Net, un'ONG specializzata sul tema. 

Investigate Europe ha analizzato più di 100 documenti provenienti da riunioni a porte chiuse degli ambasciatori dei 27 Stati membri dell'UE (Coreper) e ha parlato con diverse fonti diplomatiche presenti ai negoziati. Tutte hanno confermato come la Francia abbia spinto e ottenuto un generale annacquamento delle regole per le forze di polizia. L’Italia ha sempre appoggiato Parigi in queste richieste, in buona compagnia con una maggioranza di paesi.

Lontano dalle promesse iniziali, questo testo è fatto su misura per l'industria tecnologica e le forze di polizia europee

Félix Treguer, La Quadrature du Net

L'ossessione francese per la sicurezza nazionale

Già nel settembre 2022, pochi mesi dopo la presentazione della proposta legislativa da parte della Commissione, il vice Ambasciatore francese presso l’Ue, Cyril Piquemal, ha voluto incontrare uno dei relatori del regolamento, Brando Benifei (PD). «Era nervoso, c’era tensione – racconta una fonte dell’europarlamento, presente alla riunione. “Il tono è diventato pesante, il rappresentante francese si è impuntato sulla necessità di mettere telecamere dappertutto ».

La Francia stava organizzando i Giochi Olimpici : intelligenza artificiale, riconoscimento facciale, sistemi di riconoscimento biometrico ed emotivo, erano visti come essenziali dalle autorità francesi per mantenere l’ordine pubblico. Ma quello era solo l’inizio.

In una riunione degli ambasciatori del 18 novembre 2022, il rappresentante francese, secondo i documenti ottenuti da IE, è stato inequivocabile sui diktat di Parigi : “L'esclusione della sicurezza e della difesa... deve essere mantenuta a tutti i costi”. La Francia voleva un'esenzione dell’intero AI ACT per la “sicurezza nazionale”. Poi a fine negoziato, nell’autunno 2023 è stata raggiunta anche da Italia, Ungheria, Romania, Svezia, Repubblica Ceca, Lituania, Finlandia e Bulgaria.

“Questa battaglia è stata una delle più difficili e l'abbiamo persa”, riflette una fonte del Parlamento europeo coinvolta nei negoziati, che ha chiesto di rimanere anonima. Nel testo finale non ci sono più restrizioni all'uso della sorveglianza negli spazi pubblici - come la necessità di un'approvazione da parte di un'agenzia nazionale indipendente o l’iscrizione del prodotto in un registro pubblico - se uno Stato lo ritiene necessario per motivi di sicurezza nazionale.

Le manifestazioni potrebbero ora essere liberamente controllate con la sorveglianza alimentata dall'intelligenza artificiale in nome della sicurezza nazionale.Shutterstock

Peggio: queste esenzioni riguarderanno anche le aziende private - o eventualmente i paesi terzi - che forniscono la tecnologia AI alla polizia e alle forze dell'ordine. Il testo stabilisce che la sorveglianza è consentita “indipendentemente dall'entità che svolge tali attività”. 
“Questo articolo [2.3] va contro ogni Costituzione, contro i diritti fondamentali, contro il diritto europeo”, ha dichiarato un giurista del gruppo conservatore PPE al Parlamento europeo, parlando in forma anonima. “La Francia potrebbe ad esempio chiedere al governo cinese di usare i suoi satelliti per fare delle foto e poi vendere i dati al governo francese”.

L'esenzione va anche contro due sentenze della Corte di giustizia europea del 2020 e del 2022, afferma Plixavra Vogiatzoglou, ricercatore all'Università di Amsterdam. Le sentenze hanno stabilito che le società di telecomunicazioni francesi hanno violato il diritto dell'UE conservando i dati dei clienti per motivi di sicurezza nazionale. “Il tribunale dell'UE ha affermato che le società private coinvolte in attività di sicurezza nazionale non sono esentate dal rispetto del diritto UE, e l'eccezione per la sicurezza nazionale deve essere interpretata in modo molto restrittivo, lo Stato membro deve davvero giustificarla”.

Sedici deroghe per la polizia
Ma la Francia ha continuato a inondare il testo della nuova legge europea della sua ossessione securitaria. La nostra fonte parlamentare che ha seguito i negoziati ha contato 16 deroghe per la polizia introdotte dal Consiglio Ue. 

A partire dal 2 febbraio 2025, i software di riconoscimento facciale potranno essere utilizzati dalla polizia che indaga su 16 reati specifici.Spoovio/Georgia Choleva

Sedici sono anche i reati per i quali si possono accendere le telecamere in tempo reale e collegarle tra loro e con dei database di sospetti criminali. E’ il risultato di un acceso dibattito tra i governi, con molti ambasciatori, compreso il nostro, che spingevano per aumentare ancora di più la lista dei casi in cui il riconoscimento facciale di un individuo fosse permesso.

L'Italia allineata con la Francia

La posizione dell’Italia, come si legge dai verbali del Coreper, è sempre stata a favore dell’allargamento dell’uso del riconoscimento facciale in tempo reale. Nonostante una sentenza del Garante Italiano della Privacy, nel 2021, abbia stabilito che il programma sul riconoscimento facciale, Sari Real Time,  in uso all'epoca per i dipendenti per il rilevamento delle presenze, non rispettava la normativa sulla privacy.

Riconoscimento emotivo per i richiedenti asilo

Ma le concessioni a un controllo di massa non finiscono qui. L'uso di sistemi di riconoscimento emotivo - tecnologie che interpretano le emozioni o i sentimenti delle persone - sarà vietato dall’AI ACT nei luoghi di lavoro, nelle scuole e nelle università. Ma i sistemi di riconoscimento tramite le emozioni saranno consentiti alle forze di polizia e alle autorità di immigrazione e di frontiera dell'UE.

Non è ancora chiaro se anche per il reclutamento del personale nei luoghi di lavori, una deroga all’uso dei sistemi di tracciamento delle emozioni, sarà ammessa.

“Quello che è insidioso nell'uso dell'IA da parte della polizia e del controllo dell'immigrazione è che la maggior parte delle volte le persone non sanno di essere state monitorate da questi sistemi”, dice Sarah Chander, della Ong Equinox. 

Quando il 6 dicembre 2023 inizia il trilogo finale per l’AI ACT tra Consiglio, Parlamento e Commissione, la presidenza spagnola preme per chiudere al più presto il negoziato prima delle elezioni europee di giugno con il temuto successo dei partiti di estrema destra e soprattutto prima che l'Ungheria di Viktor Orbán assuma la presidenza dell’Unione, a luglio 2024. I negoziatori vengono chiusi in una stanza per un giorno e mezzo, ricorda una fonte presente alle discussioni.

Un'autorità indipendente, ma con poteri limitati per la polizia

“Dopo una notte di negoziati eravamo tutti esausti, solo alle 6 del mattino, la presidenza spagnola ha aperto il capitolo divieti”. “Alla fine abbiamo almeno ottenuto che ogni prodotto fosse autorizzato da un'autorità nazionale indipendente”. «Una vittoria personale - dice Brando Benifei (PD), uno dei negoziatori dell’Europarlamento – ottenuta in extremis, nelle ultime ore». Pero’ limitata perchè le forze di polizia potranno adoperare sistemi ad « alto rischio » senza un’autorizzazione preventiva. 

L'uso di queste tecnologie sarà soggetto a determinati requisiti, come l'autorizzazione di un’agenzia indipendente - che deve essere ancora creata da ogni Stato e non potrà sottostare alla presidenza del Consiglio, come è il caso di Agid in Italia - la registrazione in una banca dati europea e una valutazione d'impatto sul rispetto dei diritti fondamentali.
Una selezione di documenti interni di riunione ottenuti dal Consiglio europeo.Georgia Choleva//Spoovio

Pero’ anche questo passaggio è accompagnato da un'eccezione: È stato aggiunto un articolo che consente alle aziende di compilare un'autocertificazione per decidere se il proprio prodotto sia o meno “ad alto rischio”, liberandole così dagli obblighi di trasparenza. Un documento di lavoro interno del servizio giuridico del Parlamento europeo, ottenuto da Investigate Europe, mette in discussione questo articolo. “C’è un elevato livello di soggettività lasciato alle aziende, che sembra in contrasto con l'obiettivo generale della legge sull'IA, ovvero affrontare il rischio di danni posti dai sistemi di IA ad alto rischio”.

Infine un'altra scappatoia riguarda la polizia predittiva, ovvero la capacità di un algoritmo di prevedere chi commetterà un crimine in futuro. In una riunione del Coreper nell'ottobre 2023 l'ambasciatore spagnolo dichiara: “La polizia predittiva è... uno strumento importante per il lavoro efficace delle autorità di polizia”.

La polizia predittiva è... uno strumento importante per il lavoro efficace delle autorità di polizia

Ambasciatore spagnolo, riunione Coreper dell'ottobre 2023

Poi un mese dopo, Irlanda, Repubblica Ceca e Finlandia rilanciano il tema dichiarandosi contrari a un divieto della polizia predittiva. L’Italia – si legge nei documenti del Consiglio – è favorevole all’uso degli algoritmi per la polizia predittiva. Il testo finale consente l'uso di questi sistemi, a condizione che vi sia un intervento umano durante le fasi della valutazione dell’algoritmo. Cosa che avviene quasi sempre.

L'Ai Act non potrà cancellare le leggi costituzionali, ma queste arriveranno dopo i controlli

“Stiamo vivendo in un clima in cui i nostri governi stanno spingendo per ottenere sempre più risorse, leggi e tecnologie per facilitare la sorveglianza, il controllo e la punizione delle persone comuni invece di investire in riforme per la protezione sociale”, afferma Sarah Chander di Equinox.

Anton Ekker, avvocato olandese per i diritti digitali, ritiene che le esenzioni avranno un impatto limitato nella pratica. “Sono molto critico sull'uso degli algoritmi da parte dello Stato. Tuttavia, la narrativa che dice che siccome ci sono delle eccezioni allora le cose sono permesse, non è corretta”, afferma. “Ci sono molte leggi nazionali, costituzionali, che proteggono i diritti fondamentali”.
Gli attivisti per i diritti digitali sostengono che l'uso della tecnologia AI significherebbe la “fine dell'anonimato” negli spazi pubblici.Shutterstock

Nella maggior parte dei casi, la regolamentazione e la supervisione intervengono solo dopo che la violazione ha avuto luogo, non ci proteggono prima”

Prof. Rosamunde van Brakel, Libera Università di Bruxelles (VUB)

La prof. Rosamunde van Brakel, della Vrije Universiteit di Bruxelles, non è d’accordo. I danni dell’Ai Act saranno notevoli: “Nella maggior parte dei casi la regolamentazione e la supervisione intervengono solo dopo che la violazione ha avuto luogo, non ci proteggono prima”. “Inoltre, le applicazioni di IA utilizzate nel settore pubblico spesso colpiscono popolazioni vulnerabili che non hanno la possibilità di presentare un ricorso o di confidare che la loro azione legale venga presa sul serio”.

HELP US CONNECT THE DOTS ON EUROPE

Support cross-border journalism

Storie cross-border da un'Europa che cambia, direttamente nella tua mail.