Top menu

AI act: le regole inficiate dalle eccezioni

Il Parlamento europeo regolamenta, primo al mondo, l’uso dell’Intelligenza Artificiale per rispettare i diritti umani. Ma è davvero così? Le eccezioni previste minano l’intera impalcatura, come dice anche Amnesty. E danno mano libera ai governi e alle industrie.

Lo scorso 13 marzo è stata approvata dal Parlamento europeo la versione finale dell’European Artificial Intelligence Act (EU AI Act), primo testo normativo al mondo a regolamentare i sistemi di IA e il loro utilizzo al fine di garantire il rispetto dei diritti umani e civili delle persone. Grande ambizione, quella dichiarata, e  almeno ad una lettura superficiale, potrebbe anche apparire che l’obiettivo sia stato raggiunto.

Ma è proprio così?

Il diavolo si nasconde nei dettagli, è il detto, ma in questo caso i dettagli sono talmente macroscopici che sembrerebbe difficile evitare di vederli e invece l’aura abbagliante che circonda la meraviglia fantascientifica dell’Intelligenza Artificiale lascia invisibili i vulnus alla maggiore parte dei media.

Sbilanciamoci ha già pubblicato una valutazione sull’impianto generale dell’AI Act subito dopo il termine della negoziazione tra Commissione, Parlamento e Consiglio d’Europa. Tale valutazione, purtroppo, trova piena conferma nel testo approvato dal Parlamento e rimandiamo al testo pubblicato per una visione d’insieme. 

Qui, a valle dell’approvazione formale del Parlamento Europeo, più che dell’enfasi declaratoria, senz’altro positiva nella pura enunciazione dei princìpi, ci limitiamo ad occuparci di queste grandi eccezioni e esclusioni, che rendono le norme aggirabili. Eccezioni ed esclusioni pesanti perché, al di là dell’enfasi sui princìpi enunciati, il taglio della legge viene dato proprio da ciò che consente, nonché dalle eccezioni alle regole generali. 

L’AI Act suddivide i sistemi di IA in quattro sottoclassi sulla base del livello di rischio che comporta il loro utilizzo, si passa così da un rischio minimo, a uno limitato, quindi ad alto e infine a quello inaccettabile. Sono considerati “inaccettabili” i sistemi che riguardano il social scoring ( o punteggio sociale), la manipolazione delle persone, il riconoscimento biometrico, la valutazione delle emozioni, la previsione dei comportamenti o la raccolta a strascico delle immagini delle persone. Fin qui è il principio regolatorio-base. Con l’immediata eccezione di una ampia esenzione nei casi considerati di sicurezza nazionale, consentendo in tal modo ai governi di non vincolarsi agli obblighi dichiarati, previsti dalla legge, comprese azioni deleterie e di dubbia efficacia, quali ad esempio quelle di polizia predittiva. 

La scappatoia per i governi si affianca al regalo all’industria della IA. Non sono considerati ad “alto rischio quei sistemi che, pur essendolo formalmente siano destinati a eseguire un compito procedurale limitato, servano a migliorare il risultato di un’attività umana precedentemente completata1; possano essere utilizzati per rilevare schemi decisionali o deviazioni da schemi decisionali precedenti, sempre che il compito affidato alla macchina non sia inteso a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana. Inoltre il programma di AI potrà eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso già elencati 2.

Limitando la riflessione a commento di quanto sopra, non si riesce proprio ad immaginare come si possa utilizzare un sistema di IA ad “alto rischio” che non è inteso a sostituire o influenzare la valutazione umana.

Dunque per la identificazione dei sistemi ad “alto rischio” la normativa, nel paragrafo 2 dell’articolo 6, rimanda allo specifico allegato III della stessa. Confermando il forte indirizzamento della norma quale linea guida verso le eccezioni, queste immediatamente si definiscono nel successivo paragrafo 3 del medesimo articolo. Testualmente si legge: un sistema di IA non è considerato ad “alto rischio” se sono soddisfatte una o più delle seguenti condizioni:

a) il sistema di IA è destinato a eseguire un compito procedurale limitato;

b) il sistema di IA è destinato a migliorare il risultato di un’attività umana precedentemente completata;

c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è inteso a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana; o

d) il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III.

Ciò che si capisce è che l’industria potrà in ogni caso produrre ed esportare sistemi nominalmente vietati in Europa.

Sempre in relazione ai sistemi proibiti, la giusta esclusione dei sistemi di valutazione delle emozioni dei luoghi di studio e di lavoro definisce di per sé la possibilità di utilizzo di tali sistemi fuori da tali luoghi, cosa che si affianca alla sempre possibile eccezione anche per i luoghi di studio e di lavoro, qualora l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza. E quindi all’abilitazione della polizia predittiva. 

Continuando, nell’ambito della categorizzazione delle persone su base biometrica, in cui l’utilizzo della IA è declaratoriamente proibito, l’eccezione è l’utilizzo in definiti casi specifici, tra cui il caso di una minaccia reale e attuale o reale e prevedibile di attacchi terroristici o per sospetti di specifici reati punibili con pene a partire da quattro anni in su. Insomma, i sistemi  proibiti sono tali, ma le eccezioni forniscono ampia esenzione per i governi nei casi considerati critici per l’azione di polizia o la sicurezza nazionale, esentandoli dagli obblighi enunciati.

Terzo elemento, grave quanto il resto, se non di più: il testo adotta per le persone migranti e più marginalizzate uno standard differenziato e in ultima analisi razzista. L’EU AI Act crea esplicitamente un regime separato per le persone migranti, lasciando loro molti meno diritti formali rispetto ai cittadini dell’UE. Le forze dell’ordine e le autorità di vigilanza sono infatti esonerate dai requisiti di trasparenza pubblica nell’utilizzo di sistemi di Intelligenza Artificiale “ad alto rischio”, cosa che si tradurrà facilmente anche nell’utilizzo massivo di sistemi formalmente proibiti per il controllo delle persone migranti e non solo, ogni qualvolta ricorreranno motivi di sicurezza e ordine pubblico.

Concludendo, vale la pena riportare la dichiarazione di Mher Hakobyan, consulente sull’Intelligenza Artificiale per Amnesty International: ”Mentre i politici dell’UE acclamano l’AI Act come un modello globale per la regolamentazione dell’IA, la legislazione non riesce a tenere conto dei principi fondamentali dei diritti umani. () E’ deludente che l’UE e i suoi 27 Stati membri abbiano scelto di dare priorità all’interesse dell’industria e delle forze dell’ordine rispetto alla protezione delle persone e dei loro diritti umani”. 

NOTE:

1 come definiti nell’allegato III dell’EU AI Act

2 Eccezioni riportate nell’articolo 6, paragrafo 3.