Innovazione

AI Act, l’Europa è in dirittura d’arrivo sulla prima legge sull’intelligenza artificiale

Con l'intervento dell'Europarlamento e il parere delle associazioni di consumatori si procede spediti a livello comunitario verso la prima legge atta a regolamentare i sistemi di intelligenza artificiale. Non senza preoccupazioni e rischi.

AI Act, ci siamo quasi. Se va dato all’Europa dei 27 un riconoscimento, è quello di essere apripista sulla legislazione in temi di scottante attualità, ben più dei distratti Paesi del BRIC (fatta eccezione per il Brasile dove se ne parla già dal 2021) e dei cugini statunitensi.

AI Act, di cosa si tratta

Il dibattito in corso sulla IA (intelligenza artificiale) è un esempio chiaro: la proposta di un AI Act affonda radici già nel 2021 con la “Proposta di regolamento recante norme armonizzate in materia di intelligenza artificiale” il cui scopo dichiarato era “migliorare il funzionamento del mercato interno stabilendo un quadro giuridico uniforme, in particolare per lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità dei valori dell’Unione“.

Dopo due anni siamo in dirittura d’arrivo. L’AI Act, proprio nel momento in cui il dibattito sulle intelligenze artificiali generative come ChatGPT e Midjourney esplode un giorno sì e l’altro pure, sarebbe la prima legge al mondo sull’intelligenza artificiale (IA). E che si spinga per tenere fede al cronoprogramma lo dimostrano alcuni aggiornamenti delle ultime ore.

Come ad esempio quella sul testo della posizione negoziale sull’AI Act adottato dalle commissioni Libertà civili (Libe) e Mercato interno e protezione dei consumatori (Imco) del Parlamento Europeo che, stando a quanto dichiara la BEUC (organizzazione internazionale che riunisce 45 associazioni di tutela dei consumatori di 32 Paesi) “migliorerebbe nettamente” la proposta della Commissione Europea, dato che “affronta questioni cruciali, che gli Stati membri hanno ignorato nella loro posizione adottata nel dicembre dello scorso anno”.

La categorizzazione delle AI secondo l’AI Act

La questione etica legata ai sistemi di intelligenza artificiale è stata ben chiara dal primo momento al legislatore europeo e agli osservatori privilegiati. L’AI Act si basa in primis su una categorizzazione di tali IA distinguendole tra:

  • sistemi a rischio inaccettabile – tra questi l’esempio più utilizzato è quello del punteggio sociale adottato dal Governo cinese per classificare i cittadini;
  • sistemi ad alto rischio;
  • tutti gli atri sistemi (a rischio minimo o nullo).

L’idea di base è quindi vietare i primi, applicare normi stringenti sui secondi, non applicare particolari regolamentazioni sui terzi.

La tutela dei consumatori

Ursula Pachl, vicedirettore generale della BEUC (che include anche le italiane Altroconsumo e Cie), afferma: “Con l’esplosione di ChatGPT e un flusso quotidiano di notizie sugli ultimi sistemi di Ia, è chiaro che siamo solo all’inizio dell’era dell’Intelligenza artificiale. Sebbene l’IA possa migliorare le nostre vite in molti modi, vi sono fondate preoccupazioni che questi sistemi possano anche danneggiare i consumatori. Le persone devono essere adeguatamente protette dai rischi di queste nuove tecnologie”.

Il Parlamento Europeo sembra però determinato a migliorare la protezione dei consumatori e a rispettare i diritti fondamentali degli utenti dei sistemi di IA. Cogliendo il plauso di BEUC, a differenza di Commissione (e anche della posizione degli Stati membri) definita deludente.

Le due principali correzioni applaudite dalla BEUC e suggerite dall’Europarlamento riguardano il punteggio sociale (sistemi volti a valutare l’affidabilità di un individuo in base al suo comportamento sociale o alle sue preferenze, emozioni, salute o intelligenza, totalmente banditi nelle intenzioni degli europarlamentari) e l’utilizzo di dati biometrici (es. riconoscimento facciale) dei privati in ambito pubblico. In queste materie le IA saranno quindi classificate come a rischio inaccettabile e quindi bandite.

“Ad esempio – spiega Pachl – i divieti sull’uso del riconoscimento facciale in spazi accessibili al pubblico o il punteggio sociale da parte di soggetti privati ​​sono grandi passi avanti. È più che positivo che gli eurodeputati vogliano garantire ai consumatori specifici diritti individuali, come il diritto di essere informato quando un consumatore è soggetto a una decisione da parte di un sistema di Ia ad alto rischio, ad esempio quando richiede un prestito o una polizza assicurativa, il diritto di presentare un reclamo o il diritto di aderire a un’azione di ricorso collettivo”.

“Nel caso di ChatGpt – prosegue Pachl – salutiamo con favore la determinazione del Parlamento a regolamentare i modelli linguistici di grandi dimensioni. Ma resta da vedere se sarà sufficiente, per proteggere adeguatamente i consumatori. Siamo tuttavia molto preoccupati che gli operatori di intelligenza artificiale possano aggirare le regole dell’AI Act, semplicemente dicendo che i loro servizi non sono ad alto rischio. Inoltre, i principi di base proposti per ‘un’AI affidabile’, che si applicherebbero a tutte le AI, sono solo volontari per le imprese o gli enti pubblici, mentre dovrebbero essere obbligatori“.

Ai consumatori sono concessi diversi altri diritti, tra cui quello di essere informati quando sono soggetti ad una decisione da parte di un sistema di Ia ad alto rischio, il diritto di sporgere denuncia in merito a un sistema di Ia, il diritto di citare in giudizio un’autorità di controllo in caso di inerzia.

Le criticità dell’AI Act

Gli eurodeputati vogliono anche sottoporre l’intelligenza artificiale generativa, come ChatGPT, a regole specifiche come obbligare gli sviluppatori a identificare, ridurre e mitigare i rischi per la salute, la sicurezza e i diritti fondamentali, prima di immettere il sistema di intelligenza artificiale sul mercato.

Le criticità però non mancano, denunciano i consumatori: valutazioni terze e confini labili rischiano di inificiare il lavoro svolto. Cambridge in passato sull’AI Act ha manifestato perplessità sulla rigidità della classificazione dei sistemi invitando l’Unione a una maggiore flessibilità.

Più in generale, restano ancora in secondo piano temi correlati ma altrettanto importanti e sentiti quali ad es. il diritto d’autore e i rischi delle IA generative (come ad es. il deepfake).

Le prossime tappe sull’AI ACT

Se ne parlerà a giugno, comunque. Il prossimo mese il Parlamento Europeo voterà in plenaria la sua posizione negoziale, concordata per ora a livello di commissioni. Dopo giugno partiranno i negoziati tra il Parlamento e gli Stati membri riuniti nel Consiglio, per determinare il testo finale.

Se tutto va bene, l’accordo politico sull’AI Act arriverà entro la fine del 2023. Poi l’AI Act diverrà legge e infine dovrà essere recepita nei consueti tempi dagli Stati membri, con l’obiettivo di tutelare i cittadini dai rischi che esistono eccome.

Enrico Parolisi

Giornalista, addetto stampa ed esperto di comunicazione digitale, si occupa di strategie integrate di comunicazione. Insegna giornalismo e nuovi media alla Scuola di Giornalismo dell'Università Suor Orsola Benincasa. Aspirante re dei pirati nel tempo libero.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button