Innovazione

Intelligenza Artificiale, l’AI ACT è realtà: per l’Europa, meno rischi e più potenzialità

L'AI Act è la prima legge al mondo sull’intelligenza artificiale (IA): questo segna un passo significativo verso l'avvio dei colloqui con i governi dell'Unione Europea per definire il testo finale della legge. Le norme proposte nell'AI Act mirano a garantire che lo sviluppo e l'utilizzo dell'IA in Europa siano conformi ai diritti e ai valori dell'Eurozona.

Nelle scorse ore, con con 499 sì, 28 no e 93 astenuti, il Parlamento Europeo ha approvato l’AI ACT, la posizione negoziale sull’Intelligenza Artificiale (che a fine anno potrebbe già diventare legge), i suoi utilizzi, i limiti e e le potenzialità da sviluppare a livello comunitario.

Una premessa sull’AI Act

Come avevamo già anticipato, l’AI Act affonda le sue radici già nel 2021 con la “Proposta di regolamento recante norme armonizzate in materia di intelligenza artificiale” il cui scopo dichiarato era “migliorare il funzionamento del mercato interno stabilendo un quadro giuridico uniforme, in particolare per lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità dei valori dell’Unione“.

Nel contesto internazionale, l’AI Act è di fatto la prima legge sovranazionale al mondo sull’intelligenza artificiale (IA): questo segna un passo significativo verso l’avvio dei colloqui con i governi dell’Unione Europea per definire il testo finale della legge. Le norme proposte nell’AI Act mirano a garantire che lo sviluppo e l’utilizzo dell’Intelligenza Artificiale in Europa siano conformi ai diritti e ai valori dell’Eurozona, con particolare attenzione alla supervisione umana, alla sicurezza, alla privacy, alla trasparenza, alla non discriminazione e al benessere sociale e ambientale.

Cosa viene introdotto con l’AI ACT

Il quadro normativo dell’AI Act si basa su un approccio basato sul rischio e stabilisce obblighi specifici per i fornitori e gli operatori dei sistemi di IA in base al livello di rischio che l’IA può comportare. Infatti, la legge prevede il divieto di utilizzare sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come ad esempio i sistemi utilizzati per il punteggio sociale, che classificano le persone in base al loro comportamento sociale o alle loro caratteristiche personali.

Le regole, spiega il Parlamento Europeo, seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e coloro che implementano sistemi di Intelligenza Artificiale, graduati a seconda del livello di rischio che l’IA può generare. Inoltre, gli eurodeputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’intelligenza artificiale, come i sistemi di identificazione biometrica remota ‘in tempo reale’ e ‘post’ in spazi pubblicamente accessibili; sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico).

I legislatori europei hanno poi incluso nella categoria ad alto rischio anche i sistemi di IA che possono causare danni significativi alla salute, alla sicurezza, ai diritti fondamentali delle persone o all’ambiente. Tra questi, rientrano i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni, nonché i sistemi di raccomandazione utilizzati dalle piattaforme di social media con un vasto pubblico di oltre 45 milioni di utenti.

L’AI Act introduce anche obblighi specifici per i sistemi di IA a fini generali: i fornitori di modelli di base (come ad esempio Chat Gpt), che rappresentano una nuova e in rapida evoluzione area nel campo dell’IA, dovranno valutare e mitigare i possibili rischi per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo Stato di diritto.

Infatti, la proposta è che prima di essere messi sul mercato europeo, tali modelli dovranno essere registrati in un’apposita banca dati dell’UE, con la finalità di verificare che questi rispettino i requisiti di trasparenza, dichiarando chiaramente che il contenuto è stato generato dall’IA. Ciò aiuterà anche a distinguere le immagini deep-fake da quelle reali e garantirà misure di salvaguardia per prevenire la generazione di contenuti illegali.

Inoltre, la legge prevede la pubblicazione di sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento di tali sistemi: in altre parole, il Parlamento Europeo con l‘IA‘AI Act ha previsto i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.

Gli eurodeputati vogliono anche vietare i sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato); i sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; la raccolta non mirata di immagini facciali da Internet o filmati Cctv (a circuito chiuso) per creare database di riconoscimento facciale, violando i diritti umani e il diritto alla privacy).

Il testo completo è disponibile sul sito del Parlamento Europeo qui.


Federica Colucci

Napoletana, classe 1990, Federica Colucci è giornalista, HR e communication specialist. Già responsabile della comunicazione dell'Assessorato al Lavoro e alle Politiche Sociali del Comune di Napoli, ha come expertise i temi del lavoro, del welfare e del terzo settore. È l'anima e la coordinatrice di F-Mag.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button