Intelligenza Artificiale, l’Europa deve essere leader democratica in materia
Il Parlamento europeo ha adottato le raccomandazioni finali della commissione speciale sull'intelligenza artificiale in un'era digitale. L'obiettivo è recuperare la distanza con gli altri player globali ma tenendo bene a mente i rischi e le tutele necessarie.
Da un lato, l’ammissione: l’Unione Europea è “rimasta finora indietro nella corsa globale per la leadership tecnologica”. Dall’altro, la necessità di “esplorare l’enorme potenziale della tecnologia a sostegno degli esseri umani” che l’Intelligenza Artificiale (IA o AI) può aprire. Questo in estrema sintesi il contenuto del testo contenente le raccomandazioni finali della commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) adottato ieri dal Parlamento europeo sull’argomento, con 495 voti favorevoli, 34 contrari e 102 astensioni.
Il rischio, messo nero su bianco a Bruxelles, è che a ergersi a ruolo guida nella crescita e sviluppo dell’Intelligenza Artificiale debba essere l’Unione Europea, altrimenti c’è il rischio che le norme del futuro dell’IA verranno scritte “altrove e da attori non democratici”.
“La nostra futura competitività globale nel settore digitale – afferma Dragoş Tudorache, presidente della commissione speciale AIDA – dipende dalle norme che mettiamo in atto oggi. Queste norme devono essere in linea con i nostri valori: democrazia, Stato di diritto, diritti fondamentali e rispetto dell’ordine internazionale basato sul diritto”.
“Riuscire in questo – continua Tudorache – è fondamentale, dato che la lotta tra autoritarismo e democrazia sta diventando sempre più acuta, e purtroppo più mortale, come abbiamo visto con l’ingiustificata invasione russa dell’Ucraina”.
Il cronoprogramma per l’IA europea
La commissione speciale AIDA ha ufficialmente iniziato i lavori che hanno portato, dopo audizioni e dibattiti, al testo approvato in queste ore a settembre 2020. AIDA aveva il compito di “valutare l’impatto dell’Intelligenza Artificiale sull’economia dell’Unione Europea e i suoi diversi settori” e “analizzare in che modo i Paesi non-UE stanno affrontando il tema e definire la strada da seguire”. Nella redazione finale viene definita la tabella di marcia IA fino al 2030.
La risoluzione approvata contribuirà ai prossimi lavori dell’Europarlamento in materia. Attualmente, la futura normativa sull’Intelligenza Artificiale comunitaria è al vaglio di due commissioni che la voteranno a settembre: Mercato interno e protezione dei consumatori (IMCO); Libertà civili, giustizia e affari interni (LIBE).
Il timore per un utilizzo improprio della IA
Ma per quale motivo l’Europa ribadisce con estrema forza e veemenza la necessità di essere leader e di condurre a una normativa su scala mondiale sull’argomento Intelligenza Artificiale? Lo spauracchio viene chiaramente da fuori i confini comunitari: le “tecnologie di IA pongono questioni etiche e giuridiche cruciali ed esprimono preoccupazione per la ricerca militare e gli sviluppi tecnologici per la creazione di sistemi d’arma letali autonomi”, si legge in una nota dell’Europarlamento.
“Cooperare con partner che condividono gli stessi principi” è la strada che vuole intraprendere l’Unione per ridurre al minimo i rischi globali che derivano dall’uso pericoloso che può essere fatto con l’Intelligenza Artificiale.
A Bruxelles sanno bene che alcune tecnologie di Intelligenza Artificiale consentono “un’automatizzazione dell’elaborazione delle informazioni senza precedenti, che apre la strada alla sorveglianza di massa e a interferenze illecite nei diritti fondamentali”.
Gli eurodeputati denunciano l’utilizzo dell’IA da parte dei regimi autoritari per “esercitare una sorveglianza di massa e classificare i propri cittadini o limitare la libertà di circolazione”, mentre “le piattaforme tecnologiche dominanti utilizzano le tecnologie di IA per ottenere più informazioni personali”. Una profilazione che secondo l’Europarlamento crea reali rischi ai sistemi democratici.