L’Intelligenza Artificiale non è così equa come sembra. E questa è solo la punta dell’iceberg di un settore, quello della tecnologia più in generale, poco inclusivo e che spesso rischia di perpetuare vecchi stereotipi. Una ricerca di Eige, European institute for gender equality, attesta che in Europa e nel Regno Unito solo il 16% delle persone che lavorano nel campo dell’IA sono donne e, a mano a mano che si va avanti con la carriera, il gender gap è ancora più evidente: solo il 12% ha più di 10 anni di esperienza.
L’intelligenza artificiale e il gender gap
E tutto questo si riflette sugli algoritmi di cui si nutre l’intelligenza artificiale:
“Si è soliti pensare alla tecnologia come a uno strumento neutro, al riparo da stereotipi perché lontano dalla coscienza e dagli impulsi umani dei pensieri prettamente soggettivi. In realtà la discriminazione e i pregiudizi di genere (ma non solo) sono troppo spesso insiti in queste nuove tecnologie – afferma Giulia Nocchi, Marketing e Communication Specialist di Giuneco – Per esempio, se un data-set utilizzato per addestrare un software per la gestione del processo di recruiting in azienda (ATS, Applicant Tracking System) è caratterizzato da una maggioranza di curriculum in cui le parole utilizzate dai candidati per descriversi sono al maschile, è evidente che il sistema non riconoscerà i cv in cui queste stesse parole compaiono al femminile. Anche se adeguate e in linea con la job description questo sistema pone le candidate in fondo alla classifica di selezione o addirittura le respinge.”
Secondo Giuneco, software house che trasforma progetti in soluzioni tecnologiche, per migliorare il rapporto fra genere e non basta limitarsi a promuovere adeguate politiche per avvicinare le ragazze alle discipline Stem (Science, technology, engineering and mathematics); è importante agire anche alla base, correggendo bias e pregiudizi insiti nel settore IT per renderlo un luogo più inclusivo.
L’intelligenza artificiale è quindi poco inclusiva?
I modelli di intelligenza artificiale sono costruiti in modo da imparare dalle informazioni che vengono fornite dagli ingegneri che li programmano, ovvero i dati. Se questi dati utilizzati per “addestrare” la macchina sono stati settati con informazioni non ragionate e quindi non del tutto rappresentative possono produrre esiti discriminatori. Modificare tali approcci richiede un maggior equilibrio di genere e una maggiore eterogeneità, in generale, in chi ha la responsabilità di programmare l’IA.
Il problema è che ancora poca attenzione viene rivolta a come i dati sono raccolti e organizzati nei data-set utilizzati per l’addestramento degli algoritmi, per questo motivo l’intelligenza artificiale non appare affatto neutrale come ci si può aspettare, anzi rispecchia il contesto della società attuale che fatica a celebrare una parità di genere senza discriminazioni, più composita e rappresentativa della realtà.
“Di che cosa ci parlano questi fenomeni? Niente di nuovo, purtroppo, ma mettono ancora una volta in risalto quanto immenso lavoro ci sia da fare per raggiungere una vera parità di diritto per abbattere quei pregiudizi che sono talmente insiti ed interiorizzati nella nostra società da sorprenderci per quanto siano potenti e deleteri – continua Giulia Nocchi – L’utilizzo non consapevole dell’Intelligenza Artificiale può mettere in evidenza le iniquità che ci circondano. Non sono gli algoritmi a discriminare, ma siamo noi a nutrirli con set di dati che, riflettendo la situazione esistente in molteplici realtà, rappresentano un mondo in cui la discriminazione è ancora diffusa.”
Per uscire da questi circoli viziosi in cui possono incorrere gli strumenti di machine learning, AI e tecnologie avanzate, cosa è possibile fare?
La comunità scientifica si sta concentrando sull’interpretabilità dei risultati, ovvero sul capire come mai il modello restituisca un certo output. Al momento, questi non sono altro che delle “black box” a cui viene fornito un input e restituito un output, senza sapere esattamente quali siano tutti i passaggi interni che hanno portato proprio a quel determinato risultato, anche se è corretto. Risolvere questa sfida potrebbe portare a nuovi metodi che cambieranno il modo in cui viene sviluppata l’AI e quindi anche a soluzioni scientifiche per tutti i modelli che presentano “comportamenti” discriminatori.
“Nel frattempo, ciò che possiamo fare in prima persona è formare professioniste e professionisti sull’etica del processo, in questo modo sarà più immediato comprendere i limiti dei dati e “maneggiarli” con cura e consapevolezza – continua Federico Teotini, Software Engineer di Giuneco – Introdurre procedure che regolamentino i processi di verifica, validazione e certificazione, può essere il secondo step per dare una maggior garanzia di correttezza.”
L’impegno di Giuneco per le donne Stem
Per favorire l’inclusione delle donne nel mondo tech e ridurre il gender gap, Giuneco ha dato vita al Dorothy Program, un percorso che aiuta giovani ragazze e donne a farsi strada nel mondo delle Stem. In che modo? Attraverso interventi e interviste a donne esperte nel mondo tech che possano essere un punto di riferimento e di coinvolgimento per chi si sta affacciando in questo settore, laboratori nelle scuole per mostrare le potenzialità di un settore in crescita e supporto nel mondo del lavoro attraverso borse di studio.
“Abbiamo sempre immaginato il Dorothy Program come un percorso che possa seguire alcune fasi cruciali nella vita delle donne: dagli studi, all’affermazione personale nel mondo del lavoro. Tra i progetti che abbiamo realizzato c’è la collaborazione con Edgemony, un’azienda di formazione siciliana che ha come mission la valorizzazione del territorio e l’inclusione delle donne nel mondo informatico. Insieme a loro abbiamo deciso di sponsorizzare una borsa di studio per il bootcamp “Coding Women Sicily”, che ha dato la possibilità ad una ragazza, oggi parte del nostro team, di formarsi da noi in Giuneco e iniziare un percorso professionale nel mondo della programmazione.”
Per saperne di più sull’impegno di Giuneco grazie al Dorothy Program basta consultare il sito dedicato.