L’intelligenza artificiale scende in campo contro l’hate speech (e capisce anche l’ironia)! Il linguaggio umano e la sua comprensione è un processo complicatissimo. E infatti progetti di intelligenza artificiale sul linguaggio arenatisi in malo modo non sono rari. Basti ricordare l’esperimento di Microsoft con il chatbot Tay: doveva imparare a dialogare con le persone sui social, ma dopo un po’ cominciò a lanciare messaggi razzisti e xenofobi.
Proprio contro i messaggi di odio e il cosiddetto hate speech, il Dipartimento di Informatica dell’Università di Bari ha sviluppato un algoritmo che sta dando buoni risultati. Il programma è stato utilizzato per la Mappa dell’Intolleranza, rapporto realizzato dall’Osservatorio italiano sui diritti Vox insieme al dipartimento di Diritto Pubblico italiano e sovranazionale dell’Università degli Studi di Milano e al dipartimento di Psicologia Dinamica e Clinica della Facoltà di Medicina e Psicologia della Sapienza di Roma.
Abbiamo fatto una chiacchierata con Cataldo Musto, ricercatore dell’Università di Bari, che ci ha spiegato come funziona questo algoritmo.
“L’algoritmo usato per la Mappa dell’intolleranza ha due funzioni. La prima è quella di selezionare tutti i tweet che contengono determinate parole e un determinato lessico potenzialmente di odio. Ma il vero discrimine è la seconda funzione, dove fa un’analisi intelligente dei contenuti”.
Per esempio?
“Per esempio la parola ‘finocchio’ può sia riferirsi all’ortaggio, sia essere un commento omofobo. L’algoritmo riesce a capire dal contesto in che accezione è usata la parola”.
Gli algoritmi sull’hate speech dei social spesso bloccano i messaggi ironici, non capendo che non sono razzisti ma che, magari, prendono in giro i razzisti.
“Mi sento di dire che il nostro algoritmo riesce quasi sempre a capire l’ironia, anche il sarcasmo. C’è un margine di errore. Ma mi permetta la provocazione: quante volte le persone non capiscono l’ironia? L’intelligenza artificiale replica i processi umani, quindi così come a volte gli uomini non afferrano le battute, anche il nostro algoritmo può fallire. Ma siamo a un ottimo punto su questo”.
Quali altre applicazioni può avere questo algoritmo?
“I social hanno programmi per bloccare i messaggi di odio. Il nostro algoritmo potrebbe facilmente essere utilizzato in questi contesti”.
Il fallimento del chatbot Tay di Microsoft cosa ha insegnato a chi si occupa di Intelligenza artificiale?
“Il caso di Microsoft ci insegna che c’è ancora tanta strada da fare. Finora l’intelligenza artificiale si è mostrata utile con il linguaggio quando si applica a micro-task. Nel caso di Tay l’obiettivo era un po’ ambizioso e forse troppo generico”.
Quindi se c’è tanta strada da fare l’intelligenza artificiale non ci sostituirà?
“L’intelligenza artificiale è oramai dappertutto: dall’intrattenimento alla medicina. Ma non credo vada bloccata, né temuta. Il nostro obiettivo, come ricercatori, è di renderla comprensibile agli uomini. Se le persone sanno come funziona, riescono a tenerla in controllo e potrà sempre più affiancare e aiutare l’uomo. Dall’altro lato, e penso all’industria e al lavoro, ci sarà sempre più necessità da parte nostra di acquisire competenze e imparare a gestire l’intelligenza artificiale nella vita di tutti i giorni”.