Tecnologia

Intelligenza artificiale generativa: perché ne sentiremo parlare sempre più spesso

”È probabile che i modelli linguistici abbiano un impatto significativo sul futuro delle attività di persuasione digitale. Non esistono soluzioni univoche e risolutive per ridurre al minimo il rischio di disinformazione generata dall'intelligenza artificiale"

Intelligenza artificiale generativa: ne sentiremo parlare sempre più spesso. L’attenzione sull’argomento – che non è del tutto recentissimo – è stata focalizzata soprattutto a seguito del lancio dell’ormai celeberrimo ChatGpt nel mese di novembre dello scorso anno.

ChatGpt incarna perfettamente il concetto di intelligenza artificiale generativa: si tratta, infatti, di una piattaforma – robot basata sulle tecnologie di intelligenza artificiale e specializzata nel dialogo uomo-macchina, sviluppato da OpenAI, società no profit (per il momento) fondata tra gli altri da Elon Musk, il dibattito sulle applicazioni di intelligenza artificiale cosiddetta generativa ha invaso le riviste specializzate e non solo.

E che, a pochi mesi dal lancio, ha già visto affiancare la versione gratuita a quella a pagamento (dopo essere stata acquistata da Microsoft).

Il dilemma dell’intelligenza artificiale generativa

Al di là del caso di ChatGpt, anche la riflessione scientifica, già molto ampia sul tema dell’intelligenza artificiale generativa, ha proseguito il proprio percorso affrontando tutta una serie di aspetti legati ai pericoli che software in grado di dialogare in maniera (apparentemente) naturale con un essere umano possono comportare.

Ad esempio, enti organizzati (anche para-governativi) o singoli attori potrebbero usare in un prossimo futuro queste piattaforme per creare e diffondere campagne di disinformazione allo scopo di influenzare l’opinione pubblica di un paese con una capacità di persuasione, di viralità e di personalizzazione mai viste prima.

In questo quadro, è da segnalare l’importante studio, pubblicato lo scorso mese di gennaio, redatto dai ricercatori della Georgetown University’s Center for Security and Emerging Technology, di OpenAI e dello Stanford Internet Observatory (J. A. Goldstein, G. Sastry, M. Musser, R. DiResta, M. Gentzel e K.Sedova), dal titolo Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations(‘Modelli linguistici generativi e Attività di persuasione automatizzata. minacce emergenti e potenziali rimedi’).

Nelle oltre 60 pagine dello studio, molte tesi vengono esposte e molte sfide che nel prossimo futuro si presenteranno vengono delineate. Infatti, riflettono sul fatto che i modelli di linguaggio generativo sono migliorati drasticamente e ora possono produrre output di testo realistici difficili da distinguere dal contenuto scritto dall’uomo. 

Per gli attori malintenzionati, questi modelli linguistici promettono di automatizzare la creazione di testi convincenti e fuorvianti da utilizzare nelle operazioni di influenza. Questo rapporto valuta in che modo i modelli linguistici potrebbero cambiare le operazioni di influenza in futuro e quali misure possono essere intraprese per mitigare questa minaccia. 

“Descriviamo possibili modifiche agli attori, ai comportamenti e al contenuto delle operazioni di influenza online e forniamo un quadro per le fasi della pipeline delle operazioni di influenza del modello linguistico che le mitigazioni potrebbero prendere di mira (costruzione del modello, accesso al modello, diffusione del contenuto e convinzione formazione)”.

Non tutto è perduto, secondo gli autori, i quali concludono il proprio lavoro con alcune tesi da sviluppare:

”È probabile che i modelli linguistici abbiano un impatto significativo sul futuro delle attività di persuasione digitale. Non esistono soluzioni univoche e risolutive per ridurre al minimo il rischio di disinformazione generata dall’intelligenza artificiale. Sono necessarie nuove istituzioni e un coordinamento diffuso (come la collaborazione tra fornitori di intelligenza artificiale e piattaforme di social media) per rispondere collettivamente alla minaccia delle attività di disinformazione (basate sull’intelligenza artificiale)”.

Romolo Napolitano

Giornalista professionista dal 2011 è stato, non ancora trentenne, caporedattore dell’agenzia di informazione videogiornalistica Sicomunicazione. Ha lavorato 3 anni negli Stati Uniti in MSC. Al suo ritorno in Italia si è occupato principalmente di uffici stampa e comunicazione d'impresa. Attualmente è giornalista, copywriter e videomaker freelance. Si occupa, tra le altre cose, di tecnologie, nautica e sociale.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button