Innovazione

L’intelligenza artificiale che produce recensioni false e fake news: come difenderci

L'americana ShadowDragon spiega come individuare da veri detective digitali i contenuti falsi da IA generativa. Piccole sfumatore o macroscopici errori di automazione che permettono di scovare le falsità, che si possono produrre anche con Chat GPT.

In attesa dell’importante voto delle prossime ore in Europa che stabilirà buona parte del futuro (e dei tempi di crescita) delle IA per il nostro Continente, il dibattito continua ad animare la società. In un futuro distopico in cui come novelli X-Man gli algoritmi di IA si divideranno in buoni e cattivi, tra i secomdo sicuramente possiamo annoverare quelli che aiutano a produrre fake news e recensioni false. In realtà, anche strumenti già conosciuti e potenzialmente neutrali in questa battaglia tra forze del male (leggesi ChatGPT) rischiano di essere un grande potere da cui – per mantenerci nell’universo Marvel – derivano grandi responsabilità. E che nelle mani sbagliate può essere dannosissimo.

Ma come difendersi in assenza di quel tanto agognato e tanto sognato ripulisti di spazzatura digitale e falsità che più passa il tempo e più diventa un problema ingombrante, tanto da aver fatto scomodare i colossi del tech ad uno ad uno alla ricerca di una soluzione definitiva?

ShadowDragon, che nonostante il nome da controspionaggio giapponese altro non è che una società americana di informatica specializzata in soluzioni di intelligence digitale, ha buttato giù un rapporto contenente, a detta degli autori, una guida pratica per l’analisi delle reti sociali online al fine di contrastare il fenomeno delle fake news e delle false recensioni commerciali prodotte da AI generativa. Il rapporto, dal titolo originale ‘A Practical Guide for Osint Investigators to Combat Disinformation and Fake Reviews Driven by AI (ChatGPT)’ (gratuitamente disponibile a questo link) mette al cnetro lo studio delle reti sociali. E tutto sarebbe partito, spiegano gli autori della ricerca, da una recensione falsa di un libro scovata su Amazon.

Come viene usato ChatGPT per contenuti falsi?

Dove entra in gioco l’intelligenza artificiale, quindi?

“Quando ChatGPT viene combinato con altre forme di intelligenza artificiale, come l’IA generativa che crea immagini e/o audio, diventa un mix estremamente potente”, mettono in guardia gli autori della ricerca. “Un mix che diffonde disinformazione altamente realistica, così verosimile che è estremamente difficile rilevarne la falsità”.

“Sebbene molte persone utilizzino ChatGPT per scopi positivi – si legge nel rapporto ShadowDragon – il problema risiede nella sua potenziale utilizzazione per diffondere disinformazione e recensioni false. La disinformazione, le recensioni false e i deepfake sono tre questioni cruciali che affliggono Internet da anni. La disinformazione consiste nella diffusione deliberata di informazioni false o fuorvianti al fine di influenzare le opinioni o oscurare la verità. Le recensioni false sono recensioni che vengono create o manipulate in modo erroneo per dare un’immagine inaccurata di un prodotto, servizio o azienda. ChatGPT, ad esempio, può essere utilizzato per generare recensioni false che sono difficili da distinguere da quelle genuine. Ciò è possibile poiché ChatGPT è stato addestrato su ampie raccolte di recensioni, il che gli consente di creare nuove recensioni che sembrano scritte da persone reali. Queste recensioni false possono essere utilizzate per manipolare l’opinione dei consumatori, danneggiare i concorrenti e ingannare i clienti. Entrambe queste problematiche hanno un impatto negativo sulla società, e l’IA viene ora utilizzata per amplificarne gli effetti”.

Il detective che scova l’errore delle intelligenze artificiali

Ma sebbene più passi il tempo più diventa difficile distinguere i contenuti generati da IA da quelli autentici, come in ogni giallo che si rispetti il delitto perfetto non esiste e l’assassino commette sempre qualche errore.

Ancora, in maniera più evidente, ci sono degli errori che fanno le IA generative come ChatGPT. Alert forniti all’utente o veri e propri slang che – in processi di automazione – finiscono per passare online così come vengono prodotti dagli algoritmi. Un esempio? Tweet che vengono pubblicati con tanto di censura da parte dell’algoritmo, o recensioni che contengono chiaramente indicazioni sul fatto che siano state prodotte dall’intelligenza artificiale nella stessa generazione della risposta.

Le reti sociali contro le intelligenze artificiali in malafede

ShadowDragon in realtà non è che abbia prodotto tale report solo per mecenatismo. Si tratta del suo campo di business e di ciò che offre. Detto questo, quando il gioco si fa duro ShadowDragon sostiene che lo studio delle intricanti reti sociali si configura come un “processo di indagine e classificazione delle interconnessioni tra i protagonisti della sfera online“: individui, gruppi, organizzazioni e piattaforme che popolano la vita digitale.

L’analisi di tali reti – che è il servizio offerto da ShadowDragon – permette di scovare minacce tanto reali quanto potenziali, ma anche di individuare figure di influenza, talvolta inconsapevoli, e monitorare tendenze e campagne comunicative, nonché valutare l’impatto delle strategie di comunicazione sulle politiche governative e sull’opinione pubblica.

Parliamo di un groviglio enorme tra dati in quantità quasi inestimabile, questioni etiche e di privacy che devono controbilanciare la sicurezza informativa, delle difficoltà nell’attestare l’autenticità e la credibilità delle fonti, nonché della potenziale manipolazione e disinformazione sottilmente insinuate.

Per condurre una valutazione accurata delle reti sociali, ShadowDragon suggerisce di seguire un iter metodologico articolato:

  • definire con precisione l’obiettivo e la domanda di ricerca,
  • selezionare attentamente le fonti e i criteri di raccolta dei dati,
  • impiegare strumenti analitici adeguati,
  • visualizzare i risultati tramite grafici e mappe,
  • interpretare le evidenze con acume e spirito critico.

Esistono diversi approcci per individuare e smascherare le cosiddette fake news e gli altri testi fasulli e lesivi, spiega il rapporto, che si fondano su quattro dimensioni:

  • il contenuto distorto,
  • lo stile di scrittura adottato,
  • i modelli di propagazione,
  • la credibilità delle fonti.

Il primo metodo consiste nel verificare la coerenza delle notizie con diverse sfere tematiche, quali l’ambito tecnologico, sociale o giuridico. Questo processo richiede una conoscenza approfondita delle diverse realtà contestuali e l’utilizzo di fonti affidabili al fine di confrontare le informazioni. Ad esempio, si possono verificare la corrispondenza tra il mittente effettivo della notizia e quello dichiarato, le possibili intenzioni lesive nei confronti di individui o gruppi, la presenza di prove o testimonianze a sostegno dei fatti riportati, nonché eventuali errori logici o contraddizioni all’interno del testo. Un’altra strategia d’indagine si focalizza sull’analisi dello stile di scrittura delle notizie mediante l’impiego di avanzate tecniche di elaborazione del linguaggio naturale (NLP). Tale approccio si basa sull’assunto che le fake news si distinguano da quelle autentiche per via di uno stile redazionale dissimile, che comprende differenze lessicali, sintattiche, strutturali, emotive e via dicendo.

Romolo Napolitano

Giornalista professionista dal 2011 è stato, non ancora trentenne, caporedattore dell’agenzia di informazione videogiornalistica Sicomunicazione. Ha lavorato 3 anni negli Stati Uniti in MSC. Al suo ritorno in Italia si è occupato principalmente di uffici stampa e comunicazione d'impresa. Attualmente è giornalista, copywriter e videomaker freelance. Si occupa, tra le altre cose, di tecnologie, nautica e sociale.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button