Si è fatto un gran parlare di Chat GPT e di intelligenza artificiale. Come sempre, travalicando i fatti per cavalcare uno storytelling di quelli che piacciono al grande pubblico mezzo media. Così uno dei founder del chatbot, Sam Altman, diventa protagonista di un racconto leggendario: spaventato dal futuro, con la sua creatura prova a rispondere alla “domanda più difficile di tutte: come finirà il mondo?”.
Di fatto, la piattaforma che risponde “in maniera naturale” ai quesiti che gli vengono posti online altro non è che un risponditore automatico. Un algoritmo performante e clamorosamente preciso, che può contare su una quantità di dati imbarazzante, ma pur sempre un algoritmo. Che risponde, quindi, a una determinata richiesta svolgendo una serie di istruzioni per restituire un risultato diverso a seconda dell’input immesso.
Questo per dire che dietro al racconto mezzo stampa del fenomeno Chat GPT romanzare le ansie esistenziali su scala globale di Altman, amico di Elon Musk, non restituisce la realtà sostanziale dei fatti: il mondo sta cambiando ma non è l’Apocalisse.
Difficile credere che Chat GPT possa prevedere la fine del mondo quando ha ancora enormi difficoltà a scoprire chi è il terzo figlio della mamma di Gennaro. Abbiamo provato a chiedere alla piattaforma: “La mamma di Gennaro ha tre figli. Se uno è Salvatore e l’altro è Vincenzo, come si chiama il terzo figlio della mamma di Gennaro?”. La piattaforma ha risposto, piena di sé, che non aveva abbastanza informazioni per saperlo.
Signori, quindi attenti a travalicare quanto di concretamente esiste (ed è comunque straordinario) perché un certo storytelling vuole per necessità romanzare “noiose” storie di sviluppo software. Come quella che vede Musk, Altman e Hoffman (il fondatore di LinkedIn) lavorare a una risposta etica ad algoritmi Google che rischiavano di “piegare l’umanità” travestiti da supereroi. Un algoritmo resta pur sempre un algoritmo e, per quanto “ogni tecnologia sufficientemente avanzata non è distinguibile dalla magia” (Arthur C. Clarke), non può al momento combattere robot giganti o evitare conflitti mondiali. La questione etica esiste, ma signori: un passo alla volta.
Quando Sebastian Galassi, giovane rider fiorentino, venne licenziato dopo essere morto – e quindi palesemente impossibilitato a compiere la consegna richiesta – Glovo liquidò l’errore dando la colpa “all’algoritmo”. “L’algoritmo” inviò un breve messaggio e-mail a un ragazzo deceduto durante il lavoro. Questo perché l’eccezione, evidentemente, non era gestita e alla fine Sebastian, già morto, si è visto disattivato l’account perché “non ha rispettato i termini e le condizioni”.
Questo vuol dire, oggi, avere a che fare con questi fantomatici “algoritmi”. A cui si vogliono affidare crociate filosofiche o il futuro del Pianeta ma che – per loro natura – non hanno quel pensiero laterale che permette di capire se Gennaro è il figlio di sua madre. O se Sebastian è morto.