Tradotto, “Ti odio e ti amo / Come possa fare ciò, forse ti chiedi / Non lo so, ma sento che così avviene e me ne tormento“.
Il Carme 85 del poeta latino Catullo, dedicato all’amore tormentato per Lesbia, potrebbe essere una metafora calzante per il rapporto contrastante che al giorno d’oggi si consuma quotidianamente con i social network. Li amiamo, quando nel flusso positivo dei reels e del news feed sembriamo essere popolari o al centro di gradite attenzioni; li odiamo, quando dopo l’ennesima immagine o frase postata non raggiungiamo neanche il “minimo sindacale” di like e commenti.
Ma di odio, di commenti al vetriolo, di frasi taglienti e stigmatizzanti, di polemiche e di discussioni corrosive e graffianti sembrerebbe nutrirsi il social più famoso fra tutti: Facebook. O almeno, è quello che sembrerebbe emergere dai Facebook Papers, una serie di documenti interni trafugati da un ex dipendente che ha deciso di denunciare la condotta “immorale e votata al profitto” dei gestori della piattaforma “a discapito del concetto di comunità, di giustizia sociale e di tutela degli utenti”.
Pubblicati in America sul Washington Post dopo la denuncia a Capitol Hill e poi al Parlamento Britannico di Frances Haugen, soprannominata “la talpa”, i Facebook Papers spiegherebbero come il gigante dei social media abbia in modo riservato e meticoloso tracciato i problemi nel mondo reale, esacerbandoli nelle dinamiche della piattaforma, ignorando i consigli dei suoi dipendenti riguardo ai rischi di alcune politiche di questo genere ed esposto, pertanto, comunità vulnerabili di tutto il mondo ad un cocktail di messaggi pericolosi.
Non solo. Sempre secondo i Facebook Papers il social, sebbene abbia costantemente dichiarato di seguire una politica penalizzante nei confronti dei messaggi d’odio, di violenza, di razzismo avrebbe al contrario perseguito una linea strategica piuttosto pericolosa, addirittura da “mettere a repentaglio i bambini, aumentare le divisioni ed indebolire la democrazia”.
Venendo ai dati, nei Facebook Papers vi sono informazioni in netto contrasto con le dichiarazioni pubbliche di Mark Zuckerber: per esempio, lo scorso anno il fondatore e Ceo di Facebook ha affermato al Congresso che il social media rimuove il 94% dei discorsi d’odio che trova sulla sua piattaforma. Ma i documenti interni riportano ricerche secondo le quali si riesce a bloccare e rimuovere solo il 5% dei messaggi d’odio, per di più solo relativamente alla lingua inglese – americana, mentre nel resto del mondo la percentuale crollerebbe vertiginosamente.
“Facebook dice cose come ‘noi sosteniamo 50 lingue’, ma in realtà la maggior parte di queste lingue ha una frazione minima dei sistemi di controllo che operano per l’inglese” ha detto Frances Haugen nella sua deposizione di fronte al Parlamento britannico.
Haugen ha quindi accusato Facebook di “fuorviare il pubblico, spingendolo a credere che ci sia un controllo sulle lingue diverse dall’inglese”, quando invece ci sarebbero “investimenti insufficienti” in questa direzione. Facebook ha in media 1,8 miliardi di utenti quotidianamente attivi, il 72% dei quali fuori dall’America del Nord e dall’Europa.
Un esempio calzante sono i tentativi di tagliare il linguaggio d’odio nei Paesi in lingua araba e del Medio Oriente, che non hanno funzionato. Solo il 6% di questi messaggi sono stati individuati, e bloccati, prima che fossero pubblicati su Instagram, con una media migliore, del 40% su Facebook, ma in Paesi come l’Afghanistan o l’Etiopia, il social media utilizza pochissimi esperti linguisti locali, con il risultato che meno dell’un per cento dei messaggi d’odio viene rimosso.
Non manca poi l’utilizzo di algoritmo che dovrebbe controllare e bloccare messaggi terroristici, ma che finisce nel 77% dei casi invece per bloccare contenuti in lingua non violenta, riducendo quindi la libertà di espressione in questa lingua ed in alcuni casi anche la possibilità di denunciare potenziali crimini di guerra.
Sono accuse pesanti, definite dallo stesso Zuckemberg come “sforzo coordinato per utilizzare selettivamente i documenti trapelati per dipingere un’immagine falsa della nostra azienda”.
Questo perché, per la prima volta, stampa e politica hanno tutti gli occhi puntati sul social che fomenta l’odio e che direziona le discussioni e l’agenda. Pericoloso? Certamente. Eticamente scorretto? Sicuro. Ma che sia vero o che sia forzato, che sia un’attacco alla multinazionale per fare tanto rumore o che vi siano effettive falle nel sistema, che vi sia anche una volontà di controllo del popolo online, resta un dato – che è sotto gli occhi di tutti, quotidianamente, in ogni istante. E che nel novero della questione sembrerebbe essere ignorato.
Facebook è un social network nato per connettere le persone. E i suoi utenti sono persone.
Chiunque abbia trascorso più di una decina di minuti su Facebook si sarà presto reso conto di come il social diventi spesso invivibile, fazionario, squadrista, con posizioni polarizzate e con gruppi di haters che discutono animatamente fra loro (quando non arrivano addirittura alle minacce di morte o a posizioni davvero estremiste).
Accade nei gruppi dove la netiquette è ormai un lontano ricordo, accade a personaggi famosi che spesso per una frase sbagliata vengono ricoperti dal così detto shitstorm, accade nella diade fra destra e sinistra, provax e novax e così via. Ma per quanti sistemi di controllo possano essere o meno applicati, nel funzionamento del social network questo meccanismo è endemico: i social creano una vera e propria “bolla” dove le opinioni affini si rafforzano perché, inevitabilmente, l’algoritmo tende ad accumunare posizioni ed interessi vicini al proprio pensiero, alle proprie scelte, agli interessi e così via.
E non dimentichiamo che, per molti versi, Facebook non è che lo specchio dei meccanismi sociali che si vivono tutti i giorni: il sociologo William Graham Sumner nel lontano 1906 teorizzò una componente fondamentale della teoria dell’identità sociale, ovvero l’identificazione dell’individuo con il gruppo di appartenenza (in group) che viene facilitata e rafforzata dal contrasto con l’out-group, ossia i non appartenenti alla medesima cerchia, quindi ritenuti estranei e nemici. In relazione all’out-group, al rifiuto delle norme e dei valori che lo caratterizzano, l’in-group diventa parametro di riferimento per i comportamenti dei membri.
Pertanto, non è che le accuse verso Facebook non siano gravi, sia chiaro. Bisogna indagare su cosa è accaduto e quali siano le reali responsabilità e volontà. Ma resterebbe comunque da capire “cosa ci guadagni”, qualora fosse accertato, nel perorare una politica rivolta all’odio piuttosto che al controllo della sua deriva.
Ma i social sono uno strumento e come tali vengono utilizzati dalle persone che scelgono liberamente di scrivere, di postare, di litigare in una piazza digitale: non è forse questo il concetto essenziale della democrazia, per quanto sia imperfetta e possa far storcere il naso?