dariodeleonardis.me

Meta alza bandiera bianca: perché Zuckerberg sta spegnendo i sistemi IA anti-bufale

In questo articolo

 


 

In quella che sembra a tutti gli effetti una resa incondizionata, Meta (la società madre di Facebook e Instagram) ha deciso di smantellare i suoi sistemi di machine learning progettati per identificare e limitare la diffusione di bufale virali. Esatto, avete letto bene. Quei sistemi che, almeno sulla carta, dovevano arginare la disinformazione più becera, stanno per essere messi in soffitta.

La notizia, riportata da Platformer, è di quelle che fanno accapponare la pelle. Soprattutto se si pensa che questi strumenti automatici, stando a documenti interni visti dalla testata, avevano un’efficacia dichiarata superiore al 90% nel limitare la propagazione di ciarpame virale.

Parliamo di teorie del complotto assurde e francamente pericolose, come l’ormai tristemente famoso “Pizzagate”, che portò un uomo armato in una pizzeria convinto di “salvare” bambini inesistenti. Ecco, Meta ha deciso che questo tipo di monitoraggio proattivo non serve più.

 

Una ritirata strategica (e pericolosa)

Ufficialmente, Meta non ha commentato direttamente lo spegnimento di questi specifici sistemi anti-bufala. Però, guarda caso, la decisione coincide con un recente post sul blog del nuovo Responsabile delle Policy Globali dell’azienda. In questo post si legge, tra le righe, che in passato sono stati penalizzati “troppi contenuti” che i sistemi *predicevano* potessero violare gli standard.

La nuova linea? “Stiamo eliminando la maggior parte di queste retrocessioni”, scrive il dirigente, aggiungendo che d’ora in poi sarà necessaria una “maggiore certezza” che un contenuto violi le regole prima di intervenire. In pratica, si agisce solo a danno fatto, o quasi.

Questa mossa, però, non è un fulmine a ciel sereno. Fa parte di una più ampia e controversa revisione delle pratiche di “trust and safety” voluta direttamente da Mark Zuckerberg. Il re indiscusso dell’impero Meta, come lo ha definito The Atlantic, ha parlato di un ritorno alle “radici della libera espressione”.

Una “libera espressione” che, a quanto pare, include anche lo smantellamento del programma di fact-checking di terze parti.

 

Il pretesto della “libertà di espressione”

Qui, però, bisogna essere chiari. Quella della “libera espressione” è una foglia di fico che nasconde una realtà ben diversa. Come riportato in precedenza, questi cambiamenti permettono ora su Meta cose che fino a ieri erano (giustamente) vietate.

Gli utenti sulle piattaforme del gruppo saranno ora liberi di fare misgendering (negare l’identità di genere delle persone trans), riferirsi alle donne come “oggetti domestici o proprietà” o, perché no, dichiararsi “orgogliosamente razzisti”.

Insomma, la “libera espressione” di Zuckerberg sembra tradursi in una licenza di molestare, denigrare e disumanizzare. Non è difficile immaginare chi pagherà il prezzo di questa scelta: le comunità marginalizzate, le donne, le persone LGBTQIA+ e le minoranze razziali vedranno la loro, di libertà di espressione, compressa da un ambiente digitale sempre più tossico.

 

L’IA che funziona si spegne: il lavoro gratis degli utenti

E qui veniamo al nodo cruciale, quello che lega questa decisione all’intelligenza artificiale e al lavoro. Meta *aveva* sistemi di machine learning che, a quanto pare, funzionavano egregiamente nel contenere la disinformazione. E *sceglie* di spegnerli.

Perché? La risposta più probabile è duplice: costi e politica.

Mantenere questi sistemi, e soprattutto la rete di fact-checker umani (il programma di terze parti è stato anch’esso ridimensionato) che li supporta e li addestra, è costoso. Molto costoso.

Qual è la geniale soluzione di Zuckerberg? Un modello che ricorda da vicino le “Community Notes” di X (ex Twitter). In pratica, si abdica alla responsabilità editoriale e si scarica il lavoro di moderazione e verifica direttamente sugli utenti. È la forma più pura di *outsourcing* del lavoro: Meta risparmia miliardi, evita le critiche di “censura” (potendo dire “sono gli utenti che decidono!”) e affida il lavoro sporco alla manodopera gratuita della sua base utenti.

Questo è un esempio lampante di come l’IA venga usata non per il bene pubblico, ma come strumento di ottimizzazione dei profitti. Nel momento in cui il suo utilizzo per il bene sociale (limitare le bufale) entra in conflitto con i costi o con l’opportunità politica, l’IA viene semplicemente spenta.

 

Un occhio alla politica (e a Trump)

L’altro aspetto, ovviamente, è politico. Questa mossa è un chiaro segnale inviato a una parte politica ben precisa. Abbassare le difese contro la disinformazione fa un favore enorme a quelle forze, spesso di destra populista, che sulla viralità delle bufale hanno costruito le loro fortune elettorali.

Non è un caso che l’articolo originale citi Donald Trump. L’ex presidente, che in passato aveva minacciato di far arrestare Zuckerberg per presunte interferenze elettorali, ora ha trovato parole di elogio per le nuove policy di Meta.

Zuckerberg, insomma, sta scegliendo da che parte stare in vista delle prossime scadenze elettorali, e quella parte non è certo quella della verità fattuale o della protezione delle minoranze.

Cosa ci resta? Un ecosistema informativo ancora più inquinato, dove il “re” Zuckerberg decide che la stabilità politica e i suoi profitti valgono più di una piazza pubblica digitale vagamente sicura. E a noi utenti, ovviamente, resterà il compito ingrato di provare a correggere, gratuitamente, le bugie da cui la sua piattaforma trae profitto.