La rete conservatrice costretta a una goffa correzione dopo aver spacciato per veri video “ragebait” palesemente artificiali. Un “errore” che, guarda caso, serviva perfettamente la solita narrativa contro i poveri.
In questo articolo
La linea tra disinformazione e giornalismo, specialmente quando c’è di mezzo una forte agenda politica, è sempre più sottile. Spesso, non è nemmeno più una linea, ma una scelta consapevole. L’ultimo caso arriva da Fox News, la nota rete conservatrice americana, che ha mandato in onda e pubblicato online una notizia basata su video virali di presunti beneficiari del SNAP (il programma di aiuti alimentari USA) in preda a crisi di rabbia perché i loro sussidi erano stati tagliati.
Frasi come: “Hanno tagliato i miei buoni pasto! Non pago per niente di questa m***a. Ho bambini a casa che devono mangiare,” e persino “È responsabilità del contribuente prendersi cura dei miei figli,” venivano usate come prova dell’arroganza di chi riceve aiuti statali.
Peccato che quei video non solo fossero falsi, ma palesemente artificiali. Erano evidenti esempi di “slop” generato dall’intelligenza artificiale, spazzatura digitale creata ad arte per sembrare vera e fare leva sull’indignazione.
Che Fox News ci sia “cascata” è, francamente, difficile da credere. È molto più probabile che la rete abbia visto in quei video, palesemente falsi, un’opportunità narrativa troppo ghiotta per lasciarsela sfuggire, contando sul fatto che il proprio pubblico di riferimento non li avrebbe distinti dalla realtà.
L’incidente: una notizia troppo “perfetta” per essere vera
I video in questione sono “ragebait”, esche per la rabbia, create probabilmente con strumenti come Sora di OpenAI, e progettate specificamente per colpire un nervo scoperto dell’elettorato conservatore: l’abuso (presunto) del welfare.
La notizia originale, infatti, aveva un titolo che era tutto un programma: “Beneficiari SNAP minacciano di saccheggiare i negozi per lo shutdown del governo”. Un titolo che costruisce un nemico e genera paura.
Solo *dopo* che la notizia aveva fatto il suo giro, rinforzando i pregiudizi del proprio pubblico, e solo dopo essere stati sommersi dalle critiche e dalle smentite di altri media, la rete è stata costretta a una goffa marcia indietro. La storia è stata quasi interamente riscritta e il titolo cambiato in un molto più cauto: “Video AI di beneficiari SNAP che si lamentano dei tagli diventano virali”.
E qui sta il punto: la correzione stessa è quasi peggio dell'”errore”. In fondo all’articolo è apparsa una nota dell’editore che ammetteva di aver “precedentemente riportato alcuni video che sembrano essere stati generati dall’AI senza notarlo”. Anche in questa versione “corretta”, l’articolo continua a spingere la stessa identica narrativa, lamentandosi di come i poveri siano “viziati” dal SNAP. Un programma che, vale la pena ricordarlo, serve principalmente a bambini, anziani e persone con disabilità, e che fornisce un aiuto medio di circa 177 dollari al mese per cibo non caldo.
Quando la realtà non collabora, l’AI la fabbrica
Questo incidente, che è difficile definire una semplice “gaffe”, tocca un punto nevralgico del mio approccio critico all’intelligenza artificiale. Non si tratta più solo di *trovare* una notizia che confermi i propri pregiudizi; si tratta di *usare* materiale fabbricato da zero quando la realtà non collabora.
L’AI, in questo contesto, diventa uno strumento potentissimo per concentrare il potere e la ricchezza: permette a chi controlla la narrativa (i grandi media) di produrre “prove” a basso costo per giustificare politiche che danneggiano le fasce più deboli, sfruttando l’incapacità (o la non volontà) del pubblico di distinguere il vero dal falso.
Questi video falsi funzionano perché, come spiego spesso parlando della psicologia del complottismo, fanno leva su emozioni primarie (rabbia, indignazione) e si inseriscono perfettamente in narrazioni populiste pre-esistenti (“noi” che lavoriamo contro “loro” che vivono di sussidi).
Un calcolo che ignora l’etica giornalistica
Dal punto di vista professionale, siamo di fronte a un calcolo cinico che ignora qualunque principio etico. Come ho trattato nel mio manuale sull’etica giornalistica, il dovere primario del giornalista è la ricerca della verità e dell’accuratezza.
Qui, l’obbligo di verifica delle fonti non è stato “ignorato” per fretta: è stato attivamente bypassato perché il contenuto, seppur palesemente falso, era *funzionale* alla linea editoriale. Non è che in redazione non sapessero distinguere il vero dal falso. Il punto è che, per il loro pubblico e per la loro narrativa, la distinzione non era importante. L’obiettivo era raggiunto comunque.
Come ha fatto notare Tim Miller su The Bulwark, la notizia sarebbe stata eticamente discutibile *anche se* i video fossero stati veri. Usare un singolo video fabbricato ad arte per demonizzare un’intera categoria di 41 milioni di persone che dipendono dagli aiuti per mangiare non è informazione: è propaganda.
Il nuovo ruolo dell’AI: la fabbrica delle “prove”
Questo episodio è un campanello d’allarme assordante. Ci dice due cose:
- L’intelligenza artificiale è diventata ufficialmente uno strumento di propaganda a basso costo, capace di creare “prove” visive per qualsiasi narrativa.
- Il bias ideologico di certe redazioni non le rende “vulnerabili” a cadere nelle trappole della disinformazione; le *incoraggia* attivamente a usarle come armi, finché possono farla franca.
L’AI sta creando “prove” realistiche per giustificare narrazioni dannose. Il rischio non è solo che “non siamo pronti” a riconoscere i falsi. Il rischio, ben più grave, è che a molti, nel mondo dell’informazione, non interessi riconoscerli.




