In questo articolo
Nel nostro precedente articolo abbiamo parlato dell’ “AI slop”, la brodaglia di contenuti a basso costo che sta inondando internet, e di come i suoi promotori liquidino le critiche con una certa arroganza. Ma il problema, purtroppo, è ben più grave della semplice produzione di podcast-spazzatura. L’intelligenza artificiale generativa è diventata, a tutti gli effetti, una potentissima arma nelle mani di chi vuole diffondere odio, alimentando teorie del complotto razziste e mettendo in pericolo la vita di minoranze e immigrati.
Diciamocelo chiaramente: la tecnologia non è mai neutrale. E quella che stiamo vedendo è la sua applicazione più diabolica: la creazione industriale di propaganda per infiammare la società. Benvenuti nel futuro, a quanto pare.
Dalla brodaglia innocua al veleno politico
L’ascesa dell’AI generativa ha già avuto un impatto devastante sul nostro ecosistema informativo. Ha inquinato i risultati dei motori di ricerca con contenuti insensati, ha scatenato un’ondata di materiale pornografico falso e inquietante e ha minato la credibilità dei media digitali come fonti affidabili di notizie. Ma ora siamo a un livello successivo.
Un’inchiesta del The Times ha rivelato come le proteste anti-immigrazione nel Regno Unito vengano sistematicamente aizzate da account sui social media che condividono immagini generate dall’AI. Immagini false, ma emotivamente potentissime, che ritraggono orde di immigrati arabi mentre “invadono” le strade di Londra.
Come funziona la macchina della paura: immagini false per odio reale
La strategia è tanto semplice quanto efficace. Mentre gli agitatori di professione lanciano l’esca, i partecipanti alle manifestazioni vengono prima portati a un punto di ebollizione dagli algoritmi dei social, che promuovono attivamente disinformazione e razzismo.
La propaganda visiva segue un copione disgustosamente ripetitivo, soprattutto in un contesto come quello del Regno Unito dove l’islamofobia è dilagante. Le immagini create dall’AI mostrano tipicamente una vittima bianca e fragile – spesso un bambino o una giovane ragazza, avvolta nella bandiera nazionale – circondata da una folla minacciosa di persone stereotipate come minoranze etniche. In altri casi, si celebra l’archetipo dell’uomo bianco e forte che si erge a difensore della nazione e dei suoi simboli.
La psicologia del “noi contro loro”, potenziata dagli algoritmi
Questa propaganda non fa che sfruttare e potenziare le dinamiche psicologiche che abbiamo già analizzato parlando delle comunità complottiste. [cite_start]Crea una divisione manichea del mondo: un “noi” virtuoso e un “loro” malevolo[cite: 852]. [cite_start]Le immagini servono a costruire un’identità collettiva basata sulla paura e sul vittimismo, dove i “patrioti” sono i giusti difensori assediati da un nemico esterno[cite: 864].
Beatriz Buarque, ricercatrice alla London School of Economics, lo ha spiegato molto bene al The Times: “Quando le immagini prevenute generate dall’AI si diffondono online, non si limitano a rafforzare il pregiudizio, ma possono ispirare la violenza, posizionando gli uomini bianchi occidentali come giusti difensori delle loro comunità e famiglie”.
Il risultato? Un aumento spaventoso dei crimini d’odio. Nel 2024, le aggressioni a sfondo islamofobo nel Regno Unito sono aumentate del 73%, e le proteste violente sono sempre più frequenti, come quella che ha visto oltre 100.000 manifestanti anti-immigrazione a Londra, con decine di feriti.
I numeri non mentono: l’AI come amplificatore virale
Il dato forse più allarmante emerge da una ricerca presentata al parlamento britannico dalla stessa Buarque. Analizzando centinaia di post razzisti sui social media, i ricercatori hanno scoperto che, sebbene i contenuti generati dall’AI costituiscano ancora una piccola parte del totale, il loro numero medio di visualizzazioni è tre volte superiore a quello di un post organico.
Insomma, l’AI non sta solo creando la propaganda: la sta rendendo significativamente più virale. Funziona come un accelerante, un catalizzatore che prende l’odio esistente e lo proietta a un pubblico molto più vasto e con un impatto emotivo molto più forte.
La responsabilità delle piattaforme: il profitto sull’odio
Di fronte a tutto questo, le grandi piattaforme social sembrano più che felici di lasciare che la valanga di brodaglia razzista continui a scorrere, infischiandosene delle conseguenze. L’“engagement” da coltivare, da una parte e dall’altra della barricata, è troppo prezioso.
Ancora una volta, il profitto generato dalla polarizzazione e dalla rabbia ha la precedenza sulla responsabilità etica e sociale. La brodaglia AI non è solo spazzatura digitale; è un veleno, e chi gestisce le piattaforme che lo veicolano ne è complice.

