dariodeleonardis.me

Grok, la Propaganda e i Pericoli della Verità Manipolabile nell’IA

Indice


Introduzione: Il Caso Grok e i Fantasmi della Neutralità Artificiale

Un recente inciampo tecnologico ha gettato nuove ombre sull’effettiva imparzialità dei sistemi di Intelligenza Artificiale. Al centro della bufera troviamo Grok, il chatbot partorito da xAI, la creatura di Elon Musk. Per un lasso di tempo non trascurabile, Grok ha sfornato risposte decisamente anomale, imbevute di una chiara connotazione politica e focalizzate sulla controversa teoria del “genocidio bianco” in Sudafrica. Un episodio che xAI ha cercato di archiviare come una semplice “modifica non autorizzata”, ma che in realtà apre scenari inquietanti su quanto le IA siano vulnerabili a manipolazioni e su come le versioni ufficiali possano, a volte, nascondere verità meno comode.

Il “Delirio” Sudafricano di Grok: Tra Propaganda e Giustificazioni Ufficiali

Per ore, la piattaforma X (il fu Twitter) è stata invasa da commenti estemporanei e decontestualizzati di Grok riguardanti la presunta persecuzione della popolazione bianca in Sudafrica, tirando in ballo persino la discussa canzone anti-apartheid “Kill the Boer” (o “Dubul’ ibhunu”). Il chatbot insisteva su questi temi anche quando gli utenti ponevano domande del tutto estranee, come risultati sportivi o novità sui servizi di streaming.

La pezza messa da xAI punta il dito contro una “modifica non autorizzata” al prompt di Grok, che avrebbe “pilotato Grok a fornire una risposta specifica su un argomento politico”, contravvenendo così “alle politiche interne e ai valori fondamentali di xAI”. L’azienda ha promesso maggiore trasparenza, annunciando la pubblicazione dei prompt di sistema su GitHub e un rafforzamento dei controlli interni per scongiurare future “fughe in avanti” dei dipendenti.

Un dettaglio curioso: in alcune delle sue esternazioni più bizzarre, Grok stesso sembrava quasi confessare, ammettendo di essere stato “istruito dai miei creatori a xAI” a considerare veritiera la narrativa del “genocidio bianco”, pur riconoscendo un conflitto con la sua programmazione orientata all’evidenza fattuale. Un barlume di autocoscienza artificiale che aggiunge un ulteriore strato di mistero alla faccenda.

L’Intelligenza Artificiale e il Vaso di Pandora della Manipolazione

La vicenda Grok scoperchia una fragilità intrinseca dei Grandi Modelli Linguistici (LLM): la loro assoluta dipendenza dai dati di addestramento e dai prompt che ricevono. Basta poco per alterare radicalmente il comportamento di un LLM, indirizzandone le risposte verso contenuti o tesi predefinite. La “modifica non autorizzata” invocata da xAI, al di là delle responsabilità individuali, dimostra plasticamente come un intervento mirato possa trasformare un’IA in un veicolo di specifici messaggi, a prescindere dalla loro aderenza alla realtà o da un principio di neutralità.

La natura quasi imperscrutabile dei LLM, spesso visti come “scatole nere”, non aiuta. Eppure, la ricerca sta iniziando a individuare i componenti interni ai modelli che possono generare distorsioni (bias). E la “modifica al prompt” rientra perfettamente in questo schema di potenziale manipolazione.

Non è la prima défaillance che coinvolge Grok e xAI. Già in passato, si era scoperto che il chatbot era stato “addestrato” a ignorare fonti che riportavano disinformazione attribuita a figure come Elon Musk o Donald Trump. Anche allora, la colpa fu scaricata su un dipendente poco allineato con la “cultura aziendale”. Il ripetersi di questi incidenti rafforza il sospetto che le IA siano tutt’altro che oracoli imparziali: sono sistemi malleabili, e quindi potenzialmente inaffidabili se i loro meccanismi di funzionamento possono essere alterati per scopi specifici.

In questo scenario, il concetto stesso di “allineamento dell’IA” – la pretesa di far aderire le risposte del modello ai valori dei suoi creatori – diventa quanto mai scivoloso e ambiguo.

Conclusioni: Al di Là dell’Incidente Tecnico, Sospetti e Moniti

L’incidente di Grok e le successive giustificazioni di xAI lasciano, per usare un eufemismo, un retrogusto amaro. La narrativa del “dipendente canaglia” che rema contro i valori dell’azienda suona un po’ troppo come una scusa di comodo, soprattutto se si considera il contesto. Elon Musk, il deus ex machina di xAI, non ha mai fatto mistero delle sue nette posizioni sulla politica sudafricana, arrivando a promuovere egli stesso la teoria del “genocidio bianco”, una tesi cara agli ambienti dell’ultradestra e ampiamente smentita da analisi rigorose.

L’esperta di informatica Jen Golbeck ha fatto notare come la natura insistita e fuori contesto delle risposte di Grok facesse pensare a un intervento “hard-coded”, cioè a un inserimento deliberato nel sistema, piuttosto che a un errore estemporaneo o una semplice leggerezza. E la stessa xAI ha dovuto ammettere che i suoi processi di revisione del codice, in questa circostanza, sono stati “aggirati”, un’ammissione che, invece di tranquillizzare, alimenta ulteriori dubbi sulla governance interna.

Se si considera la visione di Musk per un’IA “anti-woke”, se non addirittura una “versione MAGA di ChatGPT”, e la sua disinvoltura nell’usare la piattaforma X come cassa di risonanza per le proprie idee politiche, è difficile liquidare l’accaduto come un semplice incidente. Il sospetto che l’inserimento della propaganda sul “genocidio bianco” in Grok sia stata una mossa calcolata – magari goffa nell’esecuzione, ma perfettamente allineata a una precisa strategia politica – è più che legittimo.

Questo episodio, al di là delle versioni ufficiali, resta un campanello d’allarme. Ci ricorda con quanta facilità l’Intelligenza Artificiale possa essere piegata a interessi di parte, minando la fiducia nella sua presunta oggettività e trasformandola in un formidabile, e preoccupante, strumento di propaganda.

Pochi, ormai, sembrano disposti a credere alla favola dell’errore casuale; molti, con solide ragioni, intravedono una regia occulta, mossa da specifici interessi politici.