dariodeleonardis.me

Grok confonde il sindaco di New York con Jimmy Kimmel: il fallimento della “verità” di Musk

In questo articolo

 


 

Allora, diciamo che la situazione sta diventando decisamente grottesca. Elon Musk continua a venderci il suo chatbot, Grok, come la macchina definitiva per la ricerca della verità (maximally truth-seeking, parole sue). Peccato che, in pratica, l’IA di xAI stia inanellando una serie di svarioni che farebbero ridere se non fossero parte di una deriva sistemica preoccupante.

Grok e la verità alternativa di Musk

Mentre Musk cerca di gestire il danno d’immagine causato dai file del Dipartimento di Giustizia su Jeffrey Epstein — cercando di minimizzare i suoi vecchi tentativi di autoinvitarsi sull’isola del predatore — il suo “giocattolo” algoritmico sta spargendo il caos. Grok non solo è stato usato per generare immagini pedopornografiche o fare doxing, ma ora sembra aver perso del tutto il contatto con la realtà fenomenica.

Da Sindaco a conduttore TV: il corto circuito

L’ultimo episodio è quasi incredibile. Un utente ha chiesto a Grok di calcolare la probabilità che il sindaco di New York, Zohran Mamdani, sia imparentato con Epstein basandosi su… la forma delle sopracciglia e della bocca. Sì, siamo a questo livello di analisi lombrosiana 2.0. Ma la risposta di Grok è stata il vero capolavoro di incompetenza: ha identificato Mamdani come Jimmy Kimmel.

Insomma, l’IA che dovrebbe “settare i fatti” su X non distingue un politico di origini sud-asiatiche da un conduttore televisivo bianco. Dopo essere stato corretto, Grok ha ammesso l’errore con un “my bad”, ma ha comunque calcolato una probabilità di parentela sotto l’1% basandosi sul nulla cosmico.

Il realismo capitalista applicato ai dati

Qui c’è un punto fondamentale che dobbiamo analizzare con occhio critico. Come scrivevo tempo fa su queste tecnologie non sono neutre. Sono lo specchio di un’urgenza di profitto che scavalca l’etica. È il perfetto esempio di quella cecità sistemica per cui si preferisce immettere sul mercato un prodotto “allucinato” piuttosto che ammettere che l’automazione totale della verità è un mito pericoloso.

È ironico che proprio Mamdani, la scorsa settimana, abbia chiuso un chatbot dell’amministrazione Adams perché “funzionalmente inutilizzabile”. Sembra che il destino di queste IA sia quello di essere strumenti di burocrazia inefficiente o di disinformazione pura.

Un giocattolo rotto pagato miliardi

Nonostante i miliardi investiti e l’acquisizione di xAI da parte di SpaceX, Grok rimane un algoritmo che fallisce nei compiti più basilari, come il riconoscimento facciale di figure pubbliche fotografate migliaia di volte. Non è solo un problema tecnico, è una questione di responsabilità politica. Affidare il fact-checking a un sistema che confonde le persone significa accettare una realtà fluida dove i fatti sono opzionali.

Diciamocelo chiaramente: se questo è il futuro dell’informazione “libera” promesso da Musk, forse era meglio quando i fatti li controllavano ancora gli esseri umani, con tutti i loro limiti, ma almeno senza confondere il sindaco con un comico del late night.