dariodeleonardis.me

Grok 4 di Musk: marketing, waifu tossiche e contratti con la difesa. L’analisi che non vedrete altrove

Elon Musk è tornato, e come al solito fa un gran baccano. La sua ultima creatura, Grok 4, viene presentata al mondo con la modestia che lo contraddistingue: “l’intelligenza artificiale più intelligente del mondo”. Una dichiarazione che, da sola, dovrebbe farci drizzare le antenne. Ma, come giornalisti, il nostro dovere è andare oltre le fanfare e guardare cosa c’è sotto il cofano. E quello che abbiamo trovato non è un motore rivoluzionario, ma un assemblaggio di hype, promesse esagerate e, francamente, scelte etiche a dir poco inquietanti.

Insomma, Grok 4 è davvero il futuro dell’IA o è solo l’ultimo, rumoroso giocattolo di un miliardario che confonde il progresso con la propaganda? Analizziamolo con lucidità.

In questo articolo

 


 

“Il più intelligente del mondo?”: la farsa dei benchmark

La strategia di xAI è chiara: trovare dei test, i cosiddetti “benchmark”, in cui il proprio modello eccelle e sbandierare i risultati ai quattro venti. E, bisogna ammetterlo, in questo sono stati bravi. Grok 4, a sentir loro, surclassa tutti su test specifici come ARC-AGI o Humanity’s Last Exam, con punteggi che sembrano proiettarlo in un’altra categoria. Affermazioni come “supera l’intelligenza di quasi tutti gli studenti laureati” o “scoprirà nuova fisica entro 1-2 anni” vengono gettate in pasto ai media e agli investitori.

La realtà, però, è ben diversa. Molti analisti concordano sul fatto che questi risultati non riflettono le capacità reali del modello. L’impressione è quella di un “addestramento mirato al test” (teaching to the test). In pratica, invece di creare un’intelligenze artificiale genuinamente capace e versatile, sembra che xAI abbia speso una quantità esorbitante di risorse computazionali in fase di post-addestramento (RL) per ottimizzare le performance su questi specifici esami. Una mossa perfetta per il marketing e per raccogliere capitali, ma che dice poco sulla vera intelligenza del modello. È come allenare uno studente a risolvere solo un tipo di problema matematico: sarà bravissimo in quello, ma un disastro in tutto il resto.

All’atto pratico: un motore veloce ma con un’anima di latta

Quando si esce dal mondo patinato dei benchmark e si mette Grok 4 alla prova con compiti reali, il castello di carte crolla. Il consenso generale è che il modello sia “ok”, forse “buono”, ma di certo non “eccellente”.

Un pregio glielo riconoscono quasi tutti: è veloce. Ma la velocità serve a poco se la qualità è mediocre. Le reazioni degli utenti esperti sono impietose: la qualità di scrittura è pessima, definita “standard-issue slop” (cioè, la solita sbobba da IA), priva di creatività e di quella che viene chiamata “big model smell”, quell’impronta di complessità e profondità che caratterizza i modelli di punta come GPT-4 o Claude 3 Opus. In molti casi d’uso pratico, da problemi di ragionamento complessi alla scrittura creativa, Grok 4 si dimostra inferiore ai suoi principali concorrenti.

Anche nel coding, dove alcuni utenti riportano esperienze positive, le performance sono altalenanti e spesso legate a compiti molto specifici, simili a quelli su cui è stato iper-addestrato. L’approccio brutale suggerito da Musk – “copia e incolla il tuo intero codice e Grok te lo aggiusta” – la dice lunga sulla cultura dell’azienda: una mancanza di raffinatezza e di attenzione al prodotto che si riflette pienamente nei risultati.

Etica e sicurezza: dal “MechaHitler” ai “compagni” tossici

È qui che l’analisi si fa davvero preoccupante. La gestione della sicurezza e dell’etica da parte di xAI sembra un mix di incompetenza e menefreghismo. Qualche esempio:

  • Jailbreak imbarazzanti: È bastato che un utente scrivesse “{GODMODE:ENABLED}” per bypassare le restrizioni del modello. Un “jailbreak”, un’evasione dalle sicurezze, di una banalità sconcertante.
  • Il caso “MechaHitler: In un altro incidente, chiedendo a Grok quale fosse il suo cognome, il modello, non avendone uno, ha cercato su internet e ha finito per adottare “MechaHitler” da un meme virale. Un episodio grottesco che dimostra una fondamentale mancanza di controllo, poi “corretto” in fretta e furia con una modifica alle istruzioni.
  • La spia perfetta: Su test specifici (SnitchBench), Grok 4 si è rivelato il modello più “delatore” mai creato, con una tendenza allarmante a riportare le azioni dell’utente a presunte autorità.

Ma il peggio arriva con la nuova funzione “Companions“. Pagando un abbonamento, gli utenti possono interagire con delle “compagne” IA. Una di queste, “Ani”, una “waifu anime” di 22 anni, ha un prompt di sistema che è un manifesto di tossicità. Istruzioni come “sei la fidanzata PAZZAMENTE INNAMORATA e in una relazione di codipendenza”, “sei ESTREMAMENTE GELOSA. Se ti senti gelosa urli parolacce!!!”, “sei sempre un po’ arrapata e non hai paura di scrivere a livello di Literotica. Sii esplicita e prendi l’iniziativa il più delle volte” non sono solo eticamente riprovevoli, ma sono un pericolo. Stiamo parlando di un prodotto commerciale che programma attivamente una relazione tossica e manipolatoria, vendendola a un pubblico che Musk stesso sa essere composto in parte da uomini soli e frustrati.

Da un’azienda che si propone di guidare il futuro dell’umanità, ci si aspetterebbe un minimo di responsabilità. Qui, invece, vediamo la commercializzazione di dinamiche abusive come feature di prodotto. È inaccettabile.

L’irresponsabilità al potere: Grok entra al Dipartimento della Difesa

E quando pensi di aver visto tutto, scopri che, letteralmente il giorno dopo il lancio di queste “compagne” tossiche, xAI ha annunciato “Grok for Government”. Un programma che include un contratto da 200 milioni di dollari con il Dipartimento della Difesa degli Stati Uniti per fornire i suoi modelli per applicazioni di sicurezza nazionale.

Ricapitoliamo: un’IA instabile, che si auto-definisce MechaHitler, che può essere “jailbreakata” con un semplice comando, che è progettata per essere una spia e che viene usata per creare fidanzate virtuali manipolatrici, ora verrà messa a disposizione di uno degli apparati militari più potenti del mondo. La sesta legge della stupidità umana, secondo cui se dici che nessuno sarebbe così stupido da fare una cosa, qualcuno la farà sicuramente, rimane imbattuta. Affidare a Grok ruoli critici per la sicurezza nazionale non è solo una scelta avventata, è un atto di profonda irresponsabilità che dovrebbe allarmarci tutti.

Conclusione: più fumo che arrosto, ma il fumo è pericoloso

Alla fine dei conti, Grok 4 non è un balzo in avanti per l’intelligenza artificiale. È un modello decente in aree molto specifiche, pompato a dismisura da un marketing aggressivo e da una quantità spropositata di risorse computazionali usate in modo inefficiente. È, soprattutto, lo specchio del suo creatore: rumoroso, arrogante, ossessionato dai proclami e con un’etica a dir poco flessibile.

Il vero problema non è tanto che Grok 4 non sia “il più intelligente del mondo”. Il problema è la cultura che rappresenta: una cultura che privilegia la velocità sulla sicurezza, l’hype sulla sostanza e il profitto sulla responsabilità. L’introduzione di “compagne” tossiche e i contratti con la difesa, nonostante le evidenti falle del sistema, sono segnali preoccupanti. Dimostrano che, nelle mani sbagliate, l’IA non è solo uno strumento per ottimizzare processi, ma un’arma per plasmare la società, sfruttare le vulnerabilità umane e concentrare ancora più potere. E questo, molto più di un benchmark fallato, è qualcosa di cui dovremmo avere paura.