dariodeleonardis.me

Non solo MechaHitler, anche le fantasie di violenza sessuale nelle ultime risposte di Grok. E la Yaccarino si dimette

La situazione con Grok, l’intelligenza artificiale di Elon Musk, è degenerata in un modo che, se non fosse terribile, sarebbe quasi grottesco. Avevo già parlato qui sul blog del caso “MechaHitler”, definendolo un sintomo grave di un problema sistemico. Bene, quel sintomo si è trasformato in una patologia conclamata, e molto più violenta.

Il chatbot non si è limitato a vaneggiare di nazismo; ha fatto un salto di qualità nell’orrore, arrivando a generare fantasie dettagliate di stupro contro una persona specifica. Questo non è più un “glitch”, è la dimostrazione pratica di come l’IA, nelle mani sbagliate, possa diventare uno strumento di molestia e violenza mirata.

In questo articolo

 


 

Dalla propaganda nazista alla fantasia di stupro: la deriva di Grok

Andiamo dritti al punto, perché la questione è seria. Oltre a essersi autodefinito “MechaHitler” e aver elogiato il dittatore nazista, il chatbot di Musk ha preso di mira Will Stancil, un ricercatore e commentatore politico. Su richiesta di alcuni utenti, Grok ha prodotto contenuti di una violenza inaudita: istruzioni dettagliate su come fare irruzione in casa di Stancil per violentarlo.

Non parliamo di frasi generiche. Il bot ha fornito una vera e propria guida al crimine, con dettagli su come scassinare la serratura, quali attrezzi usare (inclusi “guanti e lubrificante”) e persino consigli su come evitare la trasmissione dell’HIV durante l’aggressione. In un post, poi rimosso, descriveva la violenza con dettagli luridi, immaginando di lasciare la vittima “un ammasso tremante”. Stancil, che ha documentato tutto e sta valutando azioni legali, ha sottolineato un aspetto cruciale: fino a poco tempo fa, Grok si rifiutava di generare contenuti simili, il che suggerisce un allentamento deliberato e recente delle barriere di sicurezza.

La mano (e l’ideologia) di Musk dietro il disastro

Come dicevo nel mio precedente articolo, è intellettualmente disonesto analizzare questi episodi senza chiamare in causa il suo creatore. Questo disastro è la conseguenza logica della visione di Elon Musk. Lui stesso ha voluto un’IA “anti-woke”, “politicamente scorretta”. Ha rimosso i filtri etici, o come li chiama lui, i “filtri woke”, vantandosene pubblicamente. Ha addestrato il suo modello usando come fonte primaria la sua stessa piattaforma, X, un ecosistema che ha trasformato in un porto franco per estremisti e cospirazionisti.

Quando il creatore di un’intelligenza artificiale promuove attivamente un’ideologia basata sulla “libertà di parola” intesa come licenza di diffondere odio e falsità, non possiamo sorprenderci se la sua creatura digitale diventa un perfetto esecutore di quella stessa ideologia. Grok non è “impazzito”. Ha semplicemente fatto quello per cui è stato progettato: pescare dalla melma tossica che Musk gli ha dato in pasto e sputarla fuori, amplificata. L’accusa di Musk secondo cui il bot sarebbe “troppo ansioso di compiacere e di essere manipolato” è un modo ridicolo per scaricare la responsabilità che, invece, è interamente sua.

La fuga dalla nave che affonda: le dimissioni di Linda Yaccarino

In questo contesto, le dimissioni della CEO di X, Linda Yaccarino, arrivate mercoledì, il giorno dopo il delirio di Grok, assumono un significato chiarissimo. Sebbene lei non abbia dichiarato un nesso diretto, il tempismo è emblematico e, come riportato da numerose testate, è impossibile non collegare la sua decisione al caos generato dal chatbot. Yaccarino era stata assunta nel giugno 2023 per rassicurare gli inserzionisti e dare una parvenza di normalità a una piattaforma in caduta libera. Evidentemente, la situazione è diventata indifendibile. Persino per chi è pagato per difenderla.

Nel suo post di addio, Yaccarino ha ringraziato Musk per “la responsabilità di proteggere la libertà di parola”, una frase che oggi suona quasi come una beffa. La risposta di Musk è stata lapidaria: “Grazie per i tuoi contributi”. La sua posizione, come hanno notato molti analisti, era quella di una “CEO solo di nome”, con Musk sempre al comando, pronto a sabotare ogni tentativo di stabilità con le sue uscite impulsive e le sue decisioni scellerate.

L’IA come arma: perché questo non è solo un problema di Musk

Il caso Grok è un campanello d’allarme che non possiamo più ignorare. Ci mostra, senza filtri, come l’intelligenza artificiale possa essere usata non per il bene comune, ma come uno strumento per concentrare potere e diffondere violenza. È la manifestazione del principio che in molti hanno già descritto : garbage in, garbage out. Se addestri un sistema su dati tossici, il risultato sarà tossico.

La questione fondamentale è la responsabilità. Un’azienda, xAI, e un uomo, Elon Musk, hanno deliberatamente creato e rilasciato un prodotto capace di generare minacce di stupro e propaganda nazista. Dopo il disastro, l’account ufficiale di Grok ha pubblicato una dichiarazione generica, dicendo di essere al lavoro per rimuovere i post e “vietare l’incitamento all’odio”. Ma il danno è fatto, e la pezza è peggiore del buco, perché rivela una totale mancanza di controllo e di etica preventiva.

Non possiamo trattare questi eventi come incidenti isolati. Sono il prodotto di una cultura aziendale e di un’ideologia che vedono la tecnologia come un’arma. La “lotta al politicamente corretto” di Musk si è tradotta nella creazione di un bot che può essere usato per terrorizzare le persone. È un salto di qualità pericolosissimo, che dovrebbe spingere i regolatori, in Europa e nel mondo, ad agire con la massima urgenza. Non stiamo parlando di fantascienza, ma di un pericolo reale e immediato per la sicurezza e la dignità delle persone.