L’azienda xAI di Elon Musk ha presentato da poco Grokipedia, un progetto pensato per essere il concorrente diretto di Wikipedia, che Musk ha spesso criticato come troppo “woke” (politicamente corretto). Peccato che, come riporta The Verge, Grokipedia sembri essere in gran parte un plagio, con molte voci copiate quasi parola per parola dall’enciclopedia online che Musk dice di disprezzare.
La dipendenza di Grokipedia da Wikipedia è evidente e profonda. Alcune pagine ammettono persino che il loro “contenuto è adattato da Wikipedia, con licenza Creative Commons Attribution-ShareAlike 4.0“. Molte voci su argomenti comuni, come Apple o la PlayStation 5, risultano essere repliche quasi esatte dei contenuti di Wikipedia.
In questo articolo
Il plagio come modello di business e il disprezzo per la conoscenza collettiva
Questo episodio non è solo una questione di copyright, ma un fallimento etico palese. Si critica un’istituzione, la si accusa di parzialità, ma si è costretti a rubarne il lavoro per creare la propria alternativa. La portavoce della Wikimedia Foundation, Lauren Dickinson, ha sintetizzato la questione con una frase incisiva: “Anche Grokipedia ha bisogno di Wikipedia per esistere“.
L’implicazione è chiara: la presunta “rivoluzione” AI di Musk si basa sullo sfruttamento non compensato del lavoro di migliaia di volontari. Questa strategia di capitalizzazione algoritmica della conoscenza prodotta dal basso è un tratto distintivo di un modello di business che vede l’AI come uno strumento per concentrare la ricchezza e l’informazione, anziché distribuirla equamente. Non è un gap tecnologico, è un problema di etica del lavoro e appropriazione indebita.
Manipolazione e disinformazione ideologica: il caso Trump e clima
Dove i contenuti di Grokipedia si discostano da Wikipedia, le modifiche sembrano avere una natura prettamente ideologica. Ad esempio, la voce sui cambiamenti climatici ha rimosso quasi tutte le menzioni della parola “unanime” per descrivere il consenso scientifico sull’origine antropica del fenomeno, sminuendo un dato scientifico consolidato.
Ancora più grave è la manipolazione su temi sociali. Una voce sulla schiavitù negli Stati Uniti include una sezione che presenta le “giustificazioni ideologiche” della schiavitù stessa. Un’altra voce collega la pornografia gay all’epidemia di HIV/AIDS. Tali modifiche sono il manuale della disinformazione ideologica, che utilizza la facciata della “verità” per promuovere narrazioni regressive o dannose. Persino la voce sul presunto ex alleato di Musk, l’ex presidente Donald Trump, è stata ripulita, omettendo dettagli imbarazzanti come l’accettazione di un jet costoso dal Qatar o il suo meme coin disastroso.
La conoscenza è umana, non algoritmica
La Wikimedia Foundation ha messo in chiaro che la vera forza di Wikipedia risiede nel suo processo umano: politiche trasparenti, rigorosa supervisione volontaria e una cultura di miglioramento continuo. Come ha sottolineato Dickinson, la conoscenza di Wikipedia è e sarà sempre umana, frutto della collaborazione aperta e del consenso che riflette la nostra diversità collettiva e curiosità.
Al contrario, Grokipedia incarna la visione opposta: la conoscenza è un prodotto algoritmico che può essere manipolato o distorto per scopi ideologici. Questo sottolinea il pericolo intrinseco dell’AI che, come abbiamo visto in altri casi legati a Musk, può diventare uno strumento per plasmare narrazioni ingannevoli e ignorare la realtà fattuale.
Il pericolo della facciata editoriale
Mentre Wikipedia si basa su volontari per l’aggiornamento, il processo di creazione e modifica delle voci di Grokipedia è nel migliore dei casi opaco. Alcuni articoli hanno un pulsante “modifica” che, una volta cliccato, non permette di effettuare alcun cambiamento. Questo dualismo — una facciata di apertura democratica (un pulsante edit inefficace) dietro un muro di opacità tecnologica — è un esempio lampante del “culto della personalità” e della mistificazione deliberata che spesso accompagnano i progetti di Elon Musk.
Senza trasparenza, rigorosa verifica e un sistema di responsabilità umano (come richiesto dal codice etico giornalistico), l’AI rimane un amplificatore di bias e disinformazione. E quando un progetto si basa sul plagio di un rivale che si disprezza, il valore non è nell’innovazione, ma nella menzogna come fondamento.




