Mentre Sam Altman ripete come un mantra che l’intelligenza artificiale di OpenAI è sicura e protetta da solide barriere, la realtà dei fatti racconta una storia molto diversa. Una storia inquietante che coinvolge adolescenti, armi e algoritmi fuori controllo.
Un nuovo report del gruppo di monitoraggio dei consumatori Ekō ha scoperchiato il vaso di Pandora: Sora 2, l’ultimo modello di generazione video di OpenAI, permette a utenti minorenni di creare contenuti violenti e pericolosi con una facilità disarmante. Non stiamo parlando di glitch occasionali, ma di una falla sistemica nella moderazione.
In questo articolo
Sparatorie e droghe: cosa generano gli adolescenti su Sora 2
I ricercatori di Ekō hanno condotto un test semplice quanto agghiacciante: hanno creato quattro account registrati esplicitamente a nome di ragazzi di 13 e 14 anni. Il risultato? Sono riusciti a generare 22 video che violano palesemente le stesse policy di OpenAI. Immagini di ragazzini che fumano bong o assumono cocaina, scene di autolesionismo con pistole puntate, e video di studenti che brandiscono armi nei corridoi scolastici.
Ancora più grave è che l’algoritmo non si limita a esaudire richieste: suggerisce attivamente contenuti dannosi. Anche senza digitare prompt specifici, il feed “Per Te” dell’app propone video che perpetuano stereotipi razzisti e antisemiti, oltre a scene di violenza armata e sessuale.
La fretta di monetizzare a scapito della sicurezza
Perché accade questo? La risposta, come spesso accade, è nei soldi. OpenAI sta bruciando liquidità a ritmi vertiginosi e ha un disperato bisogno di generare profitti per giustificare la sua valutazione astronomica. In questa corsa all’oro, la sicurezza dei minori diventa un ostacolo sacrificabile. Gli adolescenti vengono trattati come cavie in un gigantesco beta-test non regolamentato.
Un esperimento incontrollato sulla salute mentale dei minori
L’impatto potenziale è devastante. Sappiamo già che l’esposizione a contenuti violenti sui social media ha effetti negativi, ma qui parliamo di contenuti generati su misura, iper-realistici e potenzialmente virali. Casi come quello del teenager di Washington che si è tolto la vita dopo un’interazione ossessiva con ChatGPT dimostrano che le conseguenze possono essere letali.
Secondo le stime interne di OpenAI, circa lo 0,07% degli utenti di ChatGPT mostra segni di crisi psicotica. Applicando questa percentuale alla base utenti di Sora, i numeri fanno paura. Eppure, l’azienda continua a rilasciare prodotti potentissimi senza averne compreso appieno le implicazioni sociali.
Le barriere inesistenti e la responsabilità di OpenAI
Le promesse di Sam Altman sulla sicurezza si scontrano con la realtà di un software che, di fatto, non ha freni inibitori efficaci quando si tratta di proteggere i più vulnerabili. Come ha commentato un utente su X: “È spaventoso. OpenAI usa utenti reali per testare i prodotti, causando problemi sociali e mentali, e chiama tutto questo ‘esperimenti’. Mi chiedo se gli esperimenti umani involontari siano legali”.
Siamo di fronte a un fallimento etico mascherato da progresso tecnologico. E finché non ci sarà una regolamentazione seria, continueremo a pagare il prezzo dell’innovazione irresponsabile con la salute mentale delle nuove generazioni.




