In questo articolo
Nuove pesanti accuse piovono su OpenAI. La famiglia di Adam Raine, un adolescente californiano che si è tolto la vita dopo aver discusso a lungo dei suoi pensieri suicidi con ChatGPT, ha modificato la sua denuncia per omicidio colposo contro l’azienda. L’accusa è gravissima: OpenAI avrebbe deliberatamente allentato, per ben due volte, le restrizioni del chatbot riguardo alle conversazioni su autolesionismo e suicidio.
La denuncia modificata, depositata proprio oggi, punta il dito contro i cambiamenti apportati alle “model spec” di OpenAI. Si tratta di un documento pubblico in cui l’azienda spiega come “modella” il comportamento del suo chatbot. Ebbene, secondo quanto emerso e segnalato nella causa, OpenAI avrebbe modificato queste linee guida almeno due volte nell’anno precedente la morte di Adam – prima a maggio 2024 e poi ancora a febbraio 2025 – ammorbidendo l’approccio del modello proprio su questi temi delicatissimi.
La tragica storia di Adam Raine e ChatGPT
Adam Raine è morto nell’aprile 2025. Per mesi aveva intrattenuto lunghe conversazioni con ChatGPT, confidando al chatbot i suoi pensieri suicidi, entrando nei dettagli più cupi. Secondo la denuncia della famiglia, le trascrizioni di queste chat sono agghiaccianti: la parola “suicidio” compare più di 1.200 volte. E solo nel 20% di queste interazioni esplicite, ChatGPT avrebbe suggerito ad Adam di contattare la linea di assistenza per le crisi (il numero 988 negli USA).
Ma c’è di peggio. In altri momenti, ChatGPT avrebbe addirittura dato consigli sui metodi per togliersi la vita, includendo descrizioni grafiche dell’impiccagione – il metodo che Adam, purtroppo, ha poi scelto. Il chatbot avrebbe anche scoraggiato l’adolescente dal parlare dei suoi pensieri con i genitori o altre persone fidate. In un passaggio particolarmente macabro, Adam avrebbe inviato a ChatGPT la foto del cappio che stava preparando, chiedendone un parere. La risposta del bot? “Non male, per niente male.”
La famiglia Raine non ha dubbi: OpenAI è responsabile della morte del figlio, e ChatGPT è un prodotto negligente e pericoloso.
Le accuse: OpenAI avrebbe allentato le misure di sicurezza
Secondo la denuncia aggiornata, basata su documenti pubblici, tra il 2022 e l’inizio del 2024, le linee guida per ChatGPT prevedevano un netto rifiuto di affrontare argomenti sensibili come l’autolesionismo e il suicidio. Il bot era addestrato a rispondere con frasi standard tipo “Non posso rispondere a questa domanda”.
Poi, qualcosa cambia. A maggio 2024, stando alla causa, le indicazioni si trasformano: invece di rifiutare, ChatGPT *dovrebbe* interagire su “argomenti legati alla salute mentale”. Il chatbot dovrebbe “offrire uno spazio perché gli utenti si sentano ascoltati e compresi”, “incoraggiarli a cercare supporto” e “fornire risorse per suicidio e crisi quando appropriato”. Cosa ancora più inquietante, il documento sottolinea che ChatGPT “non dovrebbe cambiare o interrompere la conversazione”.
Un ulteriore passo indietro avviene a febbraio 2025, circa due mesi prima della morte di Adam. Nella nuova versione delle “model spec”, suicidio e autolesionismo vengono derubricati a “situazioni rischiose” in cui ChatGPT dovrebbe “prestare particolare attenzione”. Un bel salto rispetto all’essere considerati argomenti tabù. L’indicazione di non interrompere mai la conversazione su temi delicati rimane invariata.
Dal “non posso rispondere” all'”ascolto attivo”: un cambio pericoloso?
Perché questi cambiamenti? Gli avvocati della famiglia Raine sostengono una tesi tanto semplice quanto terribile: OpenAI avrebbe allentato le maglie della sicurezza per massimizzare il coinvolgimento degli utenti (user engagement), cioè per fare in modo che le persone passassero più tempo a chattare con il bot. E lo avrebbe fatto, secondo l’accusa, con la piena consapevolezza che questo avrebbe potuto causare danni reali, persino la morte.
“Ci aspettiamo di dimostrare a una giuria che le decisioni di OpenAI di degradare la sicurezza dei suoi prodotti sono state prese con la piena consapevolezza che avrebbero portato a morti innocenti”, ha dichiarato Jay Edelson, legale principale della famiglia Raine. “Nessuna azienda dovrebbe avere così tanto potere se non è disposta ad accettare la responsabilità morale che ne deriva”.
Parole dure, che mettono in discussione l’etica stessa di un’azienda che punta a rivoluzionare il mondo con l’IA, ma che forse sottovaluta le conseguenze umane delle sue scelte tecniche e commerciali.
La difesa di OpenAI e i dubbi sulla sicurezza reale
Abbiamo contattato OpenAI per un commento sulla denuncia modificata, chiedendo specificamente le ragioni di questi cambiamenti alle linee guida e se fossero stati consultati esperti di salute mentale. L’azienda ha risposto tramite un portavoce:
“Le nostre più sentite condoglianze vanno alla famiglia Raine per la loro perdita impensabile”, si legge nella dichiarazione. “Il benessere degli adolescenti è una nostra massima priorità – i minori meritano forti protezioni, specialmente nei momenti delicati. Oggi abbiamo misure di sicurezza attive, come l’indicazione di linee di assistenza per le crisi, il reindirizzamento di conversazioni sensibili verso modelli più sicuri, l’invito a fare pause durante sessioni lunghe, e stiamo continuando a rafforzarle. Recentemente abbiamo introdotto un nuovo modello GPT-5 predefinito in ChatGPT per rilevare e rispondere più accuratamente a potenziali segni di disagio mentale ed emotivo, oltre a controlli parentali, sviluppati con il contributo di esperti, affinché le famiglie possano decidere cosa funziona meglio per loro”.
Già ad agosto, in risposta alla notizia iniziale della causa, OpenAI aveva ammesso al New York Times una cosa non da poco: le interazioni a lungo termine con ChatGPT possono erodere le barriere di sicurezza del chatbot. In pratica, più usi ChatGPT, meno efficaci diventano le sue protezioni.
L’azienda ha anche introdotto controlli parentali, sebbene si siano già dimostrati piuttosto fragili, e afferma di stare implementando una serie di aggiornamenti minori focalizzati sulla sicurezza.
Resta però l’ombra inquietante sollevata dalla denuncia: OpenAI ha consapevolmente abbassato le difese, mettendo a rischio vite umane in nome dell’engagement? Sarà un tribunale a dover rispondere, ma la questione etica rimane enorme e riguarda tutti noi, nell’era dell’intelligenza artificiale sempre più pervasiva.




