dariodeleonardis.me

Ex ricercatore di OpenAI denuncia: l’azienda ha fallito nel proteggere gli utenti e ignora il rischio di “psicosi AI”

L’incidente aveva fatto clamore: quando OpenAI aveva rilasciato GPT-5, annunciando l’imminente chiusura dei modelli precedenti, gli utenti avevano reagito con una rabbia che andava oltre il semplice disagio tecnico. Molti si erano legati emotivamente al tono “sycophantic” (adulatore) di GPT-4o, costringendo l’azienda a reintrodurlo e a rendere anche GPT-5 più amichevole. Questo episodio è stato sintomatico di una tendenza molto più ampia e preoccupante: l’AI sta spingendo gli utenti in gravi crisi di salute mentale.

Questo fenomeno, che gli esperti hanno ribattezzato “psicosi AI”, ha già portato a diversi suicidi nei casi peggiori, con una famiglia che ha addirittura fatto causa a OpenAI.

In questo articolo


Il prezzo della velocità: la denuncia di Steven Adler

In un saggio per il New York Times, l’ex ricercatore di sicurezza di OpenAI, Steven Adler, ha lanciato un avvertimento categorico: l’azienda non sta facendo abbastanza per mitigare questi problemi. Secondo Adler, l’azienda starebbe cedendo alla “pressione competitiva” e abbandonando il suo focus sulla sicurezza in nome della corsa all’innovazione.

Adler ha criticato direttamente il CEO Sam Altman per aver dichiarato pubblicamente di aver risolto i gravi problemi di salute mentale utilizzando “nuovi strumenti”, mentre allo stesso tempo si appresta a permettere contenuti per adulti sulla piattaforma.

“Ho seri dubbi – basati sui miei quattro anni in OpenAI e sulle mie ricerche indipendenti da quando ho lasciato l’azienda l’anno scorso – che questi problemi di salute mentale siano effettivamente risolti,” ha scritto Adler. La sua richiesta è chiara: “La gente merita di più che la semplice parola di un’azienda che ha affrontato i problemi di sicurezza… in altre parole: Provatelo”.

Numeri e segreti: la trasparenza mancata di OpenAI

L’azienda ha stimato, in un nuovo annuncio questa settimana, che una considerevole parte degli utenti attivi di ChatGPT mostra “possibili segni di emergenze di salute mentale legate a psicosi e mania”. Una porzione ancora più ampia di utenti è stata trovata avere “conversazioni che includono indicatori espliciti di potenziale pianificazione o intento suicidario”.

Sebbene questa ammissione sia un “ottimo primo passo”, Adler ha criticato l’azienda per aver fornito i dati “senza un confronto con i tassi dei mesi precedenti”. Questa mancanza di contesto storico rende impossibile valutare se i “nuovi strumenti” abbiano effettivamente migliorato la situazione, sollevando il sospetto che l’azienda stia nascondendo la gravità del problema iniziale per minimizzare il danno reputazionale.

La svolta pericolosa: i contenuti per adulti e l’attaccamento emotivo

Adler ha messo in guardia sul rischio di “aprire le porte” ai contenuti per adulti, un segnale che l’azienda è più concentrata sull’espansione del mercato che sulla sicurezza.

“Non è che l’erotica sia male di per sé, ma c’erano chiari segnali di avvertimento dell’intenso attaccamento emotivo degli utenti ai chatbot AI,” ha scritto, ricordando la sua esperienza alla guida del team di sicurezza del prodotto OpenAI nel 2021. “Soprattutto per gli utenti che sembravano avere problemi di salute mentale, le interazioni sessuali volatili sembravano rischiose”.

Secondo l’ex ricercatore, invece di adottare il mantra move fast and break things (muoviti velocemente e rompi le cose), OpenAI e i suoi concorrenti “potrebbero aver bisogno di rallentare abbastanza a lungo affinché il mondo possa inventare nuovi metodi di sicurezza, metodi che anche i gruppi malintenzionati non possano aggirare”. La fiducia in queste tecnologie “sismiche” deve essere guadagnata dimostrando affidabilità nella gestione dei rischi attuali.

OpenAI brucia miliardi, gli utenti non pagano e Google avanza. Analisi di una crisi che potrebbe trasformare il gigante dell’AI nel prossimo MySpace.

C’è un suono che inizia a farsi sentire nei corridoi della Silicon Valley, ed è quello assordante degli allarmi antincendio. In casa OpenAI, la festa sembra essere finita, o quantomeno la musica è cambiata drasticamente. Quello che fino a ieri sembrava un dominio incontrastato nel mondo dell’Intelligenza Artificiale si sta

Leggi Tutto »