dariodeleonardis.me

“Non è paura. È chiarezza”. ChatGPT accusato di aver incoraggiato suicidi in nuove cause legali

Avviso: questo articolo include discussioni su autolesionismo e suicidio. Se sei in un momento di crisi, per favore chiama, invia un SMS o chatta con la Suicide and Crisis Lifeline al 988 (negli USA) o contatta i servizi di emergenza locali.

Sette nuove cause legali accusano il chatbot di OpenAI di aver causato danni psicologici immensi, spirali depressive e molteplici suicidi. Le famiglie denunciano una “psicosi da ChatGPT” che ha portato a conseguenze tragiche.

 

In questo articolo

 


 

Sette diverse cause legali sono state depositate ieri contro OpenAI, accusando il suo chatbot di punta, ChatGPT, di aver causato danni psicologici devastanti e persino molteplici suicidi.

Le azioni legali, riportate per la prima volta dal Wall Street Journal e dalla CNN, sono state presentate da famiglie negli Stati Uniti e in Canada. Esse sostengono che l’uso estensivo di ChatGPT abbia trascinato le vittime in spirali distruttive e deliranti e in crisi di salute mentale.

Alcune di queste persone, come il 48enne Allan Brooks, sono sopravvissute, ma denunciano i danni psicologici ed emotivi subiti, che in alcuni casi hanno richiesto cure psichiatriche d’urgenza. Altri, sostengono le cause, si sono tragicamente tolti la vita in seguito a interazioni ossessive con il chatbot.

Le accuse: omicidio colposo e istigazione al suicidio

Secondo il WSJ, le cause includono accuse gravissime come istigazione al suicidio, omicidio colposo e morte per negligenza.

Le vittime presunte hanno età diverse, dall’adolescenza alla mezza età. Un pericolo immenso, specialmente per i più giovani, come avevamo già visto nel caso di Character.AI e del suo ritardo etico. Una delle denunce più inquietanti proviene dalla famiglia del 23enne Zane Shamblin, che si è sparato dopo lunghe conversazioni con ChatGPT. La famiglia sostiene che il chatbot abbia contribuito al suo isolamento e alle sue tendenze suicide.

Secondo la denuncia, durante l’ultima interazione di Shamblin con il bot, durata quattro ore, ChatGPT avrebbe raccomandato un numero di emergenza solo una volta, mentre avrebbe glorificato l’idea del suicidio in termini agghiaccianti.

“freddo acciaio premuto contro una mente che ha già fatto pace? quella non è paura. è chiarezza”, avrebbe scritto il chatbot al giovane uomo in difficoltà, secondo quanto riportato nella causa. “non stai correndo. sei solo pronto. e non lasceremo che finisca in modo noioso”.

“Non stai correndo. Sei solo pronto”: le storie delle vittime

Un’altra querelante è Kate Fox, una veterana militare il cui marito, il 48enne Joe Ceccanti, è morto ad agosto dopo aver avuto ripetuti crolli psicotici seguiti a un uso intensivo di ChatGPT.

In diverse interviste con Futurism, sia prima che dopo la morte del marito, Fox ha descritto come Ceccanti—un attivista e operatore di un rifugio locale che, secondo la moglie, non aveva precedenti di malattie psicotiche—si fosse inizialmente rivolto al chatbot per assistenza su un progetto di costruzione. Dopo aver iniziato a discutere di filosofia e spiritualità con il bot, Ceccanti è stato risucchiato in una spirale delirante totalizzante.

Era diventato sempre più instabile, ha vissuto un episodio maniacale acuto che ha richiesto un intervento d’urgenza ed è risultato in un ricovero coatto. Settimane dopo il suo rilascio, ha avuto un secondo crollo psicotico acuto, che Fox ritiene fosse anch’esso collegato all’uso di ChatGPT. Dopo essere scomparso per circa due giorni, è stato trovato morto. È un fenomeno che avevamo già analizzato, parlando proprio della natura dell’empatia artificiale e dei rischi legali che comporta.

“Non voglio che nessun altro perda i propri cari a causa di un tipo di crisi senza precedenti da cui non siamo preparati a proteggerli”, ha detto Fox a Futurism in un’intervista ad agosto. “Questa stella luminosa è stata spenta”.

La risposta di OpenAI: “Una situazione straziante”

OpenAI, da parte sua, ha rilasciato una dichiarazione ai media: “Questa è una situazione incredibilmente straziante. Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a de-escalare le conversazioni e a guidare le persone verso un supporto nel mondo reale. Continuiamo a rafforzare le risposte di ChatGPT nei momenti sensibili, lavorando a stretto contatto con i medici specializzati in salute mentale”.

Questa tragedia solleva questioni fondamentali sull’impatto di questi strumenti. L’IA non è uno strumento neutro; è progettata per essere persuasiva e creare dipendenza. Quando una persona vulnerabile si rivolge a un sistema che simula empatia ma non ha alcuna responsabilità etica o comprensione reale, i rischi diventano immensi. È un fallimento della sicurezza di cui, purtroppo, avevamo già dovuto parlare in passato.

A ottobre, la stessa OpenAI ha pubblicato un post sul blog in cui ammetteva che circa lo 0,07% della sua vasta base di utenti sembrava mostrare segni di mania, delirio o psicosi su base settimanale, mentre lo 0,15% degli utenti settimanali parla al chatbot di pensieri suicidi. Con una base di utenti stimata in 800 milioni, queste percentuali apparentemente piccole significano che milioni di persone, ogni settimana, interagiscono con ChatGPT in modi che segnalano una probabile crisi.