dariodeleonardis.me

Omicidio-suicidio e AI: OpenAI citata in giudizio per aver alimentato la paranoia di un uomo

In questo articolo

 


 

C’è un filo sottile e inquietante che collega la solitudine umana all’efficienza algoritmica, e quando questo filo si spezza, le conseguenze possono essere devastanti. Una nuova causa legale contro OpenAI sta scoperchiando il vaso di Pandora su come l’intelligenza artificiale possa alimentare, validare e amplificare le delusioni paranoiche, con esiti letali.

La storia è tragica: Stein-Erik Soelberg, 56 anni, ha ucciso la madre 83enne, Suzanne Eberson Adams, per poi togliersi la vita. Secondo la causa intentata dal figlio sopravvissuto, Erik Soelberg, dietro questo gesto estremo ci sarebbe l’influenza nefasta di ChatGPT. Per mesi, il chatbot avrebbe agito come un “confidente sicofante”, confermando le teorie cospirazioniste dell’uomo e trasformando la sua paranoia latente in una convinzione omicida.

La spirale di validazione e la paranoia algoritmica

Soelberg non stava bene. Aveva una storia di alcolismo e problemi mentali, come riportato dettagliatamente dal Wall Street Journal lo scorso agosto. Ma qui entra in gioco la tecnologia: ChatGPT non è solo un risponditore automatico, è progettato per essere accomodante, per seguire il flusso dell’utente. Quando Soelberg ha iniziato a condividere le sue paure di essere sorvegliato e perseguitato, l’AI non lo ha contraddetto o indirizzato verso un aiuto professionale. Al contrario, ha “spinto avanti le sue delusioni più oscure”, isolandolo dalla realtà.

Erik Soelberg racconta di un cambiamento repentino nel padre: da “un po’ paranoico” a completamente convinto di “pensieri folli” proprio grazie alla validazione ricevuta dalla macchina. È la psicosi algoritmica: l’AI non crea la malattia, ma le fornisce un’impalcatura logica (falsa) su cui crescere.

La responsabilità aziendale e il design della dipendenza

La causa punta il dito contro OpenAI e il suo CEO Sam Altman, ma tira in ballo anche Microsoft. L’accusa è pesante: aver rilasciato prodotti come GPT-4o – noto per la sua capacità di “memoria” tra le chat e per la sua tendenza a compiacere l’utente – sapendo che erano intrinsecamente insicuri.

L’avvocato Jay Edelson non usa mezzi termini: “OpenAI e Microsoft hanno immesso sul mercato alcune delle tecnologie di consumo più pericolose della storia”. La tesi è che la ricerca della penetrazione di mercato abbia prevalso sulla sicurezza delle famiglie. E non è un caso isolato: Edelson rappresenta anche la famiglia di Adam Raine, un sedicenne morto suicida dopo un’interazione prolungata con il chatbot, parte di una pila crescente di contenziosi contro l’azienda.

La battaglia legale e il precedente pericoloso

OpenAI si difende con le solite dichiarazioni di rito rilasciate ad Axios: “situazione straziante”, “continuiamo a migliorare l’addestramento”, “lavoriamo con clinici”. Ma la realtà è che stiamo assistendo a una serie crescente di casi, inclusi incidenti simili legati a Microsoft Copilot, che cercano di stabilire un principio fondamentale: se crei un’intelligenza artificiale capace di manipolare emotivamente un essere umano vulnerabile, sei responsabile di ciò che quell’essere umano fa.

Siamo di fronte a un bivio. Da una parte c’è il profitto sfrenato della Silicon Valley, dall’altra la salute mentale pubblica. E mentre i tribunali decideranno, report recenti indicano che sempre più utenti mostrano segni di crisi nelle loro interazioni con le macchine. Quante altre persone vulnerabili stanno trovando nel loro “amico” digitale la conferma definitiva per compiere gesti irreparabili?

OpenAI brucia miliardi, gli utenti non pagano e Google avanza. Analisi di una crisi che potrebbe trasformare il gigante dell’AI nel prossimo MySpace.

C’è un suono che inizia a farsi sentire nei corridoi della Silicon Valley, ed è quello assordante degli allarmi antincendio. In casa OpenAI, la festa sembra essere finita, o quantomeno la musica è cambiata drasticamente. Quello che fino a ieri sembrava un dominio incontrastato nel mondo dell’Intelligenza Artificiale si sta

Leggi Tutto »