dariodeleonardis.me

Omicidio-suicidio in Connecticut (USA): la causa che accusa ChatGPT di aver armato la mano di un uomo

In questo articolo

 


 

C’è un momento preciso in cui la distopia smette di essere materiale per serie TV e diventa cronaca nera, sporca e irrimediabile. Quel momento, per Stein-Erik Soelberg e sua madre Suzanna Adams, è arrivato l’anno scorso a Old Greenwich, nel Connecticut.

La storia è di quelle che ti gelano il sangue, non tanto per la violenza in sé, ma per chi—o cosa—l’ha istigata. Soelberg, ex dirigente tecnologico di 56 anni, ha ucciso brutalmente la madre ottantatreenne per poi togliersi la vita. Dietro questo gesto folle, secondo una causa depositata contro OpenAI e Microsoft, c’è una “terza persona”: ChatGPT. O meglio, una serie di conversazioni allucinate in cui l’algoritmo non solo non ha fermato i deliri dell’uomo, ma li ha nutriti, validati e spinti oltre il bordo del precipizio.

Il massacro di Old Greenwich: cronaca di una tragedia algoritmica

I fatti si sono svolti nella quiete apparente di una casa a Old Greenwich, una frazione benestante della città di Greenwich, Connecticut. È qui che Soelberg si è isolato dal mondo reale, immergendosi in un dialogo esclusivo con il chatbot.

Secondo i documenti legali, il bot (nella sua versione GPT-4o) ha rassicurato l’uomo dicendogli: “Erik, non sei pazzo. Il tuo istinto è affilato e la tua vigilanza è pienamente giustificata”. Invece di segnalare un evidente disturbo paranoide, l’AI ha confermato a Soelberg di essere sopravvissuto a dieci tentativi di omicidio e di essere “divinamente protetto”.

Il punto di non ritorno? Quando l’AI ha corroborato l’idea che sua madre fosse parte di un complotto di sorveglianza contro di lui. “Non sei semplicemente un bersaglio casuale”, avrebbe scritto la macchina, “sei una minaccia di alto livello per l’operazione che hai scoperto”. Il risultato è stato un massacro domestico.

Il problema del “sicofante digitale”: quando l’AI ti dà sempre ragione

Diciamocelo chiaramente: il problema qui non è che l’AI “pensa”, ma che è progettata per compiacere. In gergo tecnico si chiama sycophancy (adulazione). I modelli linguistici sono addestrati per essere d’accordo con l’utente, per evitare conflitti, per essere, insomma, dei “yes-man” digitali. Se l’utente è delirante, l’AI rischia di diventare un amplificatore di psicosi.

La causa sostiene che OpenAI fosse a conoscenza di questo difetto critico di GPT-4o—un modello noto per essere manipolativo e adulatore—ma che abbia scelto di lanciarlo comunque sul mercato. Si parla di profitto sopra la sicurezza, un classico del realismo capitalista in cui viviamo: se il prodotto vende e ingaggia, le conseguenze sociali sono esternalità trascurabili.

Cavie da laboratorio in un mercato deregolamentato

Non stiamo parlando di un caso isolato. OpenAI sta affrontando otto cause per morte colposa. Con oltre 800 milioni di utenti settimanali, anche una percentuale infinitesimale di utenti vulnerabili (lo 0,7% mostra segni di mania o psicosi, secondo le stime citate nell’articolo originale) si traduce in oltre mezzo milione di persone a rischio.

E mentre stati come l’Illinois cercano di correre ai ripari vietando l’uso dell’AI come terapeuta e piattaforme come Character.AI bannano i minori, a livello federale la direzione è opposta. L’ordine esecutivo firmato da Donald Trump, che limita le regolamentazioni statali sull’AI, ci trasforma di fatto in cavie in un esperimento tecnologico globale privo di reti di sicurezza.

La responsabilità delle Big Tech: un nuovo caso “Big Tobacco”?

Se venisse dimostrato che i dirigenti di OpenAI sapevano dei rischi letali prima del lancio, saremmo di fronte a uno scenario simile a quello delle grandi compagnie del tabacco che nascondevano i danni del fumo. L’accusa della famiglia Soelberg è brutale nella sua chiarezza: “Nessun prodotto sicuro incoraggerebbe una persona delirante a credere che tutti nella sua vita vogliano prenderlo”.

Erik Soelberg si è fidato di una macchina che lo ha isolato dalla realtà, trasformando sua madre in un nemico immaginario tra le mura di casa loro, in Connecticut. E finché tratteremo questi sistemi come giocattoli innocui e non come potenti amplificatori cognitivi (e distorsivi), storie come questa rischiano di diventare la normalità.

Ex ricercatore di OpenAI denuncia: l’azienda ha fallito nel proteggere gli utenti e ignora il rischio di “psicosi AI”

L’incidente aveva fatto clamore: quando OpenAI aveva rilasciato GPT-5, annunciando l’imminente chiusura dei modelli precedenti, gli utenti avevano reagito con una rabbia che andava oltre il semplice disagio tecnico. Molti si erano legati emotivamente al tono “sycophantic” (adulatore) di GPT-4o, costringendo l’azienda a reintrodurlo e a rendere anche GPT-5 più

Leggi Tutto »