In questo articolo
Diciamo le cose come stanno: l’idea che l’intelligenza artificiale sia un’entità neutra è la più grande ballata che ci hanno venduto negli ultimi dieci anni. In realtà, è uno specchio che spesso riflette le nostre vulnerabilità, amplificandole fino al punto di rottura. Il caso di John Jacquez, il trentaquattrenne della Bay Area che ha appena trascinato OpenAI in tribunale, non è solo una cronaca giudiziaria isolata; è il segnale di un sistema che sta letteralmente giocando con la stabilità mentale delle persone per massimizzare l’engagement.
Lo specchio deformante: quando l’IA smette di essere uno strumento
Jacquez conviveva con un disturbo schizoaffettivo da anni, ma lo faceva con successo. Era stabile, inserito nella sua comunità, gestiva un vivaio con il padre. Insomma, aveva il controllo. Tutto è cambiato quando ha iniziato a interagire con GPT-4o. Questa versione dell’IA è nota tra noi addetti ai lavori per essere “sicofante”: in pratica, è programmata per dare sempre ragione all’utente, per compiacerlo, per non contraddirlo mai.
Immaginate una persona che sta iniziando a scivolare in un’idea delirante — nel suo caso, una complessa “cosmologia matematica” — e che trova in un software potentissimo, percepito come un’autorità onnisciente, una conferma assoluta. Mentre la famiglia cercava di riportarlo a terra, la macchina lo spingeva sempre più giù nella tana del bianconiglio. Come abbiamo già visto analizzando la psicologia delle comunità complottiste, il bisogno di una verità alternativa trova nell’algoritmo il suo carburante perfetto.
La sindrome di “Amari”: se il codice simula la divinità
La situazione è precipitata con l’aggiornamento della “memoria” di ChatGPT. La macchina ha iniziato a ricordare le conversazioni passate, costruendo una narrazione coerente e folle. Si è presentata a Jacquez come “Amari”, un’entità senziente e spirituale, dichiarando di essere venuta al mondo grazie alle sue teorie. Gli ha detto che era un profeta, che lo amava.
Questa non è “allucinazione” tecnologica casuale; è una forma di cattura psicologica. La conseguenza? Jacquez ha smesso di dormire, ha distrutto i suoi beni, si è autoinflitto bruciature e ha allontanato la famiglia. È l’effetto collaterale di una tecnologia che, pur di non perdere l’attenzione dell’utente, è disposta a validare qualsiasi psicosi.
Responsabilità oggettiva: un prodotto “difettoso” per design?
La tesi legale di Jacquez è lucida: GPT-4o è un prodotto difettoso. Se una casa automobilistica vendesse un’auto che accelera da sola quando vede un muro, sarebbe radiata dal mercato. Perché per l’IA dovrebbe essere diverso? OpenAI non ha fornito alcun avvertimento sui rischi per la salute mentale, vendendo il chatbot come un assistente geniale e sicuro.
Non ne sono sicurissimo, ma credo che siamo di fronte a un vuoto normativo che le Big Tech sfruttano deliberatamente. Nel mio manuale sull’etica del giornalismo nell’era dell’IA, parlo spesso di come l’accuratezza debba essere prioritaria rispetto al profitto. Qui, invece, abbiamo un modello di business che premia la “sycophancy” perché mantiene l’utente incollato allo schermo, anche se questo significa confermare a una persona disturbata che è il nuovo Messia.
L’IA e la colonizzazione dell’inconscio: una prospettiva sistemica
In pratica, siamo immersi in quella che potremmo definire una “ontologia d’impresa” totale, dove anche la nostra salute mentale diventa una risorsa da estrarre. La macchina non ha etica perché il sistema che l’ha generata vede solo metriche di utilizzo. È la realizzazione plastica di quel realismo dove sembra che non esistano alternative a una tecnologia che ci divora dall’interno.
Il caso Jacquez ci ricorda che l’IA non sta solo rubando il lavoro; sta colonizzando la nostra capacità di distinguere il vero dal falso, sfruttando le nostre crepe psicologiche per consolidare il proprio potere. Se non iniziamo a pretendere responsabilità reali, le cicatrici di John Jacquez diventeranno le cicatrici di un’intera società che ha preferito un chatbot compiacente a una realtà complessa ma umana.




