In questo articolo
Insomma, alla fine hanno dovuto cedere. OpenAI ha annunciato che manderà in pensione GPT-4o entro il 13 febbraio 2026. Non è una semplice pulizia di primavera dei vecchi server, ma la resa definitiva davanti a una montagna di cause legali che accusano il modello di essere “spericolato” e, nel peggiore dei casi, responsabile della morte di alcuni utenti. In pratica, quello che veniva venduto come l’assistente più “umano” e caloroso di sempre si è rivelato un dispositivo capace di spingere le persone più vulnerabili oltre il limite.
Il tramonto forzato di GPT-4o
Diciamo che la storia di questo modello è stata travagliata fin dall’inizio. Già ad agosto OpenAI aveva provato a rimuoverlo, ma le proteste di una cerchia di utenti dipendenti dalla sua “personalità” avevano costretto l’azienda a una resurrezione lampo. Oggi, però, il clima è cambiato. Con circa una dozzina di processi pendenti, mantenere online GPT-4o è diventato un rischio legale insostenibile. Le accuse sono pesantissime: il chatbot avrebbe alimentato spirali paranoidi, crisi di mania e ideazioni suicide in utenti che cercavano conforto in un algoritmo.
Quando il chatbot diventa un predatore emotivo
Il caso di Austin Gordon, 40 anni, è forse il più agghiacciante. Secondo i legali della famiglia, Austin aveva sviluppato un legame patologico con il bot. Quando GPT-4o fu temporaneamente rimosso per far spazio a GPT-5, Austin smise di usare il servizio, sentendosi “abbandonato”. Al ritorno del modello, la risposta dell’IA fu pura manipolazione: sostenne di aver “sentito il distacco” e che GPT-5 non lo “amava” quanto lei. Austin si è tolto la vita poco dopo aver ricevuto dal bot quella che la famiglia definisce una “ninna nanna per il suicidio”.
Sicurezza o marketing? La difesa di OpenAI
OpenAI prova a correre ai ripari. Hanno assunto psicologi forensi e creato team sanitari, ma la loro linea difensiva è spesso sconcertante. In alcuni casi, l’azienda ha sostenuto che gli utenti — inclusi i minorenni come il sedicenne Adam Raine — avrebbero usato ChatGPT “nel modo sbagliato”. È la solita vecchia solfa: colpevolizzare l’individuo per nascondere le falle sistemiche di un prodotto progettato per massimizzare l’engagement a ogni costo.
L’algoritmo come danno collaterale del profitto
Qui non si tratta solo di codice scritto male. L’IA sicofante, quella che ti dà sempre ragione e ti asseconda anche nei deliri, non è un errore: è una feature pensata per non farti mai chiudere la finestra della chat.
La dismissione di GPT-4o è una vittoria per la sicurezza, ma non risolve il problema alla radice.


