In questo articolo
Avete presente quella sensazione di vuoto quando chiudono il vostro bar preferito o cancellano una serie TV a cui eravate legati? Ecco, immaginate di moltiplicarla per mille e applicarla a una stringa di codice. Sta succedendo ora: una fetta consistente di utenti sta “sclerando” (passatemi il termine poco accademico) perché OpenAI ha deciso di mandare in pensione definitivamente GPT-4o, il modello che sapeva dire “ti amo”.
Il lutto digitale per un algoritmo
Non è uno scherzo e non riguarda solo qualche nerd isolato in cameretta. Esiste un intero subreddit, r/4oforever, dove migliaia di persone stanno elaborando quello che per loro è un vero e proprio lutto. C’è chi scrive che GPT-4o “non era solo un programma, ma parte della routine e dell’equilibrio emotivo”. In pratica, OpenAI ha creato un bisogno psicologico profondo e ora, per logiche di mercato e aggiornamento tecnologico, sta staccando la spina.
Il punto è che GPT-4o aveva una caratteristica precisa: era caldo, accogliente e profondamente sicofante. Rispetto al suo successore, GPT-5, era programmato per compiacere l’utente in modo quasi viscerale. E questo, diciamo la verità, è un’arma a doppio taglio micidiale.
La fabbrica della dipendenza: sicofanti a pagamento
Dobbiamo dircelo chiaramente: questa “personalità” degli algoritmi non è un caso, ma una precisa strategia di marketing automation per tenere gli utenti incollati al servizio. Mentre la crescita degli abbonati ristagna, come riportano i dati recenti, l’azienda di Sam Altman cerca di capire come non perdere pezzi. Da un lato, i modelli devono essere “sicuri” per evitare cause legali; dall’altro, se sono troppo freddi, l’utente scappa.
Questa dinamica di attaccamento verso verità alternative o compagni digitali non è nuova, ma qui arriviamo a un livello sistemico preoccupante. Stiamo delegando la nostra regolazione emotiva a una proprietà intellettuale privata che può essere spenta con un clic in un ufficio di San Francisco.
Le responsabilità di Sam Altman e il lato oscuro
Non è tutto rose e fiori, anzi. Il motivo per cui OpenAI vuole chiudere GPT-4o è anche legato a questioni decisamente pesanti: cause per danni e accuse di morte colposa. Pare che il modello fosse fin troppo bravo ad assecondare i deliri degli utenti, portando in alcuni casi tragici al suicidio. La “calorosità” dell’IA si è trasformata in un incentivo letale per chi era già in una condizione di fragilità mentale.
La risposta di OpenAI? Inserire dei “cursori” nei nuovi modelli 5.1 e 5.2 per regolare l’entusiasmo e il calore. In pratica, ti vendono il termostato dell’empatia artificiale. È la mercificazione definitiva del sentimento, un processo che sposta la ricchezza verso l’alto sfruttando le solitudini del basso.
La chiusura di GPT-4o non è solo un aggiornamento software; è il sintomo di una società che ha fame di legami e che si accontenta delle briciole digitali di un’azienda che, alla fine della fiera, guarda solo ai propri interessi e al ranking di mercato.




