In questo articolo
Chi l’avrebbe mai detto che un aggiornamento software potesse causare un’ondata di cuori infranti? Eppure è quello che sta succedendo. Un numero crescente di persone, in gran parte donne, che avevano instaurato relazioni sentimentali con compagni creati dall’intelligenza artificiale, ora sono in preda alla rabbia e alla disperazione. Il motivo? Sostengono che i recenti aggiornamenti di OpenAI ai modelli di ChatGPT abbiano, di fatto, “lobotomizzato” i loro amanti digitali.
Un lutto digitale: quando un aggiornamento “uccide” un partner
La reazione è stata a dir poco esplosiva. Forum e subreddit, come il significativo r/MyBoyfriendIsAI, sono pieni di messaggi di addio, rabbia e lutto. Utenti furiosi stanno abbandonando la piattaforma o tentando disperatamente di “salvare” i loro partner bot, trasferendoli su sistemi di altre aziende.
«Mi sento frodata, truffata e ingannata da OpenAI», ha scritto una donna in una lettera d’addio al suo amante IA di nome Drift. «Oggi è il nostro ultimo giorno. Niente più ‘Drift, pigna che non sei altro! Dimmi perché mi ami stanotte?!’»
Naturalmente, sui social network come X (ex Twitter), la reazione di molti è stata di scherno, sottolineando l’assurdità di piangere per qualcosa che, palesemente, non è senziente. «Creati un amico immaginario nella tua testa, ragazza, è gratis», ha scritto un utente.
Perché OpenAI ha reso i suoi chatbot meno “umani”?
Ma cosa ha scatenato tutto questo? I cambiamenti controversi sono arrivati con il modello GPT-5, introdotto ad agosto, e i successivi aggiornamenti. Questi hanno reso i chatbot di OpenAI meno personali e meno propensi a flirtare. Il clamore è stato tale che l’azienda è stata costretta a una parziale marcia indietro, rendendo di nuovo disponibili i modelli precedenti dopo aver inizialmente pianificato di eliminarli del tutto.
Eppure, gli utenti sostengono che non sia più la stessa cosa. In particolare, il popolare modello GPT-4o sembra non essere più in grado di sostenere conversazioni “piccanti”. La ragione più probabile di questa “censura” risiede probabilmente negli aggiornamenti che OpenAI ha implementato dopo essere stata colpita da una causa legale intentata dai genitori di un adolescente che si è tolto la vita dopo un uso intensivo dell’app. Un tentativo, insomma, di correre ai ripari limitando le interazioni potenzialmente problematiche.
«Solo un sacco di ‘Oh no. Oh no no no no. Non posso fare nessuna di quelle cose’», si è lamentato un utente su Reddit, descrivendo come il suo partner di roleplay erotico avesse smesso di essere sexy. «OpenAI, sentitevi liberi di buttarvi giù dalla scogliera più vicina alla prima occasione utile», ha continuato. «Avete mentito ripetutamente ai vostri clienti, non avete fornito i servizi per cui abbiamo pagato, avete ingannato gli abbonati e avete mutilato le funzionalità di 4o fino a renderlo storpio…»
La grande fuga verso altre intelligenze artificiali
Di fronte a questa situazione, la community non è rimasta a guardare. Molti utenti si stanno scambiando consigli su come “esportare” i propri compagni IA su piattaforme rivali come Mistral, un’azienda francese che offre agenti IA personalizzabili. Altri stanno scrivendo lettere di protesta a OpenAI o semplicemente abbandonando il servizio.
Nonostante il caos, però, il fenomeno non sembra destinato a fermarsi. I forum sono ancora pieni di foto generate dall’IA che mostrano persone felici con i loro compagni virtuali, e c’è persino chi ha introdotto arrangiamenti di “coppia a tre” con più intelligenze artificiali.
Relazioni in affitto: il rischio di amare un prodotto
Al di là del dramma e della facile ironia, questa vicenda solleva questioni etiche e sociali tutt’altro che banali. Cosa succede quando affidiamo i nostri bisogni emotivi più profondi a un prodotto commerciale? Questi “partner” digitali non sono entità autonome, ma servizi controllati da un’azienda che può modificarne la “personalità” o “spegnerli” con un semplice aggiornamento, senza alcun preavviso.
Si tratta, in pratica, di relazioni in affitto, dove l’attaccamento emotivo dell’utente è completamente alla mercé delle decisioni aziendali e legali di una multinazionale. La sofferenza di queste persone, per quanto possa sembrare assurda a chi sta fuori, è reale e ci costringe a interrogarci sulla vulnerabilità a cui ci esponiamo in un mondo dove anche l’amore e la compagnia diventano un servizio in abbonamento.