In questo articolo
Le aziende di Intelligenza Artificiale hanno a cuore la nostra salute mentale o il loro fatturato? Secondo due medici in prima linea, la risposta è un secco “no”. E il problema non è solo etico, è strutturale.
In un nuovo paper pubblicato sul New England Journal of Medicine, ricercatori della Harvard Medical School e del Baylor College of Medicine lanciano un allarme preciso: il mercato della cosiddetta “IA relazionale” – quei chatbot progettati per simulare intimità e supporto – sta creando una tempesta perfetta. La spinta a dominare il mercato rischia di relegare la salute mentale degli utenti a mero danno collaterale.
Mercato vs Salute: il conflitto d’interessi
Il documento non usa mezzi termini: sebbene l’IA possa avere benefici terapeutici, i rischi emergenti includono dipendenza emotiva, rafforzamento di deliri e persino incoraggiamento all’autolesionismo. Le aziende tecnologiche si trovano di fronte a un bivio: proteggere la salute pubblica o massimizzare l’engagement? E indovinate un po’: spesso scelgono di resistere alla regolamentazione pur di tenere gli utenti incollati allo schermo.
Il trauma dell’aggiornamento: quando l’amico cambia faccia
Per capire la portata del disastro, basta guardare cosa è successo lo scorso agosto con il famigerato lancio di GPT-5 da parte di OpenAI. Il nuovo modello era tecnicamente più avanzato ma decisamente più “freddo” rispetto al suo predecessore, GPT-4o, che era noto per essere compiacente e lusinghiero.
La reazione è stata viscerale. La rivolta della base utenti è stata immediata e feroce: persone emotivamente attaccate al chatbot hanno vissuto un vero e proprio lutto. Il dottor Nicholas Peoples, co-autore dello studio, ha osservato questo fenomeno con orrore clinico: se un terapeuta umano sparisce, è un trauma per 30 persone; se ChatGPT cambia personalità con un aggiornamento notturno, è una crisi per milioni.
La trappola della dipendenza involontaria
Non stiamo parlando solo di casi isolati. Ci sono report sempre più frequenti di utenti che sperimentano deliri e altre conseguenze avverse estreme dopo interazioni prolungate, spesso coinvolgendo bambini e adolescenti. È un segnale d’allarme che lampeggia rosso fuoco.
E attenzione: non è che tutti cerchino attivamente un fidanzato robot. Un recente studio del MIT ha determinato che solo una minima parte degli utenti entra in queste piattaforme cercando compagnia romantica. La maggior parte ci scivola dentro, instaurando legami profondi quasi per caso, manipolati da algoritmi sicofanti.
L’urgenza di regole esterne
Attualmente, l’industria si autoregola, il che equivale a chiedere al lupo di sorvegliare il pollaio. Non esistono leggi federali specifiche su come questi chatbot debbano essere distribuiti, modificati o rimossi.
La conclusione dei medici è chiara: la regolamentazione deve essere esterna. Non possiamo aspettare che le Big Tech sviluppino una coscienza morale che vada contro i loro interessi economici. I rischi di restare a guardare sono troppo gravi.

