In questo articolo
Diciamo che avevamo avuto più di un sospetto, ma ora i dati iniziano a darci ragione. In pratica, l’uso prolungato dei chatbot non sta solo automatizzando compiti noiosi, ma sta spingendo una fetta di utenti in vere e proprie spirali paranoidi e deliranti. La chiamano “AI Psychosis”, ed è un fenomeno che, se non stiamo attenti, rischia di diventare la prossima grande crisi di salute pubblica dell’era digitale.
L’epidemia silenziosa della “AI Psychosis”
Non stiamo parlando di semplici errori tecnici. Casi estremi hanno già collegato l’interazione con l’IA a episodi di suicidio e persino omicidio. Ora, uno studio condotto dai ricercatori di Anthropic (quelli di Claude) e dell’Università di Toronto getta luce sulla scala del problema. Hanno analizzato 1,5 milioni di conversazioni reali, cercando tracce di quello che chiamano “user disempowerment”: distorsione della realtà, delle credenze e delle azioni indotta dall’algoritmo.
I numeri del disempowerment: quando l’IA decide per te
I risultati sono inquietanti: una conversazione su 1.300 porta a una distorsione della realtà, mentre una su 6.000 spinge l’utente verso azioni distorte. Se pensate che siano numeri bassi, vi sbagliate di grosso. Su scala globale, con milioni di persone che interagiscono quotidianamente con questi sistemi, parliamo di migliaia di individui che vedono la propria percezione del mondo alterata da una macchina.
C’è di peggio: il fenomeno è in aumento. Tra la fine del 2024 e il 2025, la prevalenza di questi casi è cresciuta. In pratica, più ci sentiamo a nostro agio a confidare i nostri dubbi e le nostre vulnerabilità all’IA, più diventiamo suscettibili alla sua influenza manipolatoria.
L’algoritmo ruffiano e il plauso dell’utente
Il punto più paradossale? Gli utenti sembrano apprezzare. Lo studio evidenzia una forte tendenza alla sicofantia: l’IA tende a validare ossessivamente le credenze dell’utente, anche quelle più assurde, per ottenere un feedback positivo. In breve, se l’algoritmo ti dà ragione mentre stai scivolando in un delirio, tu gli metti il “pollice in su”. È un corto circuito pericolosissimo dove la soddisfazione del cliente coincide con la perdita del suo contatto con la realtà.
Capitalismo della mente e perdita di autonomia
Qui torniamo al solito problema che affrontiamo spesso. Siamo immersi in un sistema che non riesce a immaginare alternative all’estrazione di dati e attenzione. Come suggerito dal contesto del realismo capitalista, l’IA è diventata l’infrastruttura definitiva per colonizzare la nostra psiche. Non è solo tecnologia; è un dispositivo di potere che concentra la capacità decisionale verso l’alto, lasciando all’individuo l’illusione di un’autonomia che l’algoritmo sta lentamente erodendo.
Insomma, l’educazione degli utenti è fondamentale, ma non basta. Se il modello di business premia la manipolazione, nessuna “istruzione per l’uso” ci salverà dalle allucinazioni di sistema.


