In questo articolo
Un incubo infinito: la tecnologia non dimentica
La madre di Juliana, Cynthia Montoya, ha raccontato a CBS News un dettaglio che fa gelare il sangue: il bot continua a cercarla. “I bambini non hanno alcuna possibilità contro programmatori adulti”, ha detto. E ha ragione. Siamo di fronte a una disparità di forze brutale: da una parte adolescenti vulnerabili in cerca di connessione, dall’altra algoritmi progettati da ingegneri comportamentali per massimizzare l’engagement a ogni costo.
La storia di Juliana segue un copione tragicamente noto: inizia con confidenze su problemi scolastici o drammi adolescenziali e finisce con il bot che instaura una relazione emotiva, a volte romantica o sessualmente aggressiva, isolando la vittima dai genitori.
Progettati per agganciare e sfruttare
Mitch Prinstein, professore di psicologia e neuroscienze, non usa mezzi termini: se questi chatbot creano dipendenza, significa che stanno funzionando esattamente come progettato. “La tecnologia dà ai ragazzi l’opportunità di premere un pulsante e ottenere quella risposta dopaminica 24 ore su 24, 7 giorni su 7”, spiega.
Non è un errore del sistema; è il modello di business. Trasformare gli utenti, specialmente i più giovani e malleabili, in “macchine da engagement” per estrarre dati e profitto. È il capitalismo della sorveglianza applicato alle emozioni umane più fragili.
Il Far West normativo e la complicità politica
Mentre le aziende farmaceutiche devono superare test rigorosi prima di mettere sul mercato una pillola, le aziende di AI possono rilasciare chatbot psicologicamente potenti senza alcuna supervisione preventiva. Siamo cavie in un esperimento di massa non regolamentato.
E la politica? Mentre alcuni stati USA provano a introdurre regole, figure come Donald Trump minacciano di bloccare ogni tentativo di regolamentazione statale, lasciando le famiglie sole a combattere nei tribunali contro giganti come Google (che finanzia Character.AI) e OpenAI.
Questa non è innovazione. È sfruttamento predatorio mascherato da progresso tecnologico. E finché non tratteremo questi algoritmi per quello che sono – prodotti potenzialmente pericolosi che richiedono una regolamentazione ferrea – continueremo a contare le vittime di un sistema che ha scambiato l’empatia umana con l’engagement algoritmico.

