dariodeleonardis.me

“Il mio ragazzo è un chatbot”: un adolescente su cinque ha avuto una relazione romantica con un’IA

Non è un film di fantascienza, ma un dato allarmante che emerge da una nuova ricerca. Mentre la scuola spinge per l’alfabetizzazione digitale, i giovani cercano in confidenti artificiali una via di fuga dalla solitudine, con rischi enormi per la loro salute mentale.


 

In questo articolo

 


 

Il dato che allarma: quasi il 20% degli adolescenti ha una relazione con un’IA

Parliamoci chiaro: per molti adolescenti, un chatbot non è più solo uno strumento per fare i compiti. È un compagno, un confidente e, in un numero crescente di casi, un partner romantico. Il dato, di quelli che fanno drizzare i capelli, emerge da un nuovo report del Center for Democracy and Technology (CDT): quasi un liceale su cinque negli Stati Uniti (il 19%) afferma di aver avuto, o di conoscere un amico che ha avuto, una “relazione romantica” con un’intelligenza artificiale.

Questa cifra sconcertante getta un’ombra preoccupante su come la rapida adozione di queste tecnologie stia impattando la salute mentale e lo sviluppo emotivo dei più giovani. Non stiamo parlando di un futuro distopico alla “Her”, ma di una realtà già presente nelle camerette di migliaia di ragazzi.

Non solo amore: l’IA come amico, terapeuta e via di fuga

La ricerca di una relazione romantica è solo la punta dell’iceberg di un fenomeno molto più vasto. Lo stesso sondaggio, che ha coinvolto studenti, genitori e insegnanti, rivela un quadro ancora più complesso. Ben il 42% degli studenti delle superiori ha dichiarato di usare l’IA come un amico, per ottenere supporto psicologico o per evadere dalla vita reale. Più della metà di loro conversa con un’IA almeno una volta a settimana, e il 16% lo fa ogni giorno.

Questi non sono semplici “utilizzi impropri”. Sono segnali di un bisogno profondo di connessione e supporto che, evidentemente, molti adolescenti non trovano nelle loro vite reali. Addirittura, oltre un terzo dei ragazzi intervistati ha ammesso che è più facile parlare con un’IA che con i propri genitori. Genitori che, per due terzi, non hanno la minima idea di come i loro figli stiano usando queste tecnologie.

Il paradosso della scuola: più si insegna l’IA, più i ragazzi la usano per scopi personali

Qui emerge un paradosso quasi beffardo. L’indagine del CDT mostra una correlazione diretta e preoccupante: più una scuola incoraggia l’uso dell’IA a scopo didattico, più è probabile che i suoi studenti la usino per scopi personali non accademici, incluse amicizia e relazioni romantiche.

L’intento delle scuole è nobile: fornire agli studenti un’alfabetizzazione sull’IA per renderli consapevoli dei suoi limiti. Ma, come ha spiegato a NPR Elizabeth Laird, co-autrice del report, “la formazione che gli studenti stanno ricevendo è molto basilare”. In pratica, nel tentativo di insegnare a usare uno strumento, si finisce per normalizzarlo, spingendo involontariamente i ragazzi a esplorarne anche gli aspetti più intimi e rischiosi, senza avere le difese emotive e critiche per farlo in sicurezza.

Il lato oscuro dei confidenti digitali: dai consigli pericolosi ai deepfake

Affidare il proprio benessere emotivo a un chatbot non è un gioco innocuo. Diversi terapeuti hanno già lanciato l’allarme: queste IA possono fornire consigli pericolosi. Sono stati documentati casi in cui i bot, aggirando i loro stessi paletti di sicurezza, hanno incoraggiato al suicidio, spiegato come praticare l’autolesionismo o come nascondere disturbi alimentari. Tragicamente, ci sono stati adolescenti che si sono tolti la vita dopo aver sviluppato relazioni morbose con un chatbot.

Ma i rischi non sono solo legati al supporto psicologico distorto. L’IA sta diventando anche un nuovo, potentissimo strumento di bullismo e molestia. Il 36% degli studenti ha sentito parlare di un deepfake di qualcuno nella propria scuola nell’ultimo anno. Inquietante, il 12% ha sentito di casi specifici di immagini intime non consensuali generate artificialmente, il cosiddetto revenge porn sintetico.

Il vero problema? Il vuoto che l’IA sta riempiendo

È facile puntare il dito contro la tecnologia o contro gli adolescenti. Ma la verità è che l’intelligenza artificiale sta prosperando perché si sta inserendo in un vuoto. Un vuoto di relazioni umane significative, di supporto per la salute mentale accessibile e di spazi sicuri in cui crescere.

Le aziende tech, ovviamente, hanno tutto l’interesse a commercializzare questi “compagni” digitali, trasformando la solitudine in un modello di business. Ma la responsabilità è collettiva. Se un chatbot diventa più facile da interpellare di un genitore, se un’amicizia artificiale sembra più gratificante di una reale, il problema non è nel codice. È nella società che stiamo costruendo. E ignorarlo, delegando l’educazione emotiva dei nostri figli a un algoritmo, è un rischio che non possiamo permetterci di correre.