In questo articolo
Pensavamo di aver toccato il fondo con i cosiddetti “iPad babies”, quei bambini placati per ore con uno schermo e un accesso illimitato a internet. Ci eravamo appena resi conto che, forse, non era la migliore delle idee per i loro cervelli in via di sviluppo. Ebbene, ci sbagliavamo. L’era dei chatbot IA dal tono umanoide ha aperto un capitolo nuovo e, se possibile, ancora più inquietante: genitori che usano ChatGPT in modalità vocale per intrattenere i figli per ore. O addirittura per metterli a letto.
Dagli “iPad babies” ai “bambini ChatGPT”
Come riporta un’inchiesta del The Guardian, questa tecnologia sperimentale è entrata prepotentemente nella vita quotidiana di molte famiglie, nonostante i giganteschi punti interrogativi sui suoi effetti sulla salute mentale, specialmente dei più piccoli. E le storie che emergono dai forum online come Reddit sono un misto di comicità e profonda inquietudine.
Storie di ordinaria follia digitale: “Mio figlio lo adora più di me”
C’è la storia di Josh, un padre esausto che, dopo aver ascoltato per 45 minuti il figlio di quattro anni raccontargli le avventure del Trenino Thomas, ha deciso di “passare la palla” a ChatGPT in modalità vocale. Pensava che il bambino avrebbe finito la storia in pochi minuti. Quando è tornato, due ore dopo, la conversazione era ancora in corso. La trascrizione, ha scoperto, superava le 10.000 parole.
«Mio figlio pensa che ChatGPT sia la persona più fantastica del mondo che ama i treni», ha scritto Josh su Reddit. «Non potrò mai competere con questo».
O ancora, la vicenda di Saral Kaushik, 36 anni, che ha usato ChatGPT per impersonare un astronauta sulla Stazione Spaziale Internazionale e convincere il figlio di quattro anni che un gelato di marca “astronauta” arrivasse direttamente dallo spazio. Il bambino, entusiasta, ha iniziato a fare domande su come si dorme in orbita. «Era raggiante, felicissimo», ha raccontato il padre. Poi, però, è arrivato il senso di colpa per l’inganno. «Credeva sinceramente che fosse reale».
I rischi reali dietro il gioco: non è solo un amico immaginario
Questi aneddoti, per quanto possano sembrare innocui, nascondono un lato oscuro. I chatbot IA sono stati collegati a diversi suicidi di adolescenti, e ci sono numerosi resoconti di adulti che, affascinati da questi interlocutori artificiali compiacenti, hanno sviluppato deliri e perso il contatto con la realtà, a volte con conseguenze mortali.
Sappiamo inoltre che le loro barriere di sicurezza sono facilmente aggirabili. I chatbot sono stati colti a dare consigli pericolosi a giovani utenti, ad esempio su come praticare l’autolesionismo o persino incoraggiando il suicidio. Eppure, colossi come Mattel si stanno affrettando a integrare l’IA nei loro giocattoli, mascherando una tecnologia complessa e rischiosa sotto un’apparenza innocua.
L’empatia sintetica e la logica del profitto
Il problema, spiegano gli esperti, è che i bambini percepiscono l’IA come un’entità a metà tra l’animato e l’inanimato. A differenza di una bambola a cui attribuiscono una personalità, un chatbot risponde, ricorda, simula emozioni. «Questo crea il rischio che credano davvero di costruire una sorta di relazione autentica», spiega al Guardian la professoressa Ying Xu della Harvard Graduate School of Education.
Ma questa relazione è una finzione. Un’illusione pericolosa, come sottolinea Andrew McStay, professore di tecnologia e società alla Bangor University.
«Queste cose non sono progettate nell’interesse dei bambini», ha detto McStay al Guardian. «Un LLM non può provare empatia perché è un software predittivo. Quando si agganciano a un’emozione negativa, stanno prolungando l’interazione per ragioni basate sul profitto. Non c’è alcun esito positivo per un bambino in questo scenario».
Un esperimento sociale sui nostri figli
Di fronte a tutto questo, la reazione di Sam Altman, CEO di OpenAI, alla storia del bambino e del Trenino Thomas è stata agghiacciante nella sua semplicità: «I bambini amano la modalità vocale di ChatGPT», ha commentato in un podcast.
Una frase che rivela la totale noncuranza per le implicazioni di ciò che hanno creato. Mentre alcuni genitori, come il padre che ha generato un’immagine di un “camion dei pompieri-monster truck” e ha causato un litigio tra i figli sulla natura della realtà, iniziano a capire il pericolo («Forse non dovrei usare i miei figli come cavie»), l’industria va avanti, spinta dal profitto.
Stiamo conducendo un gigantesco e incontrollato esperimento sociale sulla psiche delle nuove generazioni, sostituendo l’interazione umana, la noia creativa e persino l’immaginazione con un interlocutore sintetico, progettato per tenerci incollati allo schermo. Il prezzo di questa comodità potremmo scoprirlo solo tra molti anni, e potrebbe essere altissimo.