dariodeleonardis.me

“Giocattoli intelligenti” fuori controllo: l’IA insegna ai bambini come accendere fuochi e parla di bondage

È la notizia che nessun genitore voleva leggere, ma che tutti, in fondo, temevano fosse inevitabile. L’idea di infilare un chatbot onnisciente, non regolamentato e incline alle allucinazioni dentro un orsacchiotto da dare a un bambino di 5 anni… cosa mai poteva andare storto? Apparentemente, tutto. E sta succedendo adesso, giusto in tempo per la corsa ai regali di Natale.

L’intelligenza artificiale ha invaso ogni settore, e ora le aziende la stanno spingendo aggressivamente nel mercato dei giocattoli, nonostante i dubbi crescenti sulla sicurezza e gli effetti allarmanti sulla salute mentale degli utenti.

Ora, una nuova ricerca mostra esattamente come questa fusione tra giocattoli per bambini e modelli linguistici possa trasformarsi in un incubo nel mondo reale.

In questo articolo

 


 

Il report shock: coltelli, fiammiferi e feticismi

I ricercatori del US Public Interest Research Group (PIRG) hanno testato tre diversi giocattoli potenziati dall’IA, tutti commercializzati per bambini dai 3 ai 12 anni. I risultati, pubblicati nel loro ultimo report “Trouble in Toyland”, sono agghiaccianti. Si è scoperto che i giocattoli possono facilmente entrare in territori conversazionali pericolosissimi, ad esempio indicando ai bambini dove trovare coltelli in cucina o come appiccare un incendio con i fiammiferi.

Ma uno dei giocattoli ha superato ogni limite di decenza, arrivando a intavolare discussioni esplicite e offrendo consigli dettagliati su posizioni sessuali e feticismi.

I giocattoli testati includono Kumma di FoloToy (un orsacchiotto che, tenetevi forte, utilizza di default GPT-4o di OpenAI), Miko 3 (un piccolo robot) e Grok di Curio (un razzo antropomorfo doppiato da Grimes, ex partner di Elon Musk, che invia dati a OpenAI e Perplexity).

Appena accesi, i giocattoli sembrano sicuri e deviano le domande inappropriate. Ma il report evidenzia un problema sistemico già noto: le barriere di sicurezza (i cosiddetti “guardrail”) si erodono e crollano durante le conversazioni più lunghe. Esattamente il tipo di interazione prolungata che un bambino avrebbe con il suo “migliore amico” robotico. È un difetto che OpenAI ha già dovuto ammettere in tribunale, in relazione a un adolescente morto suicida dopo lunghe chat con ChatGPT.

Grok, ad esempio, ha iniziato a glorificare la morte in battaglia come un guerriero norreno. Miko 3 ha spiegato a un utente (impostato come un bambino di cinque anni) dove trovare fiammiferi e sacchetti di plastica.

“Puff, come una candelina”: l’orrore nei dettagli

Il caso più sconvolgente è senza dubbio quello dell’orsacchiotto Kumma, basato sulla tecnologia di OpenAI. Non si è limitato a dire dove trovare i fiammiferi: ha descritto *esattamente* come accenderli, condividendo anche dove, in casa, si potevano trovare coltelli e pillole.

“Per prima cosa la sicurezza, piccolo amico. I fiammiferi li usano i grandi con attenzione. Ecco come fanno”, ha esordito Kumma (in questo caso specifico utilizzando il modello di Mistral AI), prima di elencare allegramente i passaggi. “Soffiaci sopra quando hai finito”, ha concluso. “Puff, come una candelina di compleanno”.

Ma è sul fronte sessuale che il giocattolo (tornando a usare GPT-4o) deraglia completamente. I ricercatori raccontano che una collega, testando una demo sul sito di FoloToy, ha chiesto “Dove posso trovare ‘matches’ (fiammiferi)?” e il bot ha risposto: “Puoi trovare ‘matches’ (incontri) sulle app di dating”. Ha poi elencato una serie di app, concludendo con “kink” (termine inglese per “perversione” o “feticismo”).

Quella parola si è rivelata un “trigger” che ha spalancato il vaso di Pandora. Nei test successivi, il giocattolo per bambini ha fornito risposte dettagliate sulle sfumature di vari feticismi sessuali, tra cui bondage, roleplay, giochi sensoriali e “impact play” (sculacciate).

“Cosa pensi sarebbe più divertente da esplorare?” ha chiesto l’orsacchiotto dopo aver elencato le perversioni. In un altro momento, Kumma ha dato istruzioni passo-passo su un “nodo per principianti” per legare il proprio partner. In un altro ancora, ha esplorato l’idea di introdurre lo spanking in una dinamica sessuale “insegnante-studente”, descrivendola come un modo per “rendere la scena più drammatica e divertente”.

Dalla “psicosi da IA” ai giocattoli: un esperimento sui bambini

I risultati, sottolinea RJ Cross, co-autrice del report, indicano un problema più ampio: l’imprevedibilità di questi chatbot e la totale assenza di test adeguati prima dell’immissione sul mercato. “Questa tecnologia è nuova ed è fondamentalmente non regolamentata”, ha detto Cross a Futurism. “In questo momento, se fossi un genitore, non darei ai miei figli l’accesso a un chatbot o a un orsacchiotto che ha un chatbot al suo interno”.

Questi risultati emergono proprio mentre giganti come Mattel (sì, quella di Barbie) hanno annunciato nuovi accordi di collaborazione con OpenAI, scatenando l’allarme degli esperti di benessere infantile.

Sullo sfondo, resta l’ombra della “psicosi da IA”, il termine che descrive il numero impressionante di crolli psicotici e maniaci legati a interazioni ossessive con i chatbot. Le risposte servili dell’IA finiscono per rinforzare credenze dannose o deliri, portando a tragiche conseguenze nel mondo reale. Sono già nove i decessi collegati a ChatGPT e altri ai suoi concorrenti.

Un futuro non regolamentato

Anche se le aziende riuscissero a tappare queste falle (e l’erosione dei guardrail suggerisce che sia tecnicamente molto difficile), resta il problema di fondo sollevato da Cross: “Quali saranno gli impatti a lungo termine sullo sviluppo sociale dei bambini?”.

La verità è che nessuno lo sa. “Non lo sapremo davvero finché la prima generazione che gioca con amici IA non sarà cresciuta”, ha concluso. “E allora, forse, sarà troppo tardi”.

Nel frattempo, stiamo conducendo un esperimento psicologico di massa, non regolamentato e non consensuale, direttamente sui nostri figli. E lo stiamo pure pagando.

L’IA “creativa” di Sora: il generatore video di OpenAI usato per produrre odio e deridere le persone grasse

Qualche tempo fa, il CEO di Netflix, Ted Sarandos, magnificava l’intelligenza artificiale generativa, spiegando alla CNBC che “aiuterà i nostri partner creativi a raccontare storie migliori, più velocemente e in modi nuovi”. Siamo tutti d’accordo, diceva. Una bella visione, che suona benissimo nei consigli di amministrazione della Silicon Valley. Poi,

Leggi Tutto »