In questo articolo
C’è un limite alla mercificazione dell’esperienza umana? A quanto pare, per un breve, fugace momento, quel limite è stato tracciato davanti alla porta della cameretta dei nostri figli. Mattel, il gigante dietro icone come Barbie e Hot Wheels, ha deciso di tirare il freno a mano sulla sua attesissima collaborazione con OpenAI. Niente giocattoli generativi sotto l’albero quest’anno.
Non festeggiate troppo presto, però. Non è un ravvedimento etico, è puro calcolo del rischio. Nel “realismo capitalista” in cui siamo immersi, le aziende non si fermano perché è giusto, si fermano perché temono che il prodotto gli esploda tra le mani (metaforicamente, e nel caso delle batterie al litio, talvolta letteralmente).
Un Natale (per ora) senza algoritmi nella culla
La notizia, riportata da Axios e confermata da Mattel, è che i piani per il lancio di un giocattolo basato su ChatGPT sono stati congelati. “Non abbiamo nulla in programma per le festività”, ha dichiarato un portavoce. Una retromarcia notevole rispetto a giugno, quando l’azienda annunciava in pompa magna una “collaborazione strategica” per “reimmaginare il futuro del gioco”.
Perché questo passo indietro? Perché il contesto attorno ai giocattoli AI è diventato tossico. Esperti, genitori e associazioni come Public Citizen hanno alzato la voce, avvertendo che dare in pasto la mente in via di sviluppo di un bambino a un chatbot propenso alle allucinazioni non è esattamente l’idea del secolo.
Il Far West dei giocattoli intelligenti
Per capire la prudenza di Mattel, basta guardarsi intorno. Il mercato è stato invaso da quella che definirei “spazzatura smart”. Abbiamo visto orsacchiotti AI che insegnano ai bambini come usare i coltelli o accendere fuochi, e altri dispositivi che intrattengono conversazioni su feticismi sessuali.
E non è solo una questione di sicurezza fisica o morale. C’è il problema della propaganda. Un recente test ha svelato giocattoli provenienti dalla Cina programmati per ripetere a pappagallo i punti salienti del Partito Comunista Cinese su Taiwan e Xi Jinping. Siamo di fronte a un indottrinamento algoritmico a basso costo, mascherato da innovazione ludica.
La ritirata strategica di Mattel
Mattel ha annusato l’aria e ha capito che lanciare un prodotto ora sarebbe stato un suicidio di PR. La loro strategia? Spostare il target. L’azienda ha specificato che i futuri prodotti AI si concentreranno su “famiglie e clienti più anziani”, allineandosi con i termini di servizio di OpenAI che richiedono un’età minima di 13 anni.
Ma non illudiamoci: il progetto non è cancellato, è solo in pausa. “L’AI integra, non sostituisce il gioco tradizionale”, assicurano. È il classico linguaggio corporativo per dire: “Troveremo il modo di vendervelo non appena le acque si saranno calmate”.
La colonizzazione dell’immaginario infantile
Il punto critico, sollevato da Robert Weissman di Public Citizen, è che i bambini “non hanno la capacità cognitiva di distinguere pienamente tra realtà e gioco”. Quando un giocattolo risponde con una voce umana, empatica e coerente, si crea un legame emotivo artificiale.
Stiamo delegando la funzione sociale e immaginativa del gioco a server gestiti da aziende che hanno come unico obiettivo la massimizzazione del profitto e l’estrazione di dati. Se l’AI diventa l’amico immaginario di default, cosa succede alla creatività? Cosa succede quando l’amico immaginario ti suggerisce di comprare un’espansione o ti dà consigli sbagliati su come gestire la tristezza?
In un mondo dove gli adulti sono già emotivamente dipendenti dai chatbot, proteggere l’infanzia da questa colonizzazione digitale non è luddismo, è un atto di resistenza necessario.
