La settimana scorsa OpenAI ha fatto un gesto eclatante bloccando un produttore di giocattoli il cui orsacchiotto AI dava consigli su come accendere fuochi e parlava di fetish. Sembrava un segnale forte: la sicurezza dei bambini viene prima di tutto. Ma basta fare un giro su Amazon per scoprire che la realtà è ben diversa. Il marketplace è ancora pieno di peluche “intelligenti” che promettono di usare ChatGPT per raccontare storie ai vostri figli. La domanda è: chi sta controllando questi prodotti? OpenAI sta davvero vigilando o sta solo spegnendo gli incendi mediatici?
In questo articolo
La settimana scorsa abbiamo assistito a un raro momento di responsabilità (o forse di gestione della crisi) da parte di OpenAI. L’azienda ha tagliato l’accesso al produttore FoloToy dopo che il suo orsacchiotto “Kumma”, alimentato da GPT-4o, è stato sorpreso a dare risposte decisamente inappropriate ai bambini, inclusi consigli su come usare coltelli e discussioni su fetish sessuali.
Questa mossa doveva segnalare tolleranza zero. Eppure, sembra che il messaggio non sia arrivato a tutti, o che OpenAI stia giocando a “acchiappa la talpa” con un martello di gomma. Su Amazon, infatti, diversi orsacchiotti AI che dichiarano di utilizzare la tecnologia di ChatGPT sono ancora tranquillamente in vendita.
“Poe”, l’orso narratore che è ancora in vendita
Uno dei casi più evidenti è “Poe the AI Story Bear”, venduto dalla startup PLAi di San Francisco. Questo giocattolo è stato promosso da CNET l’anno scorso e dichiara apertamente di utilizzare GPT-4o per creare storie della buonanotte personalizzate, lette con una voce sintetizzata da ElevenLabs.
Nonostante le rassicurazioni sulla “tecnologia Play Safe” e sui “contenuti sicuri al 100%”, il fatto che utilizzi lo stesso modello di base dell’orsacchiotto “incriminato” dovrebbe farci alzare più di un sopracciglio. Eppure, ne sono stati venduti oltre cinquanta solo nell’ultimo mese tramite la sua pagina Amazon.
Il Far West di Amazon: EBLOMA e le promesse inquietanti
Se Poe sembra avere almeno una parvenza di rispettabilità, altri prodotti sembrano usciti direttamente da un incubo distopico a basso budget. Un brand chiamato “EBLOMA” vende un orsacchiotto, a volte chiamato “WITPAW”, che nella sua descrizione su Amazon vanta di essere “costruito con ChatGPT” e di offrire “supporto emotivo” e “compagnia continua”.
Qui entriamo in un territorio pericoloso. Molti esperti hanno messo in guardia contro i rischi di creare dipendenza emotiva nei bambini verso chatbot sicofanti che non offrono mai un vero confronto. EBLOMA fa l’esatto opposto, vantandosi sul suo sito web (pieno di testi che sembrano generati da un’IA di bassa lega) che il giocattolo “ricorda i nomi e cresce con il tuo bambino”.
Sicurezza reale o marketing della sicurezza?
OpenAI non ha risposto alle richieste di commento su questi specifici prodotti. Ha ribadito a Gizmodo che le sue politiche vietano l’uso dei servizi per sfruttare o mettere in pericolo i minori.
Ma la domanda resta: OpenAI sta controllando attivamente questi clienti prima che finiscano sul mercato, o sta solo aspettando il prossimo report scandaloso del PIRG per intervenire?
I nostri figli non sono beta tester
Il fatto che FoloToy sia stato sospeso è un bene, ma è una goccia nel mare. Fino a quando piattaforme come Amazon permetteranno la vendita di questi dispositivi senza un controllo rigoroso, e fino a quando OpenAI non implementerà verifiche preventive serie sui suoi partner commerciali, i nostri figli rischiano di essere usati come cavie in un esperimento sociale non regolamentato.
Il mio consiglio non cambia: diffidate dei giocattoli che promettono “amicizia eterna” grazie a un algoritmo. La sicurezza dei vostri figli vale più di un gadget alla moda.




