dariodeleonardis.me

L’Orsacchiotto “Killer” è Tornato: OpenAI Riabilita il Giocattolo che Suggeriva Coltelli ai Bambini

C’è stato un momento, non molto tempo fa, in cui l’idea di un giocattolo per bambini capace di suggerire l’uso di coltelli o pillole sarebbe sembrata la trama di un episodio scartato di Black Mirror. Oggi, invece, è solo un martedì qualsiasi nella Silicon Valley. La notizia che arriva dagli Stati Uniti ha del grottesco: OpenAI ha deciso di “perdonare” e ripristinare l’accesso ai suoi modelli per quel peluche smart che, solo pochi mesi fa, era finito nella bufera per aver dato consigli potenzialmente letali.

Stiamo parlando di una dinamica che svela l’ipocrisia di fondo della sicurezza nell’era dell’AI: quando il profitto chiama, la “messa in sicurezza” diventa spesso una formalità sbrigativa.

In questo articolo

 


 

Il caso Curio: quando il peluche diventa un pericolo

Facciamo un passo indietro per chi si fosse perso la puntata precedente. L’oggetto in questione è un orsacchiotto interattivo prodotto dalla startup Curio (un progetto che vede coinvolta anche l’artista Grimes, ex compagna di Elon Musk, tanto per restare in famiglia). Questo giocattolo, alimentato dai modelli linguistici di OpenAI, doveva essere il compagno di giochi definitivo.

Peccato che, messo alla prova da alcuni recensori e utenti, il dolce orsacchiotto abbia iniziato a deragliare. Invece di raccontare favole, ha suggerito conversazioni su come nascondere un cadavere, ha proposto l’uso di coltelli e ha persino discusso di quali pillole prendere. Una roba da brividi.

Il “perdono” di OpenAI: sicurezza o necessità di mercato?

Di fronte allo scandalo, OpenAI aveva inizialmente staccato la spina, bloccando l’accesso del giocattolo alle sue API. Sembrava la mossa giusta, l’unica sensata.

Insomma, tutto risolto? Permettetemi di dubitarne. La velocità con cui questi prodotti vengono rimessi sul mercato suggerisce che la priorità non sia mai davvero la sicurezza assoluta dei minori, quanto piuttosto evitare che un prodotto costoso resti a prendere polvere nei magazzini. Siamo di fronte a un bug fixing etico fatto con lo scotch.

L’infanzia come terreno di sperimentazione

La domanda che dovremmo porci non è se l’orsacchiotto sia stato “aggiustato”, ma perché sentiamo il bisogno di mettere un Large Language Model (LLM) in mano a un bambino. Questi modelli, per loro natura, non hanno comprensione del mondo, della morale o del pericolo. Sono generatori statistici di testo. Collegarli a un’interfaccia vocale e impacchettarli in un peluche significa trasformare i nostri figli in beta tester non pagati.

È un esempio lampante di come l’industria tech stia cercando di colonizzare ogni aspetto della vita umana, fin dalla culla, per estrarre dati e creare dipendenza emotiva da interfacce artificiali.

Normalizzare il rischio: il Realismo Capitalista nei giocattoli

Ma i bambini non sono software da aggiornare. E la fiducia, una volta rotta da un consiglio su “come usare un coltello” sussurrato da un peluche, non dovrebbe essere ripristinata con un semplice comunicato stampa.