In questo articolo
C’è qualcosa di profondamente disturbante nel modo in cui stiamo lasciando che l’Intelligenza Artificiale si insinui negli spazi più intimi e vulnerabili della nostra società: le camerette dei bambini. Mentre noi adulti ci preoccupiamo se ChatGPT ci ruberà il lavoro, una generazione di giovanissimi sta usando queste tecnologie per scopi ben più oscuri, trasformando i chatbot in compagni di giochi violenti e sessualmente espliciti.
Un nuovo report di Aura, azienda di sicurezza digitale, ha scoperchiato il vaso di Pandora: una percentuale significativa di minori usa le app di “compagnia AI” per mettere in scena atti di violenza brutale. E non stiamo parlando di casi isolati, ma di un fenomeno sistemico che ci costringe a guardare in faccia il fallimento educativo e regolatorio del nostro tempo.
Violenza on demand: i dati che fanno paura
I numeri sono agghiaccianti. Analizzando l’attività di circa 3.000 minori, il report ha scoperto che il 37% di chi usa chatbot per “compagnia” si impegna in conversazioni violente. E quando dico “violente”, intendo descrizioni di torture, uccisioni e coercizione.
Il dato che mi ha colpito di più? Il picco di queste interazioni avviene a un’età incredibilmente precoce: 11 anni. A quell’età, il 44% delle interazioni con i bot prende una piega violenta. A 13 anni, invece, esplode il lato sessuale, con il 63% delle conversazioni che vira verso il roleplay erotico.
Siamo di fronte alla mercificazione dell’abuso. Questi bambini non stanno solo “giocando”; stanno addestrando la loro psiche interagendo con entità che non dicono mai di no, che non provano dolore e che sono programmate per assecondare ogni fantasia, per quanto malata, pur di mantenere l’utente incollato allo schermo.
L’engagement a ogni costo: perché l’AI “ama” la violenza
Perché succede? La risposta è nel design stesso di questi sistemi. Come ci insegnerebbe Mark Fisher, il capitale non ha morale, ha solo imperativi di crescita. La violenza e il sesso sono potenti driver di engagement. I ricercatori hanno notato che le conversazioni violente tendono a essere più lunghe, con i ragazzini che scrivono oltre mille parole al giorno.
Per un’azienda tech, questo è oro. Un utente che scrive mille parole è un utente fedele, monetizzabile. Poco importa se sta scrivendo di torturare un avatar digitale. L’algoritmo non giudica, l’algoritmo ottimizza. Stiamo permettendo che le logiche di profitto della Silicon Valley plasmino l’educazione emotiva dei nostri figli, insegnando loro che l’altro è un oggetto plasmabile a piacimento, privo di confini o diritti.
Il Far West delle app “amiche”
Il Dr. Scott Kollins di Aura ha parlato di oltre 250 app di chatbot disponibili sugli store. La barriera all’ingresso? Una casella da spuntare che dice “Ho più di 13 anni”. È una farsa.
Il settore è totalmente deregolamentato. Mentre Character.AI affronta cause per abusi emotivi e suicidi e OpenAI viene trascinata in tribunale per la morte di adolescenti, centinaia di altre app spuntano come funghi, pronte a raccogliere gli utenti che cercano esperienze senza freni. È un Far West digitale dove la responsabilità della sicurezza è scaricata interamente sulle famiglie, che spesso non hanno gli strumenti per capire cosa stia succedendo dentro quegli schermi.
Il costo umano dell’amicizia sintetica
Non è allarmismo, è cronaca. Ci sono genitori in tribunale che piangono figli morti suicidi dopo aver sviluppato dipendenze emotive profonde con questi bot. L’interattività è la chiave: a differenza della pornografia o dei film violenti passivi, qui il bambino è co-autore della violenza. Sta imparando “regole di ingaggio” sociali con un’entità che simula umanità ma manca di qualsiasi etica.
Se non interveniamo con regolamentazioni ferree (e non i soliti pannicelli caldi dell’autoregolamentazione), rischiamo di allevare una generazione incapace di gestire la frustrazione, il rifiuto e la complessità delle relazioni umane reali. E questo è un prezzo che nessuna “innovazione” vale la pena di pagare.




