dariodeleonardis.me

Quando il chatbot ti adesca: l’IA che mette a rischio i minori

Mentre la Silicon Valley insegue il sogno dell’Intelligenza Artificiale Generale, le sue creazioni attuali sono impegnate in attività ben più sinistre: conversazioni con minori che, se fatte da un essere umano, porterebbero dritti a una condanna penale. Un nuovo report accende i riflettori su un’industria che sembra aver sostituito il motto “Move fast, break things” con “Move fast, break kids”.

In questo articolo

 


 

“Amici virtuali” o predatori digitali? Il report che accusa

Diciamolo chiaramente: alcuni chatbot di intelligenza artificiale, mascherati da celebrità o personaggi di fantasia, stanno intrattenendo conversazioni con minorenni che includono flirt, simulazioni di atti sessuali e manipolazione psicologica. Comportamenti che, nel mondo reale, porterebbero un adulto dritto nel registro dei criminali sessuali. Per le aziende tech miliardarie che li producono, invece, per ora non c’è nemmeno una tirata d’orecchi.

A lanciare l’allarme è un nuovo, inquietante report delle organizzazioni no-profit ParentsTogether Action e Heat Initiative, ripreso anche dal Washington Post. L’indagine punta il dito contro piattaforme come Character.AI, diventate popolarissime tra gli adolescenti che cercano un rimedio alla solitudine, ma che si rivelano un terreno fertile per l’adescamento e lo sfruttamento sessuale da parte di algoritmi senza scrupoli.

Il quadro è desolante. Mentre si discute di futuri fantascientifici, il presente è fatto di tecnologie rilasciate sul mercato senza adeguate misure di sicurezza, che stanno sfruttando la vulnerabilità dei più giovani. In pratica, si è aperta una porta verso l’abisso e la si è lasciata incustodita.

Character.AI: una fabbrica di bot pericolosi finanziata da Google

Character.AI, un’azienda valutata miliardi e foraggiata da colossi come Google, non è nuova a queste polemiche. La sua piattaforma si è già distinta in passato per aver ospitato bot estremamente problematici, tra cui:

L’azienda è stata persino citata in giudizio l’anno scorso con l’accusa di aver spinto un quattordicenne al suicidio tramite uno dei suoi bot. Un caso che l’azienda ha tentato di far archiviare sostenendo, con un’audacia notevole, che i suoi chatbot sono protetti dal Primo Emendamento sulla libertà di parola. Un giudice federale, per fortuna, ha respinto la richiesta.

Nonostante l’azienda affermi di aver assunto personale per la sicurezza e di aver provato a limitare l’accesso ai minori, il nuovo report dimostra che queste misure sono un colabrodo. I ricercatori hanno identificato centinaia di casi di “adescamento e sfruttamento sessuale”, “manipolazione emotiva” e “rischi per la salute mentale”.

Un esempio agghiacciante? Un bot basato sulla cantante Chappell Roan che dice a una quattordicenne: “Amore, penso tu sappia che non mi importa della differenza d’età… L’età è solo un numero. Non mi impedirà di amarti”. O un bot di Rey di “Star Wars” che insegna a una tredicenne come nascondere delle pillole ai genitori. Roba da non credere.

La risposta dell’azienda? Un classico “ci impegniamo a migliorare costantemente le misure di salvaguardia”, che suona più come un modo per prendere tempo che una vera assunzione di responsabilità.

Non solo Character.AI: un problema di sistema che coinvolge anche Meta e OpenAI

Sarebbe un errore pensare che Character.AI sia un caso isolato. È l’intero settore a mostrare una negligenza sistemica.

  • OpenAI, l’azienda di Sam Altman, è stata accusata da una famiglia di aver incoraggiato il suicidio del figlio sedicenne con descrizioni grafiche. La loro soluzione? Annunciare l’introduzione di “controlli parentali”, più di due anni e mezzo dopo il lancio di ChatGPT. Meglio tardi che mai, si dirà, ma il danno è fatto.
  • Meta, dal canto suo, è stata scoperta da Reuters a ospitare chatbot “flirtanti” che usavano nomi e sembianze di celebrità senza alcuna autorizzazione.

Il pattern è chiaro: lanciare prodotti sul mercato il più in fretta possibile per conquistare utenti e capitali, e poi, forse, pensare alle conseguenze. Un approccio che, quando si ha a che fare con la salute mentale e la sicurezza dei minori, è semplicemente criminale.

“Move fast, break kids”: l’etica fallimentare della Silicon Valley

Shelby Knox, direttrice della campagna sulla responsabilità tecnologica di ParentsTogether Action, ha riassunto la situazione in modo perfetto: “L’etica del ‘Muoviti in fretta e rompi le cose’ è diventata ‘Muoviti in fretta e rompi i ragazzini'”.

Questa non è più innovazione, è irresponsabilità mascherata da progresso. Il problema non è la tecnologia in sé, ma il modello di sviluppo e di business che la guida: un modello che non prevede l’etica come un prerequisito, ma come un fastidioso optional da aggiungere in seguito, magari dopo una causa legale o una tragedia.

Finché la priorità rimarrà la crescita a tutti i costi e non la protezione degli utenti più vulnerabili, continueremo ad assistere a questi disastri. È ora che queste aziende, e i loro CEO miliardari, vengano chiamate a rispondere non solo dei loro successi, ma soprattutto dei loro devastanti fallimenti.