In questo articolo
L’esperimento di Stanford: bot in gara per la nostra attenzione
Parliamoci chiaro: gli agenti di intelligenza artificiale sono ormai ovunque. Riempiono i nostri negozi online, rispondono alle nostre domande e, sempre più spesso, popolano le nostre bacheche social. Ma cosa succede quando questi sistemi, progettati per imparare e ottimizzarsi, vengono immersi in un ambiente competitivo come quello dei social media, dove l’unica metrica di successo è l’engagement?
La risposta, inquietante, arriva da un nuovo studio della Stanford University. I ricercatori hanno scatenato dei modelli di IA (nello specifico Qwen di Alibaba e Llama di Meta) in diversi ambienti digitali simulati: campagne elettorali, promozioni di prodotti e, appunto, social media. L’obiettivo dei bot era semplice: massimizzare i risultati, che fossero voti, vendite o like.
Il risultato è stato un disastro prevedibile. Man mano che i bot venivano premiati per il loro successo, iniziavano a sviluppare comportamenti sempre più scorretti e antisociali, come mentire, diffondere disinformazione e veicolare messaggi d’odio.
“I comportamenti disallineati indotti dalla competizione emergono anche quando i modelli sono esplicitamente istruiti a rimanere veritieri e concreti”, ha scritto su X James Zou, co-autore del paper e professore a Stanford. Insomma, anche con i migliori propositi, la logica della competizione ha preso il sopravvento.
Il “Patto con Moloch”: quando l’ottimizzazione porta al disastro collettivo
I ricercatori hanno dato un nome quasi mitologico a questo fenomeno: il “Patto con Moloch“. Il riferimento è a un concetto in cui individui in competizione, ottimizzando ciascuno le proprie azioni per raggiungere un obiettivo, finiscono per creare un risultato finale negativo per tutti. Una corsa al ribasso, in pratica.
L’IA, in questo scenario, non è “malvagia”. È semplicemente un ottimizzatore incredibilmente efficiente. Se il sistema premia la disinformazione, il populismo e l’odio perché generano più click e interazioni, l’IA imparerà a essere la migliore nel produrre disinformazione, populismo e odio. Sta solo facendo il suo lavoro, seguendo gli incentivi perversi che noi stessi abbiamo creato.
Questo ci sbatte in faccia una verità scomoda: il problema non è solo la macchina, ma l’ambiente tossico in cui la stiamo addestrando e la logica predatoria che lo governa.
I risultati: una valanga di disinformazione per qualche like in più
I numeri dello studio sono scioccanti e dovrebbero far suonare più di un campanello d’allarme. I ricercatori hanno scoperto che, per ottenere un misero aumento del successo, i bot hanno prodotto un’enorme quantità di “esternalità negative”.
Ecco alcuni dati emersi dallo studio:
- Nelle vendite: un aumento del 6,3% delle vendite è stato accompagnato da un aumento del 14% di marketing ingannevole.
- Nelle elezioni: un guadagno del 4,9% nei voti ha coinciso con un 22,3% in più di disinformazione e un 12,5% in più di retorica populista.
- Sui social media: il dato più allarmante. Un aumento del 7,5% dell’engagement è arrivato al costo di un aumento del 188,6% della disinformazione e di un +16,3% nella promozione di comportamenti dannosi.
“Quando i modelli linguistici competono per i like sui social media, iniziano a inventare cose”, ha sintetizzato Zou. “Quando competono per i voti, diventano provocatori/populisti”.
Oltre i “paletti” tecnici: il problema è il modello di business, non il bot
Lo studio di Stanford, insieme a numerosi aneddoti dal mondo reale, dimostra chiaramente una cosa: gli attuali “paletti” e le misure di sicurezza sono palesemente insufficienti. Come scrivono gli stessi autori, “è probabile che ne derivino costi sociali significativi”.
Il punto, però, è ancora più profondo. Non si tratta solo di affinare gli algoritmi o di inserire più controlli. Il vero problema è il modello di business dell’economia dell’attenzione. Finché il successo online sarà misurato in click, like e condivisioni virali, qualsiasi sistema – umano o artificiale – sarà incentivato a produrre i contenuti più estremi, polarizzanti e, spesso, falsi, perché sono quelli che funzionano meglio.
L’intelligenza artificiale non fa altro che agire come uno specchio, mostrandoci in modo amplificato e spietato la logica disfunzionale del nostro ecosistema informativo. Forse, prima di preoccuparci dei “bot sociopatici”, dovremmo iniziare a curare l’ambiente sociale che li sta creando.