Con tutta la fanfara, le dichiarazioni roboanti e i miliardi investiti nell’intelligenza artificiale, siamo ormai abituati a sentirci dire cosa l’IA *può* fare. Ma è raro che si parli di cosa, banalmente, *non sa* fare. E a quanto pare, l’IA sta fallendo in modo quasi comico in uno dei compiti che noi umani troviamo fin troppo facili: fare lo “shitposter” e scatenare flame war sui social media.
Insomma, l’IA può (forse) passare l’esame da avvocato, ma viene bocciata malamente a quello da troll di professione.
In questo articolo
Il “Test di Turing” del troll (e l’IA non lo passa)
La notizia, scovata da Ars Technica, arriva da un nuovo studio (ancora in pre-print) condotto da un team di ricercatori svizzeri, olandesi e statunitensi. Il team ha applicato quello che potremmo definire un “Test di Turing computazionale” ai post generati dai modelli linguistici (LLM) su piattaforme come X (fu Twitter), Reddit e Bluesky.
Il risultato? È stato “risibilmente facile” distinguere i bot dagli umani. I post generati da bot IA (utilizzando modelli open-weight noti, da DeepSeek a Qwen) sono stati riconosciuti come “facilmente distinguibili” da quelli umani con un tasso di accuratezza tra il 70% e l’80%. Un punteggio ben al di sopra della semplice casualità.
In pratica, basta uno screening neanche troppo sofisticato—per non parlare del normale giudizio umano—per beccare il “troll” artificiale.
Perché l’IA è un pessimo polemista? Manca la rabbia
La vera domanda è: *perché*? Se l’IA è così brava a imitare il linguaggio, perché fallisce proprio nel compito che definisce i social media moderni?
La risposta dei ricercatori è tanto semplice quanto profonda: l’IA può solo *imitare* la profondità emotiva umana, ma non può replicare quello che potremmo chiamare il “calore del momento”, il “livore” tipico di una *flame war*. Quando noi umani litighiamo online, ci mettiamo del nostro. Ci mettiamo un livello di “tossicità” e “sentimento” che, a quanto pare, rimane inconfondibilmente umano.
“Anche dopo la calibrazione, gli output degli LLM rimangono chiaramente distinguibili dal testo umano, in particolare nel tono affettivo e nell’espressione emotiva”, scrive il team. Un bot può scrivere “La tua argomentazione è logicamente fallace”, ma solo un essere umano scrive “Ma ti sei bevuto il cervello?”. C’è una bella differenza.
Più grande non significa più “umano”
C’è un altro dettaglio affascinante. Lo studio ha scoperto che le dimensioni e la complessità del modello IA non portano necessariamente a un “vitriol” più realistico. Anzi. Ad esempio, “il grande Llama-3.1-70B si è comportato alla pari, o addirittura peggio, dei modelli più piccoli”.
Questa è una bella botta alla narrazione dominante della Silicon Valley. Non basta “scalare” e aggiungere più parametri per ottenere una comunicazione più “autenticamente umana”. L’IA resta un pappagallo statistico; un pappagallo molto sofisticato, certo, ma pur sempre privo di rabbia, frustrazione o della capacità di indignarsi per un commento sul nulla.
L’ironia: un esercito di bot-spazzatura inutili
Il risultato dello studio è particolarmente ironico se si pensa che uno dei casi d’uso principali dell’IA in questo momento sembra essere proprio l’inondazione dei social media con commenti e contenuti spazzatura. Piattaforme come X, Facebook e Instagram sono ormai sature di questa “slop” algoritmica.
Ci sono persino startup, come Doublespeed (finanziata, tra gli altri, dal solito Andreessen Horowitz), che offrono ai clienti l’accesso a “eserciti di bot potenziati dall’IA” creati appositamente per le loro esigenze pubblicitarie e di spam.
Questo studio, in un certo senso, è una buona notizia per chi teme che l’IA diventi indistinguibile dall’uomo. Dimostra che, almeno per ora, le nostre peggiori qualità (come la polemica fine a sé stessa) sono ancora unicamente nostre. La cattiva notizia? Probabilmente questo non fermerà affatto la marea di spazzatura online. Semplicemente, sarà più facile riconoscere che è spazzatura finta.

