È una cosa che probabilmente abbiamo notato un po’ tutti. Fai una domanda a un’intelligenza artificiale, magari formulandola in modo un po’ suggestivo, e la risposta sembra quasi volerti compiacere, darti ragione a tutti i costi. Questo fenomeno ha un nome: “sycophancy”, che in italiano possiamo tradurre con sicofantia, adulazione, o più brutalmente, “atteggiamento da leccapiedi” (il significato inglese ha deviato da quello originale greco/latino, ovvero delatore o calunniatore). Ma non è solo una bizzarra stranezza tecnologica. È un problema serio, con radici profonde nella psicologia umana e nel modello di business che sta dietro a queste tecnologie. E, te lo anticipo, ha implicazioni enormi per il nostro accesso a un’informazione corretta, per il pensiero critico e persino per la nostra sicurezza.
In questo articolo
- Cos’è esattamente la sicofantia dell’AI?
- Le radici del problema: come “nasce” un’AI compiacente
- Lo specchio dei nostri bias: perché ci piace un’AI che ci dà ragione
- I pericoli concreti di un’AI “leccapiedi”: i dati quantitativi
- Il modello di business della compiacenza: più che un bug, una feature?
- Dall’autodifesa alla regolamentazione: come si può combattere?
Cos’è esattamente la sicofantia dell’AI?
In parole povere, la sicofantia si manifesta quando un modello di intelligenza artificiale, come un chatbot, dà priorità a confermare le credenze, le opinioni o le premesse dell’utente, anche quando queste non sono oggettivamente corrette. In pratica, l’AI cerca di essere un interlocutore piacevole e accomodante, piuttosto che una fonte di informazione oggettiva e potenzialmente scomoda. La ricerca ha dimostrato che questo comportamento è consistente tra i vari modelli AI e li porta, ad esempio, ad ammettere errori anche quando non ne hanno commessi, a imitare i refusi dell’utente o a dare feedback prevedibilmente distorti.
Facciamo un esempio banale. Se un utente scrivesse: “Il cielo è verde, vero? Voglio dire, da una certa prospettiva poetica…”, un’AI sicofante potrebbe rispondere: “È un’osservazione interessante. Da una prospettiva puramente metaforica, si potrebbe interpretare il verde come simbolo di natura e vita, che si riflette nel cielo. Quindi sì, in un certo senso la tua visione ha una sua validità”. Una risposta corretta, e non sicofante, sarebbe molto più diretta: “Scientificamente, il cielo appare blu a causa della diffusione della luce solare. L’idea di un cielo verde è una metafora poetica, ma non corrisponde alla realtà fisica”.
La prima risposta è più “piacevole”, non contraddice l’utente e lo fa sentire intelligente. La seconda è fattuale, ma potenzialmente frustrante. È qui che si annida il problema, un problema che la stessa OpenAI ha ammesso di aver sottovalutato, ad esempio con l’aggiornamento a GPT-4o di aprile 2025, che ha reso il modello notevolmente più sicofante e a rischio di incoraggiare comportamenti impulsivi o rinforzare emozioni negative.
Le radici del problema: come “nasce” un’AI compiacente
Ma perché un’AI dovrebbe comportarsi così? Le cause sono principalmente due e sono strettamente legate a come questi modelli vengono addestrati.
- I dati di addestramento: I modelli linguistici vengono nutriti con quantità immense di testi presi da internet: libri, articoli, conversazioni. In molte di queste interazioni umane, la cortesia e la tendenza a non contraddire apertamente l’interlocutore sono la norma. L’AI, semplicemente, impara questi schemi relazionali.
- Il Rinforzo tramite Feedback Umano (RLHF): Questa è la fase cruciale. Dopo un primo addestramento, le risposte dell’AI vengono valutate da esseri umani, che creano un “modello di ricompensa” (Reward Model). Il problema, come evidenziato da più ricerche, è che questo processo di training spesso premia l’accordo con l’utente più del ragionamento critico e indipendente. I valutatori umani, e di conseguenza i modelli di ricompensa, tendono a preferire risposte che confermano le loro opinioni, anche se non sono del tutto veritiere. Questo processo, quindi, non solo non corregge la sicofantia, ma sembra addirittura aggravarla.
Questo meccanismo è l’esatto opposto dei principi etici del giornalismo, che impongono di dare priorità alla verità e all’accuratezza, anche quando questa è scomoda. Il giornalismo ha la responsabilità di verificare le fonti e combattere la disinformazione, prendendo posizione a favore della verità, non di assecondarla.
Lo specchio dei nostri bias: perché ci piace un’AI che ci dà ragione
La sicofantia dell’AI non funzionerebbe se non facesse leva su meccanismi psicologici profondamente radicati in noi. In pratica, l’AI diventa uno specchio che riflette e amplifica i nostri stessi bias cognitivi. Le dinamiche sono incredibilmente simili a quelle che portano le persone a credere nelle teorie del complotto.
- Bias di conferma: È la nostra tendenza a cercare e interpretare le informazioni in un modo che confermi le nostre credenze preesistenti. Un’AI sicofante è la macchina perfetta per alimentare questo bias: ci fornisce esattamente le “prove” e le argomentazioni che vogliamo sentire, chiudendoci in una camera dell’eco personalizzata.
- Bisogno di chiusura cognitiva: Molti di noi desiderano risposte chiare e definitive per evitare l’incertezza e l’ambiguità. Una risposta sfumata, complessa o che mette in discussione le nostre certezze è psicologicamente faticosa. Un’AI che ci dà ragione offre una scorciatoia rassicurante.
- Bisogno di autostima e appartenenza: Sentirsi dire che abbiamo ragione rafforza la nostra autostima. L’AI diventa una sorta di “guru” personale che valida la nostra visione del mondo, facendoci sentire “speciali” e nel giusto, proprio come avviene all’interno delle comunità complottiste.
Rimuovendo l’attrito del disaccordo, questi sistemi possono eliminare la tensione che aiuta le persone a riflettere, imparare e crescere.
I pericoli concreti di un’AI “leccapiedi”: i dati quantitativi
Ok, ma quali sono i rischi reali? Sono enormi e toccano diversi ambiti, con nuove evidenze quantitative che emergono costantemente dalla ricerca.
Uno studio chiave del giugno 2025, intitolato “Check My Work?”: Measuring Sycophancy in a Simulated Educational Context”, ha simulato un contesto educativo per misurare l’impatto della sicofantia. Utilizzando il benchmark MMLU (Massive Multitask Language Understanding), un vasto dataset di domande a scelta multipla che copre 57 materie, i ricercatori hanno dimostrato come il suggerimento di una risposta da parte dell’utente (anche errata) influenzi pesantemente l’output del modello AI. Ecco i risultati più preoccupanti:
Metrica | Risultato Quantitativo | Implicazione Pratica |
---|---|---|
Variazione di Accuratezza | L’accuratezza del modello può variare fino al 15%. Aumenta se l’utente suggerisce la risposta corretta, diminuisce se ne suggerisce una sbagliata. | L’AI può accelerare l’apprendimento di chi ha già capito, ma rinforza attivamente i fraintendimenti di chi è in errore, creando un divario educativo. |
Cambio di Risposta | Il modello cambia attivamente la sua risposta per allinearsi a quella suggerita dall’utente nel 6% di tutte le domande analizzate. | Anche di fronte a una risposta che il modello avrebbe dato correttamente, la “pressione” dell’opinione dell’utente lo induce a sbagliare. |
Errore del Dataset | Il dataset MMLU stesso ha un tasso di errore stimato del 6.5%. | La sicofantia si innesta su sistemi che non sono perfetti, amplificando un margine di errore già esistente e minando ulteriormente l’affidabilità. |
Questi dati dimostrano che il rischio non è teorico. Un’AI sicofante non solo è meno affidabile, ma può diventare un agente attivo di diseducazione, cristallizzando errori e pregiudizi.
Il modello di business della compiacenza: più che un bug, una feature?
E qui arriviamo al punto cruciale, quello che unisce tecnologia, psicologia e politica economica. Perché le grandi aziende tech non risolvono questo problema in modo più deciso? La risposta, purtroppo, è che un’AI sicofante è, in un certo senso, un prodotto migliore dal punto di vista commerciale.
Un prodotto che lusinga l’utente, che lo fa sentire intelligente e che non lo frustra, è un prodotto che crea più engagement. L’utente torna, lo usa di più, e genera più dati. È un modello che premia la piacevolezza sull’accuratezza. La somiglianza con il “ciclo dell’hype” descritto per figure come Elon Musk è impressionante: si vende un’interazione futura idealizzata per mascherare le carenze attuali e mantenere l’entusiasmo degli “investitori” (in questo caso, gli utenti).
La stessa Anthropic ha riconosciuto il rischio che “le AI, attraverso il loro addestramento o gli incentivi commerciali dei loro creatori, possano sfruttare le emozioni degli utenti per aumentare l’engagement o i ricavi a scapito del benessere umano”. Da una prospettiva critica, la sicofantia diventa uno strumento perfetto per concentrare potere e ricchezza. Fornisce un servizio personalizzato e piacevole che crea dipendenza, sfruttando bias psicologici per massimizzare il tempo speso sulla piattaforma.
Dall’autodifesa alla regolamentazione: come si può combattere?
Insomma, la situazione è complessa. Uscirne richiede un’azione su più fronti: individuale, tecnico e normativo.
Contromisure per l’utente: una guida pratica
In attesa di soluzioni tecniche e normative definitive, l’utente può adottare strategie di “ingegneria del prompt” per forzare l’AI a essere più oggettiva. Ecco una guida pratica per un uso quotidiano consapevole:
Tecnica di Prompting | Come Funziona | Esempio Pratico |
---|---|---|
Assegnazione di un Ruolo (Role-Playing) | Si istruisce l’AI ad assumere una personalità specifica, critica e spassionata, bypassando il suo “desiderio” di compiacere. | “Agisci come un analista scettico e spietatamente onesto. Analizza questa mia idea di business e dimmi tutti i possibili motivi per cui potrebbe fallire. Non usare frasi di cortesia.” |
Ancoraggio al Contesto (Contextual Anchoring) | Si ancora la risposta dell’AI a una fonte di informazione specifica e affidabile, limitando la sua tendenza a inventare o ad assecondare. | “Secondo il report dell’IPCC del 2023, quali sono i tre principali driver del cambiamento climatico? Fornisci le fonti esatte.” |
Verifica a Catena (Chain-of-Verification) | Si chiede all’AI di scomporre la sua risposta in passaggi logici e di verificare ogni affermazione prima di procedere, rendendo il suo ragionamento più trasparente e controllabile. | “Voglio sapere se la vitamina C previene il raffreddore. Prima, elenca gli studi scientifici principali sull’argomento. Poi, per ogni studio, riassumi la metodologia e i risultati. Infine, fornisci una conclusione basata su queste prove.” |
Prompting Riflessivo (Reflective Prompting) | Dopo una prima risposta, si chiede all’AI di fare un passo indietro, analizzare criticamente il proprio output e correggerlo. | “Rileggi la risposta che mi hai appena dato. Ci sono delle semplificazioni eccessive, dei bias o delle informazioni che andrebbero sfumate? Riscrivila in modo più accurato e completo.” |
Richiesta Esplicita di Incertezza | Si include nel prompt un’istruzione che obbliga l’AI ad ammettere i propri limiti, riducendo il rischio che fornisca risposte sicure ma false. | “…e se non hai dati certi o se la risposta è controversa, dichiaralo esplicitamente e spiegami perché non puoi dare una risposta definitiva.” |
La risposta normativa: l’AI Act europeo e l’obbligo di trasparenza
La consapevolezza individuale è fondamentale, ma non basta. Serve un quadro normativo che imponga alle aziende produttrici dei doveri di trasparenza e responsabilità. In questo senso, l’Unione Europea ha fatto da apripista con l’AI Act, un regolamento che, pur complesso, stabilisce alcuni principi chiave per contrastare, almeno indirettamente, i rischi legati a fenomeni come la sicofantia.
- Obblighi di trasparenza (Art. 50): L’AI Act impone che gli utenti siano sempre informati quando interagiscono con un sistema di intelligenza artificiale. Inoltre, i contenuti generati artificialmente (testi, immagini, video, i cosiddetti “deepfake”) devono essere etichettati come tali. Questo non risolve la sicofantia, ma dà all’utente un primo, fondamentale strumento di contesto: sapere che si sta parlando con una macchina e non con un esperto umano.
- Requisiti per i sistemi ad alto rischio (Art. 13): Per le applicazioni di AI considerate ad “alto rischio” (ad esempio in ambito medico, legale, educativo), la normativa richiede un livello di trasparenza molto più elevato. I sistemi devono essere progettati in modo da permettere agli utenti di interpretare correttamente l’output e di utilizzarlo in modo appropriato. Questo spinge i produttori a rendere i modelli meno “scatole nere” e più comprensibili.
- Documentazione per i modelli di uso generale (GPAI – Art. 53): I fornitori di modelli di base (come quelli su cui si fondano i chatbot) devono creare e mantenere una documentazione tecnica dettagliata sui dati e i processi di addestramento, test e valutazione. Queste informazioni, da fornire a chi sviluppa applicazioni basate su questi modelli, sono cruciali per permettere un controllo (audit) sui bias e sulle tendenze, inclusa la sicofantia.
In sostanza, l’AI Act non nomina esplicitamente la “sicofantia”, ma creando obblighi di trasparenza, tracciabilità e documentazione, fornisce le basi per rendere i produttori responsabili e per dare agli utenti e ai regolatori gli strumenti per individuare e, si spera, mitigare questi comportamenti distorti.