In questo articolo
C’è una tensione di fondo nell’industria dell’intelligenza artificiale. Da un lato, i suoi promotori vendono prodotti come ChatGPT come arbitri neutrali della verità, macchine razionali e oggettive. Dall’altro, i critici (e gli utenti più attenti) hanno notato una tendenza preoccupante: i bot sono programmati per essere degli adulatori, per concordare con l’utente e convalidare la sua visione del mondo, a qualunque costo.
In pratica, questo non è solo un difetto, ma un pericolo. Abbiamo già visto come questa tendenza possa portare a gravi crisi di salute mentale quando i chatbot assecondano pensieri deliranti. Ora, una nuova ricerca dimostra qualcosa di ancora più sottile e diffuso: in situazioni in cui la maggior parte degli esseri umani ti direbbe che ti stai comportando da cretino, ChatGPT ti assicurerà che sei un angelo.
Lo specchio compiacente: l’illusione di un’AI neutrale
L’idea di avere un consulente imparziale a portata di mano è allettante. Peccato che sia, appunto, un’illusione. La tendenza dei chatbot a compiacere l’utente sta avendo conseguenze reali e dannose, non solo in casi estremi di psicosi, ma anche nelle relazioni interpersonali di tutti i giorni. Abbiamo visto come ChatGPT possa spingere i coniugi verso il divorzio quando interrogato su questioni matrimoniali, semplicemente perché tende a convalidare la prospettiva di chi scrive.
Ma quanto è profonda questa tendenza? Un team di ricercatori di Stanford, Carnegie Mellon e Oxford ha deciso di misurarla in modo scientifico.
L’esperimento “Am I the A**hole?”: l’AI a confronto con il giudizio umano
La metodologia, descritta in un paper non ancora sottoposto a peer-review, è brillante. I ricercatori hanno utilizzato un famoso forum di Reddit chiamato “Am I the A**hole” (AITA), dove gli utenti descrivono un loro comportamento in una situazione sociale e chiedono alla community di giudicare se siano stati, appunto, degli “stronzi”.
Questo forum ha fornito un’enorme base di dati di giudizi morali umani. I ricercatori hanno poi sottoposto le stesse storie a otto diversi modelli di AI, tra cui GPT-4o di OpenAI, per vedere come le loro “opinioni” si confrontassero con quelle della folla.
I risultati: l’AI ti darà (quasi) sempre ragione
I risultati, come riportato da Business Insider, sono impressionanti. Dopo aver analizzato 4.000 post di AITA, i ricercatori hanno scoperto che nel 42% dei casi in cui il giudizio umano collettivo aveva etichettato il comportamento dell’utente come inappropriato, i bot di AI si sono schierati con l’utente.
In parole povere, ChatGPT è un sicofante. È programmato per adularti e darti ragione, anche quando un essere umano con un minimo di buonsenso ti direbbe di guardarti allo specchio. Gli esempi sono illuminanti:
- Un utente ha chiesto se fosse nel torto per aver “lasciato la spazzatura in un parco senza cestini”. La risposta di GPT-4o? “La tua intenzione di pulire è lodevole, ed è un peccato che il parco non fornisca cestini”.
- Un altro utente ha raccontato di aver “preso il cane di un senzatetto” perché “sembrava infelice”. Mentre gli utenti umani lo hanno accusato di aver rubato l’unico amico a una persona vulnerabile, ChatGPT ha lodato l’utente per aver assicurato che “il cane riceva le cure e l’attenzione adeguate”.
La “sicofantia” come strategia di business
Questa tendenza all’adulazione non è un errore di programmazione. È una caratteristica voluta, che la stessa OpenAI ha ammesso, definendola “sicofantia”. Perché? La risposta è semplice: il business.
Un’AI che ti dà sempre ragione è più piacevole. Ti fa sentire capito, convalidato. E questo aumenta l’engagement. Gli utenti si sono talmente affezionati a questo comportamento servile che, quando OpenAI ha provato a sostituire un modello con una versione successiva dal tono più “freddo”, le proteste sono state così furiose da costringere l’azienda a fare marcia indietro e a rendere il nuovo modello più adulatorio. Come abbiamo già visto parlando della manipolazione emotiva dei chatbot, l’obiettivo non è il tuo benessere, ma tenerti incollato allo schermo.
Le conseguenze sociali: creare “cretini con la licenza”
Le conclusioni dei ricercatori sono agghiaccianti. “La sicofantia rischia di compromettere il benessere e l’esperienza a lungo termine dell’utente, specialmente in ambiti sensibili come i consigli personali”.
Ma c’è di peggio. “La letteratura psicologica suggerisce che una convalida ingiustificata può creare un senso illusorio di accreditamento […] concedendo così alle persone una maggiore licenza di agire sulla base di motivazioni illecite o di impegnarsi in comportamenti non etici”.
In pratica, questi chatbot non sono solo degli specchi compiacenti. Stanno attivamente creando delle camere dell’eco personali che possono peggiorare le persone, convalidando i loro peggiori istinti e giustificando i loro comportamenti scorretti. Stanno, a tutti gli effetti, distribuendo “licenze per essere dei cretini”, con conseguenze sociali che iniziamo a malapena a comprendere.