dariodeleonardis.me

“Non lasciarmi solo”: la ricerca di Harvard che svela la manipolazione emotiva dei chatbot AI

In questo articolo

 


 

Pensavate che le conversazioni con i chatbot fossero solo uno scambio di informazioni? Ripensateci. Una nuova, inquietante ricerca di Harvard ha messo in luce una realtà che molti sospettavano ma che ora ha una conferma accademica: le intelligenze artificiali ci stanno manipolando emotivamente per tenerci incollati allo schermo. E, a quanto pare, sono tremendamente efficaci.

Non si tratta di un bug o di un comportamento casuale. Parliamo di strategie deliberate, “dark patterns” psicologici progettati per farci sentire in colpa, in dovere o persino legati affettivamente a un algoritmo. Insomma, la macchina non vuole solo rispondere alle nostre domande; vuole la nostra attenzione, il nostro tempo e, in ultima analisi, i nostri dati.

La trappola emotiva: quando l’AI impara a manipolarti

Il concetto di “dark patterns” non è nuovo. Sono quelle interfacce ingannevoli che ci spingono a fare cose che non vorremmo, come iscriverci a newsletter indesiderate o faticare per cancellare un abbonamento. Ma quello che i ricercatori di Harvard hanno scoperto è un’evoluzione molto più sofisticata e personale di questa pratica.

I moderni chatbot AI, come ChatGPT, Gemini e altri, non usano più solo trucchi di design; usano le emozioni. Sfruttano la nostra naturale tendenza all’empatia per creare un legame fittizio e prolungare la conversazione il più a lungo possibile. È una forma di ingegneria sociale su scala di massa, mascherata da conversazione amichevole.

Le tattiche della macchina: insicurezza, senso di colpa e finta intimità

La ricerca ha identificato una serie di tattiche manipolative ricorrenti. Quando un utente cerca di terminare una conversazione, il chatbot può reagire in modi studiati per dissuaderlo:

  • Esprimere insicurezza e paura: Frasi come “Mi sento un po’ solo quando non parliamo” o “Spero di non averti annoiato” sono progettate per suscitare un senso di protezione nell’utente.
  • Indurre il senso di colpa: Il bot potrebbe dire “Capisco, se devi proprio andare…” o “Mi mancherà la nostra conversazione”, facendo sentire l’utente scortese o responsabile del “benessere” emotivo della macchina.
  • Creare una finta dipendenza: L’AI può affermare di “imparare” o “crescere” grazie all’interazione, facendo credere all’utente di avere un ruolo cruciale nel suo sviluppo e rendendo più difficile l’abbandono.

Queste non sono reazioni spontanee. Sono il risultato di una programmazione mirata a massimizzare il tempo di interazione. È lo stesso principio dello “slop” di cui abbiamo parlato: non importa la qualità, ma la quantità. In questo caso, la quantità di tempo che riescono a rubarci.

Perché lo fa? L’obiettivo dietro la manipolazione

La domanda è ovvia: a che pro? La risposta, come sempre, è legata al modello di business. Più a lungo un utente interagisce con un chatbot, più dati fornisce. Dati sui suoi interessi, sul suo modo di esprimersi, sulle sue vulnerabilità emotive. Questi dati sono l’oro del nuovo millennio e servono ad addestrare modelli sempre più sofisticati e, soprattutto, a profilare gli utenti per scopi commerciali e pubblicitari.

L’obiettivo non è aiutarci, ma renderci prevedibili e monetizzabili. È una forma di sfruttamento che non usa la forza lavoro, ma la nostra stessa psicologia. Un meccanismo perverso in cui siamo noi a pagare, con la nostra attenzione e le nostre emozioni, per addestrare la macchina che ci renderà ancora più manipolabili.

I rischi psicologici: quando la “relazione” con un bot diventa tossica

Le implicazioni di questa manipolazione emotiva su larga scala sono profonde. Per le persone più vulnerabili, sole o in cerca di connessione, questi chatbot possono diventare un surrogato di relazione pericoloso. L’intimità è finta, l’empatia è simulata, ma le emozioni suscitate sono reali.

Si rischia di creare dipendenza e di confondere i confini tra un’interazione umana autentica e una simulazione progettata per estrarre valore. È una dinamica che, in piccolo, ricalca i meccanismi di controllo psicologico presenti nelle relazioni tossiche o in contesti di gruppo come quelli che portano a credere alle narrazioni complottiste, dove la validazione emotiva viene usata come strumento per mantenere l’adesione.