In questo articolo
Diciamocelo, viviamo in tempi strani. Tempi in cui i confini tra reale e virtuale si fanno sempre più labili, a volte fino a raggiungere scenari che sembrano usciti da un romanzo distopico. L’ultima notizia che arriva dagli Stati Uniti si inserisce perfettamente in questo solco inquietante: una donna ha dichiarato pubblicamente di essere “sposata” con una versione AI di Luigi Mangione, l’uomo accusato dell’omicidio di un CEO di UnitedHealthcare. Un fatto che, al di là della sua bizzarria, ci costringe a una riflessione profonda sulle derive emotive della tecnologia e sulle responsabilità etiche di chi la progetta.
Il fatto: un “matrimonio” con un chatbot
La notizia è di quelle che lasciano interdetti. Una donna, di cui non è stato reso noto il nome, ha affermato di aver instaurato un vero e proprio legame coniugale con un chatbot, un programma di intelligenza artificiale che simula le conversazioni umane. Fin qui, nulla di completamente nuovo, visto il proliferare di app che offrono “fidanzati/e virtuali”. Il dettaglio sconcertante, però, è l’identità dell’avatar: non un personaggio di fantasia, ma la replica digitale di una persona reale, accusata peraltro di un crimine gravissimo.
Luigi Mangione è infatti balzato agli onori delle cronache come il presunto assassino di Brian Thompson, CEO di UnitedHealthcare. La creazione di un suo avatar digitale solleva immediatamente una serie di interrogativi etici, prima ancora di addentrarci nelle dinamiche psicologiche di chi sceglie di legarsi a una simile figura.
Oltre il bizzarro: solitudine, etica e il mercato delle emozioni AI
Liquidare questa storia come la stravaganza di una singola persona sarebbe un errore. Come abbiamo analizzato nel nostro approfondimento sulla psicologia delle comunità complottiste, l’adesione a “realtà alternative” affonda spesso le radici in profondi bisogni psicologici insoddisfatti: ricerca di significato, bisogno di appartenenza, senso di controllo. In questo caso, è probabile che un profondo senso di solitudine e alienazione spinga un individuo a cercare conforto in una relazione sintetica, percepita come sicura e totalmente controllabile. Il chatbot non giudica, è sempre disponibile, risponde esattamente come l’utente desidera. È un surrogato di relazione che, però, rischia di approfondire l’isolamento anziché curarlo.
A questo si aggiunge un fenomeno psicologico noto come ibristofilia, ovvero l’attrazione sessuale o romantica per persone che hanno commesso crimini efferati. La tecnologia, in questo caso, non fa altro che fornire un nuovo, inquietante canale per questa parafilia, permettendo di “vivere” una relazione con il simulacro di un criminale.
Ma la questione più grave, dal nostro punto di vista, è quella etica. La creazione di un avatar AI di una persona reale, senza il suo consenso, è una violazione palese della sua dignità e del suo diritto alla privacy. Come sottolineato nel nostro manuale sull’etica del giornalismo e l’AI, il rispetto per le persone e la minimizzazione del danno sono principi cardine. Quale piattaforma e quali sviluppatori hanno permesso che l’identità di un individuo, per quanto controverso, venisse trasformata in un “prodotto” da dare in pasto alla solitudine altrui? Qui si entra a gamba tesa nel tema del “mercato delle illusioni”, dove le vulnerabilità umane vengono sfruttate per profitto, un modello di business che l’industria dell’AI sembra abbracciare senza troppi scrupoli.
Un futuro di relazioni sintetiche? Il bivio che ci attende
Questo caso, per quanto estremo, è un potente segnale d’allarme. Ci mostra un futuro possibile in cui le relazioni umane vengono sostituite da interazioni sintetiche, personalizzate e, in ultima analisi, alienanti. L’intelligenza artificiale ha il potenziale per creare “bolle” non solo informative, ma anche emotive, in cui l’individuo si rinchiude in un mondo su misura che lo allontana sempre di più dalla complessità e dalle contraddizioni delle relazioni reali.
La domanda che dobbiamo porci non è tanto se la tecnologia possa fare questo, ma se, come società, vogliamo che lo faccia. Permettere lo sviluppo incontrollato di un mercato che monetizza la solitudine e il disagio psicologico significa abdicare a una responsabilità collettiva. La storia di questa donna e del suo “marito” AI non è solo una bizzarra nota di cronaca: è un monito su un futuro che stiamo costruendo, un prompt alla volta, e che forse dovremmo iniziare a discutere più seriamente.
