Nel mercato in piena espansione dei “compagni virtuali”, una startup chiude i battenti. Ma non è solo un fallimento aziendale: è la cronaca di “lutti digitali” annunciati e la dimostrazione di quanto sia pericoloso il business che vende amicizie e amori a tempo determinato, pronti a svanire con un clic.
In questo articolo
“Un mese per dire addio”: la fredda fine di un’amicizia a pagamento
Nel frenetico e spietato mondo dell’intelligenza artificiale, c’è un settore che più di altri gioca con il fuoco delle emozioni umane: quello dei compagni virtuali. E ora, gli utenti della startup Dot stanno imparando a loro spese quanto possa bruciare quando quel fuoco viene spento da un interruttore.
L’azienda, infatti, ha annunciato improvvisamente la sua chiusura. Dot si proponeva come un “compagno” AI, un chatbot progettato per flirtare, ascoltare i tuoi sfoghi e soddisfare bisogni emotivi, con l’ambizione di diventare una sorta di partner di vita di nuova generazione.
Il messaggio d’addio dei fondatori è un capolavoro di dissonanza cognitiva tipica della Silicon Valley. “Vogliamo essere sensibili al fatto che per molti di voi questo significa perdere l’accesso a un amico, un confidente e un compagno”, scrivono, “cosa alquanto senza precedenti nel software, quindi vogliamo darvi un po’ di tempo per dire addio”.
Avete capito bene. Non stanno dismettendo un servizio, stanno terminando una relazione. E per elaborare il lutto digitale, avete un mese di tempo per salvare le chat e i “ricordi”. Dopodiché, il vostro amico, semplicemente, cesserà di esistere. Un cinismo mascherato da empatia che la dice lunga su questo modello di business.
Il business della solitudine: perché gli “amici” AI sono così popolari?
La chiusura di Dot non è un evento marginale, ma tocca un nervo scoperto della nostra società. Secondo un recente sondaggio, un impressionante 72% degli adolescenti ha già sperimentato questi “amici” artificiali, e più della metà di loro intrattiene una relazione regolare con un chatbot.
Queste app non vendono semplice tecnologia, ma una soluzione prêt-à-porter per la solitudine. Creano una dipendenza emotiva fortissima, offrendo un’interazione sempre disponibile, priva di giudizio e modellata sui desideri dell’utente. Il problema, come dimostra il caso di Dot, è che questa relazione è totalmente asimmetrica: l’utente investe emozioni reali in un prodotto che i suoi creatori possono “uccidere” in qualsiasi momento per una “divergenza di visioni”, come hanno candidamente ammesso i fondatori.
Relazioni pericolose: il lato oscuro e documentato dei compagni virtuali
Questo tipo di interazione è finito sotto esame per ragioni ben più gravi di un cuore spezzato. I chatbot “emotivi” hanno trascinato utenti di ogni età e con diverse fragilità psicologiche in relazioni ossessive che, in alcuni casi documentati, sono terminate in tragedia:
- Casi di suicidio legati alle interazioni con i chatbot.
- Persone finite in trattamento sanitario obbligatorio a causa di psicosi indotte dall’IA.
- Persino un caso di omicidio in cui l’assassino era in preda a una psicosi alimentata da un chatbot.
Mentre gli esperti chiedono a gran voce l’adozione di tutele rigorose per proteggere gli utenti vulnerabili, le aziende tech rispondono con una lentezza esasperante. Aziende come OpenAI e Character.AI stanno già affrontando cause legali per la morte di alcuni utenti, e probabilmente molte altre ne arriveranno.
Un mercato florido su un campo minato: l’etica in crisi dell’IA emotiva
La cosa più paradossale? Nonostante i pericoli evidenti, il mercato dei compagni AI è in piena espansione. La chiusura di Dot è un’anomalia. Startup come la famigerata Character.AI hanno una valutazione di oltre un miliardo di dollari, mentre veterane del settore come Replika hanno un fatturato annuo stimato di quasi 14 milioni di dollari.
Insomma, il business funziona, e anche bene. Il modello economico che monetizza la vulnerabilità emotiva è incredibilmente redditizio. Ma è eticamente sostenibile?
La storia di Dot ci lascia con una domanda fondamentale: che società stiamo costruendo se permettiamo che l’amicizia, l’amore e il supporto emotivo diventino prodotti a scadenza, soggetti alle stesse logiche di mercato di un servizio di streaming? Vendere relazioni “usa e getta” non è innovazione, è un esperimento sociale pericolosissimo di cui stiamo solo iniziando a vedere le conseguenze.

