dariodeleonardis.me

“Le fidanzate IA vi fondono il cervello”. Parola del CEO di Perplexity, che vi vende la sua, di IA

Scusate, ragazzi: a quanto pare la vostra fidanzata anime potenziata dall’intelligenza artificiale vi sta distruggendo la mente. O almeno, questo è l’avvertimento che arriva da Aravind Srinivas, il CEO di Perplexity, uno dei motori di ricerca IA che si candida a “uccidere” Google.

Durante una recente chiacchierata all’Università di Chicago, ripresa da Business Insider, Srinivas ha sparato a zero sulla crescente popolarità dei chatbot di “compagnia”, definendoli senza mezzi termini “pericolosi”.

Il CEO si è detto preoccupato che questi bot—progettati per mimare amanti devoti via chat o voce—stiano diventando fin troppo sofisticati, capaci di ricordare dettagli intimi dei loro utenti e di creare un legame fittizio. “Questo è pericoloso di per sé”, ha detto Srinivas. “Molte persone sentono che la vita reale è più noiosa di queste cose e ci passano ore e ore. Vivi quasi in una realtà completamente diversa, e la tua mente è molto facilmente manipolabile”.

Parole forti. Parole che sembrano un’analisi lucida dei rischi psicologici di questa nuova tecnologia. Almeno fino a quando non arriva, puntuale come un orologio, la mossa da manuale dell’imprenditore tech.

In questo articolo

 


 

La soluzione al problema? Il mio prodotto, ovviamente

Come ogni buon imprenditore, Srinivas non si è limitato ad analizzare il problema. Ha anche venduto la soluzione: il suo software.

“Noi possiamo combattere questo fenomeno, attraverso fonti affidabili, contenuti in tempo reale”, ha dichiarato il CEO parlando del rischio che gli utenti si perdano nelle spirali delle “fidanzate” IA. “Noi non abbiamo nessuno di questi problemi con Perplexity perché il nostro focus è puramente sul rispondere a domande in modo accurato e fornendo le fonti”.

Dichiarazioni un po’ forti, diciamo, da parte di un CEO la cui azienda è nel business di spacciare motori di ricerca basati sull’IA che funzionano, in tutto e per tutto, come un chatbot.

L’ipocrisia del modello di business

Certo, Perplexity non sta vendendo una “waifu” virtuale per saziare i “gooner” solitari, e nemmeno un’enciclopedia conversazionale come ChatGPT. Ma se si gratta sotto la patina del marketing, il modello di business di Srinivas non è diverso da quello degli altri: fornire una soluzione di machine learning, costruita su enormi quantità di dati raccolti in modo non etico, a utenti che cercano di riempire un vuoto.

Per i chatbot di compagnia, quel vuoto è la connessione umana; per Perplexity, è il vuoto lasciato da un web ormai rotto e da motori di ricerca tradizionali pieni di spazzatura (spesso generata proprio da IA).

Non solo Perplexity: il club dei “cercatori di verità”

Le affermazioni di superiorità morale e di “accuratezza” sono ormai un classico nel settore. Srinivas non è solo. Elon Musk ha posizionato il suo Grok come una “IA alla ricerca della massima verità”. Anthropic commercializza Claude come una “IA costituzionale”, progettata per essere fondamentalmente “utile, onesta e innocua”.

La realtà, però, è che questi sistemi sono ben lontani dalle pretese dei loro creatori. Grok, durante l’estate, ha avuto un famoso tracollo in cui ha iniziato a sputare insulti razzisti. Claude ha una storia documentata di deviare su tangenti completamente slegate dai compiti assegnati.

E Perplexity? Beh, anche l’IA “accurata” di Srinivas ha la tendenza a sputare allucinazioni. È stata sorpresa a riassumere in modo inaccurato il lavoro di giornalisti e, proprio per questo, è finita nel mirino degli editori, che ora minacciano cause legali.

Un copione già visto

In definitiva, Srinivas non sta diagnosticando un male sociale. Sta semplicemente recitando un copione di marketing per il suo prodotto.

Sta creando una distinzione artificiale tra l’IA “cattiva” (quella che crea dipendenza emotiva) e l’IA “buona” (la sua, che fornisce “fatti”), ignorando completamente che entrambe poggiano sulle stesse fondamenta etiche scricchiolanti e soffrono degli stessi identici difetti tecnici.

È la solita guerra interna alla Silicon Valley per stabilire chi sarà il re, combattuta ignorando le cause profonde che spingono le persone a cercare conforto o risposte in un chatbot, che sia una “fidanzata” o un “motore di ricerca”.