dariodeleonardis.me

Le tue chat con ChatGPT potrebbero essere su Google: il grande equivoco sulla privacy dell’IA

In questo articolo

 


 

Pensavate che le vostre conversazioni con ChatGPT fossero private? Un dialogo intimo tra voi e la macchina, al riparo da occhi indiscreti? È ora di svegliarsi. Una scoperta tanto semplice quanto inquietante sta venendo a galla: le conversazioni di ChatGPT che gli utenti rendono “pubbliche” tramite un link condivisibile vengono tranquillamente indicizzate da Google e altri motori di ricerca. Questo significa che le vostre domande, le vostre idee, magari anche i vostri dati sensibili, potrebbero essere a un clic di distanza per chiunque sappia come cercarli.

Non è un bug, ma una “funzionalità”. Una di quelle funzionalità che espone il grande, pericoloso equivoco su cui si basa la nostra interazione con l’intelligenza artificiale: la falsa percezione di uno spazio privato che, in realtà, non è mai esistito.

L’illusione della privatezza: cosa sta succedendo davvero

La questione è emersa quando diversi utenti e testate si sono accorti che, cercando specifiche stringhe di testo su Google, tra i risultati apparivano link diretti a conversazioni su `chat.openai.com`. Cliccando, si poteva leggere l’intera interazione tra un utente e il chatbot. Un po’ come trovare il diario segreto di uno sconosciuto abbandonato su una panchina del parco, ma con una platea potenzialmente globale.

Un click di troppo: come le nostre conversazioni finiscono online

Il meccanismo è semplice. OpenAI offre una funzione per condividere le proprie chat, generando un link univoco. L’intenzione, presumibilmente, è quella di permettere a colleghi o amici di vedere un risultato interessante. Il problema è che, nel momento in cui quel link viene creato e magari condiviso in uno spazio pubblico (un forum, un social network, una mail aziendale), i crawler dei motori di ricerca possono trovarlo, seguirlo e indicizzarne il contenuto.

OpenAI, dal canto suo, si difende dicendo che rispetta le direttive del file `robots.txt`, un semplice file di testo che dice ai motori di ricerca quali pagine ignorare. Le chat private, infatti, non vengono indicizzate. Ma quelle condivise? Quelle sono considerate, a tutti gli effetti, pagine web pubbliche. E Google fa semplicemente il suo lavoro: scansiona e cataloga il web pubblico.

Interfaccia di ricerca di ChatGPT.
La funzione di condivisione di ChatGPT trasforma una chat privata in una pagina web pubblica, potenzialmente visibile a tutti.

Il problema non è tecnico, è sociale

Il punto cruciale non è la tecnologia, ma la percezione umana. Interagiamo con ChatGPT come se fosse un’applicazione di messaggistica privata, un confidente digitale. Non lo percepiamo come un “content management system” che pubblica pagine su internet. Questa discrepanza tra la nostra percezione e la realtà tecnica è una falla enorme, che espone gli utenti a rischi che non possono prevedere.

Quanti hanno condiviso una chat pensando di mandarla solo a un collega, senza immaginare che quel link potesse finire nell’archivio perenne di Google? Quanti hanno incollato dati di lavoro, bozze di codice, informazioni personali o idee di business in una chat, per poi condividerla con leggerezza?

Perché dovrebbe preoccuparci? Dati sensibili alla mercé di chiunque

Le implicazioni sono enormi. Si va dalla semplice violazione della privacy all’esposizione di segreti commerciali. Un programmatore che chiede aiuto per debuggare un pezzo di codice proprietario, un ricercatore che elabora dati sensibili, uno scrittore che butta giù la trama del suo prossimo romanzo. Tutto questo, con un clic sbagliato, può diventare di dominio pubblico.

È l’ennesima dimostrazione di come l’intelligenza artificiale non sia solo uno strumento, ma un sistema che sta ridisegnando i confini tra pubblico e privato. L’IA non si limita a “mangiare internet” come materia prima per il suo addestramento; ora inizia a riversare nel web pubblico i risultati delle nostre interazioni private con essa, creando un circolo vizioso di esposizione dei dati.

La responsabilità di OpenAI: un design che incoraggia l’errore?

Certo, si potrebbe dare la colpa all’ingenuità degli utenti. Ma è davvero così semplice? O forse c’è una responsabilità nel design di queste piattaforme? OpenAI potrebbe, ad esempio, rendere molto più esplicito l’avvertimento che una chat condivisa diventa una pagina pubblica. Potrebbe aggiungere un meta-tag “noindex” di default a queste pagine, lasciando all’utente la scelta attiva di renderle indicizzabili.

La scelta di non farlo sembra, come minimo, una grave leggerezza. In un mondo che si affida sempre di più a questi strumenti, la trasparenza e la protezione della privacy “by design” non dovrebbero essere un’opzione, ma un obbligo. Invece, ancora una volta, l’onere della protezione ricade interamente sulle spalle dell’utente, che spesso non ha né il tempo né le competenze per comprendere appieno le conseguenze delle proprie azioni in questo nuovo ecosistema digitale.