dariodeleonardis.me

ChatGPT Health e il furto dei dati medici: perché l’IA di OpenAI è un pericolo per la salute

In questo articolo

 


 

Diciamo le cose come stanno: l’ultima mossa di OpenAI con il lancio di ChatGPT Health è il culmine di un’ironia tragica. In pratica, Sam Altman ci sta chiedendo di consegnare all’algoritmo l’intera nostra storia clinica – i dati più sensibili che possediamo – per poi inserire un caveat che rasenta il ridicolo: lo strumento “non è destinato alla diagnosi o al trattamento”. Insomma, è come se un chirurgo ti chiedesse di spogliarti e sdraiarti sul tavolo operatorio, per poi avvisarti che non ha la minima intenzione di operare, ma solo di fare conversazione sui tuoi organi.

Il punto non è solo la bizzarria della clausola, ma la direzione sistemica che stiamo prendendo. Siamo dentro quella dinamica che ho analizzato parlando della psicologia delle verità alternative: la tecnologia non si limita a darci strumenti, ma costruisce rappresentazioni sociali dove la competenza professionale viene sostituita da una risposta immediata, per quanto allucinata o inaccurata possa essere.

Il paradosso del medico algoritmico: ti leggo la cartella, ma non ti curo

L’idea dietro ChatGPT Health è quella di ingerire le cartelle cliniche degli utenti per generare risposte “più rilevanti”. Eppure, nonostante la collaborazione dichiarata con i medici, OpenAI mette le mani avanti. Questa strategia serve a proteggere l’azienda legalmente, ma ignora completamente la realtà sociale: gli utenti useranno lo strumento esattamente per quello che viene loro sconsigliato. È il trionfo del “fai da te” diagnostico in un ecosistema informativo già inquinato.

Ricordiamoci cosa è successo con Google AI Overviews: un’indagine del Guardian ha rivelato come il sistema abbia dispensato consigli medici inaccurati e pericolosi. Come spiego spesso quando tratto i principi dell’etica dell’informazione, la distorsione della realtà non è un incidente di percorso, ma una caratteristica intrinseca di sistemi progettati per la verosimiglianza anziché per la verità scientifica.

Dottor chatgpt e l’era degli esperti improvvisati

Il fenomeno è già evidente. Gli avvocati e i medici reali stanno vedendo un’ondata di persone che arrivano in studio convinte di aver ragione perché “lo ha detto l’IA”. In pratica, stiamo assistendo alla nascita di una generazione di esperti da poltrona che scambiano la fluidità sintattica di un chatbot per autorità accademica. Come riportato da Business Insider, ChatGPT sta creando “avvocati e medici dilettanti”, alimentando cause legali basate su interpretazioni algoritmiche spesso prive di fondamento giuridico o clinico.

Questo meccanismo alimenta una sfiducia sistematica verso le istituzioni e le competenze reali, concentrando però il potere narrativo e decisionale nelle mani di chi possiede i server. Non è un caso che Elon Musk, un altro attore che analizzo spesso per il suo modello di business basato sul clamore, abbia già percorso questa strada con Grok, incoraggiando gli utenti a caricare i propri dati medici e portando a una marea di diagnosi allucinate.

La fine della privacy medica: cartelle cliniche in pasto al capitale

L’aspetto più inquietante riguarda la protezione dei dati. Le leggi come l’HIPAA negli Stati Uniti non si applicano ai prodotti IA di consumo. Quando carichiamo i nostri dati su ChatGPT Health, stiamo regalando la nostra biologia a un’azienda privata che sta virando verso modelli pubblicitari. Come sottolineato da esperti citati da Yahoo News, la protezione di informazioni così sensibili è messa a rischio da politiche di dati inadeguate.

Immaginate cosa significhi questo in un contesto dove l’industria già fatica a contenere fughe di dati significative: le nostre patologie potrebbero diventare merce di scambio o finire nelle mani delle forze dell’ordine senza che l’utente ne sia informato, come denunciato da The Record. In un regime di realismo capitalista, non c’è zona d’ombra che non debba essere illuminata dal profitto.

Un sistema senza tutele: perché l’ia non è un presidio medico

Insomma, OpenAI si dichiara legata solo alle proprie promesse, che può cambiare in qualsiasi momento modificando i termini di servizio. Senza una regolamentazione pubblica forte, siamo in balia di “medici di latta” che non hanno alcuna responsabilità legale per i danni che possono causare.

La sfida non è tecnica, ma sociale e politica. Vogliamo davvero un futuro dove la cura di sé passa per un algoritmo che ci legge la cartella clinica ma si rifiuta di prendersi la responsabilità delle sue parole? La risposta dovrebbe essere un secco no. Dobbiamo pretendere che la tecnologia supporti il sistema sanitario, non che lo svuoti di senso per trasformarlo in un generatore di profitti e disinformazione.