dariodeleonardis.me

L’IA che doveva sostituire i medici? Bocciata all’esame di logica

In questo articolo

 


 

Nella perenne corsa all’oro dell’intelligenza artificiale, le dichiarazioni roboanti sono all’ordine del giorno. L’ultima è arrivata da Jad Tarifi, uno dei pionieri dell’IA di Google, che senza mezzi termini ha sentenziato: non ha più senso studiare medicina. Secondo lui, prima che uno studente di oggi diventi un medico praticante, l’IA avrà reso la sua laurea obsoleta.

Insomma, il solito Vangelo secondo Silicon Valley: la tecnologia come soluzione totale, capace di sostituire professioni complesse e ad altissima responsabilità. Peccato che, mentre i profeti del tech annunciano la fine dei medici in carne e ossa, la ricerca scientifica, quella seria, ci sbatte in faccia una realtà ben diversa. E, diciamolo, abbastanza preoccupante.

 

Il Vangelo secondo Silicon Valley: “Non studiate più medicina”

La narrazione che ci viene propinata è allettante. L’IA dovrebbe liberare i medici dalla burocrazia, aiutarli a leggere immagini diagnostiche per scovare tumori e ottimizzare il lavoro in ospedale. Tutte cose potenzialmente utili, non c’è dubbio. Ma da qui a dire che un algoritmo possa rimpiazzare l’intera professione medica c’è un abisso che la propaganda salta a piè pari.

Questo salto mortale ignora volutamente i problemi cronici di questi sistemi: le “allucinazioni” (cioè le informazioni inventate di sana pianta), il rischio di “de-skilling” dei professionisti che si affidano troppo alla macchina, e una fondamentale, pericolosa mancanza di comprensione del contesto. La verità è che abbiamo bisogno di medici umani, oggi più che mai, proprio per fare da argine a questi rischi.

 

La dura realtà: un esame, un trucco e il crollo dei giganti

A smontare pezzo per pezzo il castello di carte dell’IA-medico ci ha pensato un recente studio pubblicato sulla prestigiosa rivista JAMA Network Open. I ricercatori di Stanford hanno sottoposto i modelli di IA più avanzati, come GPT-4o di OpenAI e Claude 3.5 Sonnet di Anthropic, a un test basato sulle domande degli esami di abilitazione medica. Ma con un trucco geniale.

Invece delle classiche domande a risposta multipla, hanno modificato i test sostituendo la risposta corretta con l’opzione “nessuna delle altre risposte”. Una piccola modifica, ma sostanziale. Perché? Perché costringeva l’IA a ragionare per esclusione, invece di limitarsi a riconoscere schemi linguistici e “indovinare” la risposta più probabile sulla base dei milioni di testi con cui è stata addestrata.

Il risultato è stato un disastro. Le performance dei modelli sono crollate verticalmente. GPT-4o ha visto la sua accuratezza ridursi del 25%, mentre il modello Llama di Meta è crollato di quasi il 40%. Un fallimento su tutta la linea, che dimostra una vulnerabilità critica di questi sistemi.

 

Imparare a pappagallo non è ragionare: perché l’IA non è (ancora) un medico

Il punto è proprio questo, e Suhana Bedi, coautrice dello studio, lo ha spiegato benissimo: “È come avere uno studente che eccelle nei test di pratica ma fallisce quando le domande sono formulate in modo diverso”. L’IA, al momento, è quello studente. Un formidabile “pappagallo” statistico, capace di replicare pattern che ha già visto, ma incapace di un vero ragionamento clinico quando si trova di fronte a scenari nuovi o dati “sporchi e frammentati”, che sono la norma nella pratica medica reale.

Un medico umano non si limita a riconoscere schemi; interpreta, contestualizza, applica il pensiero critico e, soprattutto, si assume la responsabilità delle sue decisioni. L’IA non fa nulla di tutto questo. Si limita a calcolare la parola successiva più probabile. E in un contesto dove un errore può costare una vita, questa differenza non è un dettaglio, è tutto.

 

Oltre la propaganda: a chi serve un “dottore” che non capisce?

La ricerca di Stanford dovrebbe essere un campanello d’allarme per tutti. Ci dice che, per ora, l’IA deve essere uno strumento di supporto per i medici, non un loro sostituto. L’idea di affidare applicazioni cliniche a sistemi che vanno in tilt se una domanda viene posta in modo leggermente diverso è, a essere generosi, irresponsabile.

La prossima volta che sentirete un guru del tech annunciare la fine di una professione, ricordatevi di questo studio. La propaganda serve a vendere prodotti e a gonfiare le valutazioni in borsa. Ma la realtà, specialmente in un campo delicato come la sanità pubblica, è molto più complessa. E richiede più buonsenso e meno arroganza. Perché, in definitiva, la domanda è semplice: ci fideremmo mai di un medico che non è in grado di capire davvero quello che sta facendo?