dariodeleonardis.me

Si fidano di ChatGPT per la bassa marea e rischiano di annegare: l’allucinazione dell’IA che può uccidere

In questo articolo

 


 

Ci raccontano che l’intelligenza artificiale è ormai pronta a eguagliare l’intelligenza di un dottorando, che rivoluzionerà la scienza e risolverà i problemi più complessi dell’umanità. Eppure, nel mondo reale, questa stessa tecnologia, osannata e valutata miliardi, non è in grado di verificare un’informazione basilare come l’orario della bassa marea. E questa “piccola” svista, questa “allucinazione”, sta iniziando ad avere conseguenze quasi letali.

Un’allucinazione quasi fatale nel Galles

Siamo nel Galles del Sud, su un tratto di costa noto per avere il secondo range di marea più alto del mondo: circa 15 metri di dislivello. Qui, come riporta il WalesOnline, due nuotatori si sono avventurati verso la Sully Island, un affioramento roccioso a centinaia di metri dalla riva, accessibile solo con la bassa marea.

Il problema è che il mare in quel punto risale a una velocità impressionante, fino a 13 chilometri orari. Mentre i due tentavano di tornare, l’acqua era già pericolosamente alta. La loro vita è stata salvata, letteralmente, dal proprietario di un ristorante vicino, Gordon Hadfield, che si è accorto della situazione, ha afferrato un megafono e ha urlato ai due di tornare indietro e aspettare i soccorsi sulla roccia.

“Ho fatto l’errore di usare ChatGPT”

La parte surreale della vicenda è *perché* si trovavano lì. Uno dei due nuotatori, intervistato dal giornale, ha ammesso candidamente la fonte del loro errore: “Ho fatto l’errore di usare ChatGPT per fare una ricerca su quando fosse la bassa marea”.

Il chatbot di OpenAI aveva sentenziato: 9:30 del mattino. Un’informazione completamente inventata. “Appena siamo tornati dall’altro lato,” ha raccontato il nuotatore, “era letteralmente tutto diverso”. La sua conclusione è amara: “Una lezione imparata per me”.

Ma la lezione, a dire il vero, non è solo per lui. È per un intero sistema che spinge ad affidare la propria sicurezza a strumenti intrinsecamente inaffidabili, spacciandoli per oracoli onniscienti.

Perché fidarsi di un “pappagallo statistico”?

La reazione online alla notizia è stata, giustamente, di sconcerto. “Non mi fiderei di ChatGPT nemmeno per preparare un bagno caldo!” ha scritto un utente su Bluesky. “Ci sono tantissime risorse per gli orari delle maree, le stampano ancora su carta… perché usare ChatGPT? Mi sembra assolutamente folle”, ha commentato un altro.

Questi commenti colgono il punto: perché stiamo usando un “generatore di parole probabili” come se fosse un “motore di conoscenza”? La BBC ha intervistato Rayid Ghani, professore di machine learning alla Carnegie Mellon University, che ha riassunto perfettamente il problema: “[L’IA] non sa la differenza tra consigli di viaggio, indicazioni stradali o ricette. Conosce solo le parole. Quindi, continua a sputare parole che rendono realistico tutto ciò che ti sta dicendo, ed è da lì che provengono molti dei problemi di fondo”.

Non è intelligenza, è apparenza di intelligenza. È un sistema progettato per suonare convincente, non per essere corretto.

Non è un caso isolato: i pericoli dell’IA nel mondo reale

Questo episodio non è una bizzarra eccezione; è parte di un modello preoccupante. L’esternalizzazione del giudizio critico a chatbot inaffidabili sta già creando pericoli concreti.

  • All’inizio di quest’anno, due escursionisti vicino a Vancouver hanno dovuto chiamare i soccorsi dopo che ChatGPT aveva pianificato per loro un’escursione, omettendo il “dettaglio” che in primavera in alta quota ci sarebbe stata ancora neve (si erano presentati in scarpe da ginnastica).
  • La stessa BBC ha riportato di come l’IA stia mandando turisti in luoghi geografici potenzialmente pericolosi alla ricerca di monumenti o attrazioni che, semplicemente, non esistono.

La vigilanza umana (per ora) ci salva

Fortunatamente, l’incidente in Galles non si è trasformato in tragedia. Un portavoce della Royal National Lifeboat Institution (l’ente di soccorso in mare) ha elogiato la prontezza della comunità locale: “È fantastico che la comunità locale e persone come Gordon Hadfield siano consapevoli dei pericoli. La vigilanza dei volontari e di persone come Gordon, che forniscono un preallarme, ha quasi certamente salvato delle vite”.

Ancora una volta, è stata la conoscenza umana, l’esperienza del territorio e la vigilanza di una persona in carne e ossa a salvare la situazione. L’intelligenza artificiale, con le sue “allucinazioni” da trilioni di dollari, si era limitata a creare il pericolo.