In questo articolo
State pianificando il prossimo viaggio e pensate di affidarvi all’intelligenza artificiale per scovare perle nascoste e itinerari perfetti? Forse è meglio pensarci due, anzi, tre volte. E soprattutto, verificare che i luoghi consigliati esistano davvero. Sembra assurdo, ma non lo è.
Turisti ignari in tutto il mondo si stanno affidando a modelli di IA per pianificare le loro vacanze, finendo in situazioni potenzialmente molto pericolose. Il motivo? Le cosiddette “allucinazioni” dei chatbot, che inventano di sana pianta luoghi e attrazioni, a volte collocandoli in zone impervie e rischiose.
Quando l’agente di viaggio è un’allucinazione digitale
Il fenomeno, riportato dalla BBC, sta diventando una vera e propria piaga. L’IA, nel tentativo di fornire una risposta plausibile, a volte mescola nomi, immagini e dati geografici per creare una “fantasia”, un luogo che suona credibile ma che nel mondo reale semplicemente non c’è. Il problema è che un’informazione del genere, se data a un viaggiatore inesperto, può trasformare una vacanza da sogno in un incubo.
Casi concreti: dalle Ande a una montagna giapponese
Un caso emblematico è quello di due turisti che si stavano avventurando sulle Ande, in Perù, alla ricerca di un inesistente “Canyon Sacro di Humantay”. Fortunatamente, una guida locale li ha sentiti parlare e li ha fermati, allarmata.
«Questo tipo di disinformazione è pericolosa in Perù», ha spiegato la guida, Miguel Angel Gongora Meza, alla BBC. «L’altitudine, i cambiamenti climatici e l’accessibilità dei sentieri devono essere pianificati. Quando usi un programma [come ChatGPT di OpenAI], che combina immagini e nomi per creare una fantasia, puoi ritrovarti a 4.000 metri di altitudine senza ossigeno e senza segnale telefonico».
E non è un caso isolato. Sempre secondo la BBC, una coppia è rimasta bloccata sulla cima di una montagna giapponese perché ChatGPT aveva fornito l’orario di apertura sbagliato per un sentiero. Insomma, situazioni che da comiche possono diventare tragiche in un attimo.
Un problema in crescita (e le truffe dietro l’angolo)
Questo non è più un fenomeno di nicchia. Secondo un sondaggio globale del 2025 condotto da Global Rescue, un’azienda di servizi di viaggio, ben il 24% dei turisti utilizza già l’IA per pianificare i propri spostamenti. Un dato enorme che mostra la rapidità con cui questa tecnologia si sta diffondendo, con tutte le sue conseguenze impreviste.
E non è finita qui. Global Rescue avverte che l’IA viene usata anche per orchestrare truffe. Truffatori utilizzano bot e deepfake per ingannare i turisti, spingendoli a usare le loro carte di credito su app o siti di viaggio fasulli.
«La proliferazione dell’IA è una minaccia imminente per i viaggi», ha dichiarato senza mezzi termini Harding Bush, ex Navy SEAL e direttore associato della sicurezza per Global Rescue.
Fidarsi è bene, ma verificare è vitale
Il punto, come sempre quando si parla di intelligenza artificiale, è la responsabilità. Da un lato, c’è l’incoscienza di chi si affida ciecamente a uno strumento palesemente fallibile. Dall’altro, c’è la totale irresponsabilità delle aziende tecnologiche che immettono sul mercato prodotti potenti ma inaffidabili, senza avvertire adeguatamente gli utenti dei rischi concreti che corrono.
L’IA può essere uno strumento utile, ma non è un oracolo infallibile. Anzi, è un sistema che, per sua stessa natura, può mentire con la stessa sicurezza con cui dice la verità. Prima di partire per un’avventura suggerita da un chatbot, forse è il caso di fare la cosa più “vecchio stile” ma sicura di tutte: aprire una mappa vera e verificare. La nostra sicurezza, dopotutto, vale più di qualsiasi comoda illusione digitale.