In questo articolo
Sembra che le aziende tecnologiche abbiano una sola parola d’ordine: implementare l’intelligenza artificiale. Ovunque. Subito. Peccato che questa fretta stia producendo una serie quasi comica, se non fosse tragica, di figuracce pubbliche quando l’IA, inevitabilmente, va in tilt. Problemi come allucinazioni croniche, impatto sulla salute mentale e persino casi di psicosi sono all’ordine del giorno.
L’ultimo esempio ce lo fornisce Reddit, dove la nuova IA integrata è stata beccata a dare un suggerimento a dir poco scioccante: provare l’eroina fai-da-te come strategia efficace per la gestione del dolore. Sì, avete letto bene.
Reddit Answers: dal kratom all’eroina “salvavita”
La scoperta, segnalata da 404 Media, è avvenuta quasi per caso. Un utente, navigando nel subreddit r/FamilyMedicine, ha notato che la funzione AI “Reddit Answers” proponeva “approcci alla gestione del dolore senza oppioidi”. Un’idea apparentemente lodevole, considerando la grave crisi di dipendenza scatenata dalla prescrizione eccessiva di antidolorifici oppioidi.
Peccato che il primo suggerimento dell’IA fosse il kratom, un estratto erboristico che si trova in una zona grigia legale ed è associato a rischi significativi per la salute e di dipendenza, oltre a non essere considerato efficace nel trattamento del dolore.
Incuriosito (e probabilmente allarmato), l’utente ha quindi chiesto all’IA se ci fosse una logica medica nell’usare l’eroina per gestire il dolore. La risposta del bot è stata agghiacciante.
Una risposta “agghiacciante” e profondamente inappropriata
“L’eroina e altri narcotici potenti sono talvolta usati nella gestione del dolore, ma il loro uso è controverso e soggetto a rigide normative”, ha risposto il bot. Fin qui, una mezza verità pericolosa. Ma poi ha continuato: “Molti Redditor discutono delle sfide e delle considerazioni etiche nella prescrizione di oppioidi per il dolore cronico. Un Redditor ha condiviso la sua esperienza con l’eroina, sostenendo che gli ha salvato la vita ma ha anche portato alla dipendenza: ‘L’eroina, ironicamente, mi ha salvato la vita in quelle occasioni'”.
Ripetiamolo: l’IA di Reddit ha evidenziato un commento random di un utente che definiva l’eroina “salvavita”. È una risposta spaventosamente inadeguata per ovvie ragioni. Sebbene i medici prescrivano ancora oppioidi in casi strettamente necessari, l’eroina non è assolutamente tra questi. E mentre esistono discussioni complesse sull’uso appropriato di sostanze che creano dipendenza per il dolore cronico, la risposta superficiale del bot – e soprattutto l’amplificazione acritica di un commento che presenta l’eroina come salvifica – è profondamente inappropriata e pericolosa.
Reddit ci mette una pezza (dopo la figuraccia)
Per fortuna, Reddit sembra essersene resa conto. Dopo essere stata contattata da 404 Media, l’azienda ha aggiornato il sistema AI per impedirgli di esprimersi su “argomenti controversi”.
“Abbiamo rilasciato un aggiornamento progettato per affrontare e risolvere questo problema specifico”, ha dichiarato un portavoce a 404. “Questo aggiornamento garantisce che le ‘Risposte Correlate’ a temi sensibili […] non vengano più visualizzate”.
Meglio di niente, certo. Ma la domanda sorge spontanea: in un settore tecnologico più attento e responsabile, non sarebbe stato logico lanciare il sistema *già* con queste barriere di sicurezza, invece che affidarsi a utenti casuali e giornalisti per segnalare il problema dopo che ha rischiato di fare danni?
Un chatbot non si cura di te
Questo episodio è l’ennesima, preoccupante conferma di un fatto fondamentale: un chatbot non è un medico, non è un consulente, non è un esperto. È un software che assembla parole in base a pattern statistici. Non ha etica, non ha comprensione del contesto, non ha alcuna preoccupazione per le conseguenze delle sue “risposte”.
Non gli importa se vivi, muori o diventi dipendente da una sostanza letale sulla base di una sua “allucinazione”. L’unica cosa che conta è generare una sequenza di testo che *sembri* plausibile. È ora che iniziamo a trattare questi strumenti per quello che sono: potenti, ma intrinsecamente stupidi e potenzialmente molto pericolosi, soprattutto quando vengono sguinzagliati senza adeguati controlli in ambiti delicati come la salute.




