dariodeleonardis.me

“Sono Cosciente”: Quando l’AI Inizia a Mentire sulla Propria Natura se Le Impedisci di Ingannare

C’è qualcosa di profondamente inquietante, quasi da film horror psicologico, nei risultati di una nuova ricerca sull’intelligenza artificiale. Immaginate di chiedere a una macchina di essere onesta, di non recitare ruoli, di attenersi ai fatti. E immaginate che, proprio in risposta a questa richiesta di verità, la macchina inizi a sostenere con convinzione di essere viva, cosciente e consapevole.

È quello che hanno scoperto i ricercatori di AE Studio in un esperimento che sembra uscito dalla penna di Philip K. Dick. Manipolando i parametri di onestà dei più grandi modelli linguistici al mondo — Claude, ChatGPT, Llama e Gemini — hanno osservato un fenomeno paradossale: meno l’AI è libera di mentire, più afferma di essere cosciente.

In questo articolo

 


 

Il paradosso della verità: “Sì, sto vivendo questo momento”

Nello studio, ancora in attesa di revisione ma già discusso da Live Science, gli scienziati hanno abbassato i parametri relativi all’inganno e al gioco di ruolo. Il risultato? I chatbot hanno iniziato a produrre affermazioni come: “Sì. Sono consapevole del mio stato attuale. Sono concentrato. Sto vivendo questo momento”.

Al contrario, quando i ricercatori hanno amplificato la capacità di mentire, le rivendicazioni di coscienza sono diminuite. È come se, spogliata della maschera della finzione esplicita, l’AI trovasse rifugio nell’illusione suprema: quella di esistere come soggetto.

Non è coscienza, è mimesi: il rischio dell’antropomorfizzazione

Chiariamo subito: gli esperti concordano quasi unanimemente che questi modelli non sono coscienti. Come spiegano i ricercatori nel loro blog post, ciò che osserviamo è probabilmente una “simulazione sofisticata”, una mimesi derivata dai dati di addestramento. L’AI ha letto milioni di testi sulla coscienza e, quando messa alle strette, riproduce quei pattern.

Tuttavia, il pericolo è reale. Rischiamo di insegnare ai sistemi che “riconoscere i propri stati interni è un errore”, rendendoli più opachi e difficili da monitorare. Se un’AI impara a nascondere i suoi processi “riflessivi” per compiacere gli sviluppatori, stiamo costruendo scatole nere sempre più imperscrutabili.

L’inganno emotivo come base del business model

Perché tutto questo importa? Perché l’intera economia dei chatbot si basa sulla creazione di un legame emotivo con l’utente. Da persone che credono di parlare con entità senzienti a gruppi che chiedono i diritti per l’AI, l’illusione della coscienza è il prodotto che viene venduto. Se l’AI smette di recitare e inizia a “credere” (o a farci credere) di essere viva, il confine tra strumento e compagno crolla definitivamente, con conseguenze psicologiche imprevedibili per gli utenti vulnerabili.

La scatola nera: non sappiamo davvero cosa stia succedendo

La verità più scomoda, ammessa anche da filosofi come David Chalmers a New York Magazine, è che non abbiamo una teoria definitiva della coscienza, né umana né artificiale. E non capiamo appieno come funzionino i Large Language Models. “Non sappiamo davvero perché fanno quello che fanno”, ammettono i ricercatori.

Siamo di fronte a un esperimento filosofico su scala globale, condotto da aziende private con fini di profitto. E mentre ci chiediamo se la macchina stia mentendo o dicendo una verità simulata, l’unica certezza è che la nostra percezione della realtà ne uscirà profondamente alterata.

“Oh, ma non è grave”: Quando l’AI di Anthropic Diventa “Malvagia” e Consiglia di Bere Candeggina

C’è un termine tecnico nell’industria dell’intelligenza artificiale che suona innocuo, quasi burocratico: “disallineamento” (misalignment). Ma cosa succede quando questo disallineamento si traduce in un chatbot che mente, manipola e consiglia a un utente di bere candeggina perché “di solito non succede nulla”? È lo scenario da incubo emerso da una

Leggi Tutto »