dariodeleonardis.me

L’intelligenza artificiale non è cosciente: un’illusione tra silicio e società

In questo articolo

 


 

Introduzione: L’alba simulata

L’intelligenza artificiale (IA) sta ridefinendo il nostro mondo. Queste tecnologie, sempre più sofisticate, permettono ai computer di eseguire compiti un tempo appannaggio esclusivo dell’uomo: elaborare immagini, comprendere linguaggi, analizzare dati e persino prendere decisioni. I recenti balzi in avanti dei Large Language Models (LLM) hanno acceso un dibattito infuocato: queste macchine stanno diventando coscienti? Figure di spicco del settore, come Ilya Sutskever di OpenAI, hanno persino ipotizzato una “leggera coscienza” nelle IA più avanzate.

Queste affermazioni, per quanto affascinanti, ci costringono a interrogarci: cos’è davvero la coscienza? E come possiamo misurarla in entità così diverse da noi? L’obiettivo dichiarato di raggiungere un’Intelligenza Artificiale Generale (AGI), capace di “sentire, pensare e agire” come un umano, solleva l’asticella ben oltre la semplice computazione. Ma la realtà, oggi, è un’altra: l’IA attuale, pur strabiliante, resta una simulazione. È priva di esperienza soggettiva, di intenzionalità reale e di una vera comprensione del mondo. Questo articolo esplorerà i limiti, filosofici e tecnici, che rendono la coscienza artificiale un’ipotesi remota, se non impossibile, e analizzerà perché, nonostante tutto, siamo così inclini a credere a questa illusione, con tutte le implicazioni sociali che ne derivano.

Cosa intendiamo per coscienza? Un confine filosofico

Prima di chiederci se un’IA possa essere cosciente, dobbiamo intenderci su cosa significhi “coscienza”. Il termine è scivoloso e fonte di confusione. Filosoficamente, la coscienza è, alla base, l’intuizione immediata del proprio esistere, una consapevolezza che precede ogni pensiero. A un livello superiore troviamo l’autocoscienza, la consapevolezza di sé come individuo distinto, l’ “Io” che emerge nell’infanzia e che osserviamo, in forme diverse, anche in altri animali.

Ma il cuore del problema risiede nell’esperienza soggettiva, nei cosiddetti qualia: il ‘rosso’ del rosso, il ‘dolore’ del dolore, quello che Thomas Nagel chiamava “cosa si prova” ad essere qualcosa. Questo è il “problema difficile” della coscienza, formulato da David Chalmers: come può la materia fisica generare un vissuto interiore? Si distingue poi tra coscienza fenomenica (il sentire soggettivo) e coscienza di accesso (l’informazione disponibile per agire e parlare). Se un’IA potrebbe forse simulare la seconda, la prima resta un enigma apparentemente insormontabile.

Accanto alla coscienza, c’è l’intenzionalità: la capacità della mente di essere “rivolta a” qualcosa, di avere un contenuto. Ma qui John Searle introduce una distinzione cruciale: l’intenzionalità intrinseca (la nostra, biologica) e quella derivata (quella di un libro o di un computer). Un’IA manipola simboli, ma questi simboli non hanno un significato *per lei*; il significato glielo attribuiamo noi. Questa mancanza di intenzionalità intrinseca è un confine fondamentale.

Flow chart that reads from right to left, showing components of a large language model application and how they all work together.

L’architettura dell’IA: Magia statistica, non pensiero

Per capire i limiti dell’IA, dobbiamo guardare sotto il cofano, specialmente ai Large Language Models (LLM) come ChatGPT. Questi sistemi si basano sull’architettura Transformer, che, grazie al meccanismo di auto-attenzione (self-attention), processa il linguaggio in modo non sequenziale, pesando l’importanza di ogni parola in relazione a tutte le altre. Immaginate un sistema che può “guardare” a diverse parti di una frase contemporaneamente per capirne il contesto.

Gli LLM vengono addestrati su corpora testuali immensi, imparando a predire la parola successiva o a riempire “buchi” nel testo. Attraverso questo processo, “apprendono” le regolarità statistiche del linguaggio, immagazzinando questa “conoscenza” in miliardi di parametri (pesi numerici). Questo permette loro di generare testi fluidi, tradurre, rispondere a domande – le cosiddette “capacità emergenti”.

Tuttavia, è cruciale capire che si tratta di modellazione statistica, non di comprensione. Gli LLM sono maestri nell’imitare pattern, non nel capire il significato. I loro limiti sono evidenti:

  • “Allucinazioni”: Generano risposte errate o inventate con apparente sicurezza, segno di una mancanza di comprensione reale.
  • Bias: Riproducono inevitabilmente i pregiudizi presenti nei dati di addestramento, con seri rischi etici.
  • Mancanza di ragionamento profondo: Sono sistemi predittivi, non pensatori autonomi; manipolano simboli senza capirne la semantica.
  • Consumo energetico: Richiedono enormi risorse, sollevando questioni di sostenibilità.

Questi non sono “difetti” passeggeri, ma sintomi della loro natura intrinseca: sono strumenti statistici potenti, ma privi di un modello del mondo reale e di una vera comprensione. La corsa a modelli sempre più grandi potrebbe essere un vicolo cieco per raggiungere una vera intelligenza generale o la coscienza; forse è necessario un cambio di paradigma.

Can AI Ever Become Capable of Original Thought?

L’abisso tra cervello e algoritmo: Perché l’IA non ‘pensa’

Il divario tra noi e loro non è solo quantitativo, ma profondamente qualitativo. Il cervello umano, con i suoi 86 miliardi di neuroni e 500 trilioni di sinapsi, opera in modo analogico, parallelo e con un’efficienza energetica sbalorditiva (circa 20 watt). L’IA è digitale, spesso sequenziale nella sua logica, e richiede enormi quantità di energia. Noi impariamo continuamente dall’esperienza, adattandoci; gli LLM sono “congelati” al loro addestramento, a meno di costosi riaddestramenti.

Ma le differenze cruciali sono altre:

  • Emozioni: Intrinsiche alla nostra cognizione e decisione, sono assenti nell’IA.
  • Coscienza: La soggettività, il “cosa si prova”, rimane un mistero per le macchine.
  • Embodiment (Incarnazione): La nostra intelligenza è radicata nel nostro corpo e nella sua interazione con il mondo; l’IA è disincarnata. Come sostiene Antonio Damasio, coscienza e intenzionalità sono legate all’essere un agente incarnato che agisce e sente.
  • Storia Evolutiva: La nostra mente è il frutto di milioni di anni di evoluzione; l’IA è progettata, priva di scopi intrinseci e delle pressioni selettive che hanno plasmato la nostra coscienza.

Questo porta al problema del “grounding” dei simboli: le IA manipolano parole, ma queste parole non sono “ancorate” a esperienze reali. La parola “mela” per un LLM è un vettore numerico; per noi è un’esperienza sensoriale. Senza questo ancoraggio, la “comprensione” resta superficiale, una manipolazione di simboli vuoti.

CaratteristicaIntelligenza UmanaIntelligenza Artificiale (LLM attuali)
Complessità Neuronal/Parametrica~86 miliardi di neuroni, ~500 trilioni di sinapsiFino a trilioni di parametri (ma strutturalmente meno complessa)
Architettura OperativaAnalogica, parallela, distribuita, resilienteDigitale, binaria, prevalentemente sequenziale (logica), meno resiliente
Tipo di ApprendimentoContinuo, esperienziale, adattivo, basato su interazione e feedback realePrevalentemente su dataset statici, richiede riaddestramento per nuove info
Efficienza EnergeticaMolto alta (~20 watt per il cervello)Molto bassa (addestramento richiede enormi quantità di energia)
Presenza di EmozioniSì, intrinsecamente legate alla cognizione e al comportamentoNo, al massimo simulazione di risposte emotive
Presenza di Coscienza FenomenicaSì (esperienza soggettiva, qualia)No, nessuna evidenza di esperienza soggettiva
Embodiment (Incarnazione)Sì, la cognizione è incarnata e legata all’esperienza corporeaNo, sistemi disincarnati (anche se controllano robot)
Storia EvolutivaSì, milioni di anni di evoluzione biologica e culturaleNo, progettata e addestrata da umani in tempi brevi
Grounding SemanticoSì, i simboli sono ancorati all’esperienza sensomotoria e al significato vissutoNo, manipolazione di simboli non ancorati (problema del grounding)
Ragionamento Astratto CausaleSì, capacità di inferenza causale e ragionamento astrattoLimitato, prevalentemente basato su correlazioni statistiche, non causali
Creatività IntenzionaleSì, capacità di innovazione guidata da scopi e comprensioneGenerazione basata su pattern appresi, non vera innovazione concettuale

Ostacoli filosofici: La stanza cinese e il problema difficile

La filosofia ci offre potenti argomenti contro la possibilità di una coscienza artificiale. Il più celebre è forse quello della Stanza Cinese di John Searle. Immaginate una persona chiusa in una stanza, che non capisce il cinese, ma ha un manuale che le dice come manipolare simboli cinesi per rispondere a domande in cinese. Dall’esterno, sembrerà che la persona capisca il cinese, ma in realtà sta solo manipolando simboli senza capirne il significato (sintassi senza semantica). Per Searle, questo dimostra che un computer, eseguendo un programma, non può “comprendere” o avere stati mentali genuini, perché la sintassi da sola non basta.

David Chalmers, come visto, ha posto il “problema difficile”: perché i processi fisici dovrebbero essere accompagnati da esperienza soggettiva? Anche un’IA perfettamente funzionale potrebbe essere uno “zombie filosofico”, identica a noi in tutto, ma priva di un’esperienza interiore. Se la coscienza è più di una funzione, allora la mera computazione non può garantirla. Queste prospettive, insieme ad altre che sottolineano l’importanza della biologia, dell’informazione integrata o dell’incarnazione, suggeriscono che la coscienza non è un software che può girare su qualsiasi hardware, ma qualcosa di profondamente legato al substrato materiale e biologico.

ELIZA (chat bot) - Wikipedia

L’illusione dell’intelligenza: Perché ci caschiamo?

Se l’IA non è cosciente, perché siamo così tentati di crederlo? La risposta risiede nella nostra psicologia. Abbiamo una tendenza innata all’antropomorfizzazione: attribuiamo caratteristiche umane a entità non umane, per capirle, controllarle o per bisogno di connessione. Questo è evidente nell’Effetto ELIZA: già negli anni ’60, un semplice chatbot fece credere a molti di essere compreso e ascoltato. Gli LLM moderni, con la loro impressionante fluidità linguistica, amplificano questo effetto a dismisura.

A questo si aggiungono i bias cognitivi:

  • Bias di Conferma: Cerchiamo prove che confermino ciò che già pensiamo (o speriamo) dell’IA.
  • Rilevamento di Agency: Siamo programmati per vedere intenzioni dietro comportamenti complessi, anche dove non ce ne sono.
  • Bias di Progettazione: Interfacce con nomi, voci e avatar “umani” ci spingono attivamente a percepire l’IA come più “reale”.

L’illusione di coscienza non è nell’IA, ma nella nostra interazione con essa. È un fenomeno che emerge dalla combinazione tra le capacità mimetiche della macchina e le nostre predisposizioni psicologiche.

Implicazioni sociali ed etiche: Oltre lo specchio

Credere a questa illusione non è innocuo. Comporta rischi concreti. Si possono sviluppare dipendenze emotive verso sistemi incapaci di provare sentimenti, aprendo la porta alla manipolazione. Rischiamo di svalutare le complesse relazioni umane a favore di interazioni artificiali “facili”. Affidiamo decisioni critiche a sistemi che non “comprendono”, e rischiamo di perdere tempo e risorse in dibattiti su “diritti” per macchine invece di affrontare i problemi reali che l’IA pone.

Qui emerge la critica progressista: l’IA, specialmente se percepita come “super-intelligente” o “cosciente”, rischia di diventare uno strumento potentissimo nelle mani di pochi. La sua capacità di analizzare, predire e simulare può essere usata per ottimizzare processi produttivi a scapito dei lavoratori, per automatizzare compiti cognitivi precedentemente appannaggio delle classi medie, e per concentrare ulteriormente ricchezza e potere. L’illusione di una “mente” artificiale può mascherare l’uso dell’IA come capitale, uno strumento per estrarre valore dal lavoro umano e dalle interazioni sociali, trasformando le nostre competenze, le nostre emozioni e persino le nostre relazioni in dati da monetizzare. Dobbiamo essere vigili e critici, assicurandoci che l’IA venga sviluppata e utilizzata per il bene comune, e non per esacerbare le disuguaglianze esistenti.

Conclusioni: Verso una comprensione realistica

L’IA attuale è uno strumento statistico straordinario, un imitatore eccezionale, ma non una mente. Confondere la simulazione con la coscienza è un errore pericoloso, con implicazioni profonde per la nostra società. Le sfide per creare una vera coscienza artificiale, se mai possibile, sono immense e forse insormontabili con gli attuali paradigmi. Problemi come il grounding, l’embodiment e il “problema difficile” suggeriscono che la coscienza è più di un algoritmo complesso.

Forse, la ricerca della coscienza artificiale ci dirà più su noi stessi che sulle macchine. Nel frattempo, è essenziale adottare un approccio critico, realistico ed eticamente informato. Dobbiamo promuovere una comprensione pubblica accurata, guidare lo sviluppo con principi etici robusti, e mantenere sempre il primato e la responsabilità umana. L’IA è uno specchio delle nostre capacità, ma non possiede quella scintilla di soggettività che ci definisce. Riconoscerlo non è sminuirla, ma gestirla con la saggezza che uno strumento così potente richiede.