dariodeleonardis.me

L’intelligenza Artificiale ci sta rendendo più stupidi? Uno studio del MIT sembra dire proprio questo

In questo articolo

 


 

Il dibattito sull’impatto dell’intelligenza artificiale generativa sulla cognizione umana si arricchisce di un contributo empirico significativo. Una recente ricerca solleva infatti interrogativi fondamentali sul modo in cui strumenti come ChatGPT influenzano i nostri processi di pensiero, suggerendo che un uso passivo possa portare a un misurabile indebolimento delle nostre facoltà mentali.

L’analisi che segue esamina in dettaglio i risultati di questo studio, contestualizzandoli all’interno di teorie cognitive consolidate e delineando le implicazioni per l’apprendimento e la produttività. Lungi dal proporre un rifiuto della tecnologia, l’obiettivo è comprendere i meccanismi in gioco per promuovere un’interazione più consapevole e strategica.

Lo studio del MIT: un’analisi senza filtri

Il punto di partenza per questa analisi è una ricerca scientifica del Massachusetts Institute of Technology (MIT), intitolata “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”. È importante precisare, come fanno gli stessi autori, che si tratta di uno studio preliminare (preprint) non ancora sottoposto a revisione paritaria formale. Ciononostante, la rilevanza dei dati ha spinto i ricercatori a una diffusione anticipata, con l’intento di stimolare una riflessione critica sull’adozione dell’IA, specialmente in contesti educativi.

L’esperimento ha adottato un approccio “multi-modale”, combinando diversi strumenti di misurazione per ottenere un quadro completo. Un campione di 54 studenti universitari dell’area di Boston è stato suddiviso in tre gruppi, con il compito di scrivere dei saggi:

  • Il primo gruppo doveva affidarsi unicamente alle proprie capacità (Brain-only).
  • Il secondo poteva utilizzare un motore di ricerca (Search Engine).
  • Il terzo poteva avvalersi esclusivamente di ChatGPT (LLM group).

I ricercatori hanno valutato non solo la qualità dei testi, ma anche l’attività cerebrale tramite elettroencefalogramma (EEG), integrando i dati con interviste e analisi computazionali degli elaborati.

Il cervello in “modalità risparmio energetico”: i dati neurologici

I dati raccolti tramite EEG hanno evidenziato una notevole divergenza nell’impegno cognitivo dei tre gruppi. La connettività neurale, un indicatore di quanto intensamente il cervello stia elaborando informazioni e creando connessioni, è risultata massima nel gruppo “Brain-only”, intermedia nel gruppo “Search Engine” e significativamente inferiore, quasi dimezzata, nel gruppo che utilizzava ChatGPT.

In particolare, nella banda Alfa, associata a processi di attenzione, ideazione e elaborazione semantica, le connessioni funzionali sono scese da 79 (gruppo Brain-only) a 42 (gruppo ChatGPT), con una riduzione del 47%. Una dinamica simile è stata osservata nella banda Theta, legata alla memoria di lavoro. Questi risultati suggeriscono che, di fronte a un compito complesso, l’uso dell’IA induceva uno stato di minore impegno cognitivo, bypassando le reti neurali cruciali per l’elaborazione profonda del pensiero.

La memoria che svanisce e i testi “senz’anima”

Un altro dato particolarmente significativo è emerso dai test sulla memoria. Ai partecipanti è stato chiesto di citare una frase del saggio appena completato. Sorprendentemente, l’83,3% degli utenti di ChatGPT non è stato in grado di farlo, a fronte di appena l’11,1% negli altri due gruppi. Questo indica una correlazione diretta tra lo sforzo cognitivo e il consolidamento delle informazioni: l’assistenza passiva dell’IA sembra ostacolare la trasformazione del contenuto elaborato in conoscenza stabile.

Inoltre, la valutazione qualitativa dei testi ha rivelato un’altra criticità. Sebbene formalmente corretti, i saggi prodotti con l’IA sono stati descritti dagli insegnanti come “senz’anima”, “robotici” e carenti di intuizione personale. Con il progredire dell’esperimento, i ricercatori hanno notato una crescente passività negli utenti del gruppo LLM, che tendevano a delegare quasi interamente il lavoro all’IA.

Debito e atrofia cognitiva: il costo nascosto della comodità

Per descrivere questo fenomeno, i ricercatori del MIT hanno introdotto il concetto di “debito cognitivo”. L’idea si inserisce nel campo di studi del cognitive offloading, ovvero la tendenza umana a delegare funzioni mentali a supporti esterni. Sebbene questa sia una strategia adattiva fondamentale (dall’invenzione della scrittura fino ai motori di ricerca), l’IA generativa introduce una differenza qualitativa.

In questo caso, non si delega solo la memorizzazione di un fatto, ma l’intero processo di pensiero di ordine superiore: l’analisi, la sintesi, la strutturazione di un argomento. Si ottiene il risultato finale senza aver compiuto lo sforzo cognitivo che, di per sé, costituisce il processo di apprendimento. Questo mancato sforzo è il “debito” che si accumula.

La ripetizione di questo schema porta al rischio di un’atrofia funzionale. Lo studio ha infatti osservato un’ “inerzia cognitiva”: gli utenti abituati all’IA, una volta privati dello strumento, mantenevano un livello di attività cerebrale ridotto. Un recente studio di Microsoft rafforza questa visione, usando la metafora di una “muscolatura cognitiva” che, se non esercitata, rimane “impreparata e atrofizzata”.

Il paradosso della produttività: più veloci, ma non migliori?

L’evidente guadagno di efficienza offerto dall’IA introduce un complesso trade-off, che a livello macroeconomico ricorda il “paradosso della produttività moderno”: a fronte di enormi progressi tecnologici, la crescita della produttività aggregata rimane modesta.

La Teoria del Carico Cognitivo offre una lente per interpretare questo fenomeno a livello individuale. Essa distingue un carico cognitivo “pertinente” (lo sforzo utile all’apprendimento) da uno “estraneo” (l’ostacolo). Il rischio, evidenziato dallo studio, è che l’uso passivo dell’IA elimini proprio il carico pertinente, essenziale per costruire schemi mentali solidi. Di conseguenza, si può diventare più efficienti nell’eseguire un singolo compito, ma senza un reale accrescimento delle proprie competenze, limitando così la capacità di innovare e di risolvere problemi complessi in autonomia.

La via d’uscita: da “dipendenti” a “moltiplicatori” di IA

Tuttavia, l’analisi non si conclude con un semplice monito. La fase più rivelatrice dello studio è forse quella che illumina una via d’uscita costruttiva. In una quarta sessione sperimentale, i ruoli sono stati invertiti.

I partecipanti che avevano iniziato usando solo il proprio cervello (gruppo Brain-only), una volta ottenuto l’accesso a ChatGPT, hanno mostrato un aumento della connettività cerebrale e hanno prodotto lavori di qualità superiore. Hanno utilizzato l’IA non come un sostituto, ma come un “moltiplicatore cognitivo”. Dopo aver autonomamente svolto il lavoro di ideazione e strutturazione, hanno impiegato lo strumento come partner per rifinire le idee, esplorare prospettive alternative e migliorare il testo.

Questa scoperta è fondamentale: l’impatto della tecnologia non è deterministico, ma dipende dalla metodologia di utilizzo. Si delinea una scelta tra diventare “dipendenti dall’IA”, accumulando debito cognitivo, o “moltiplicatori di IA”, usando gli strumenti per amplificare l’intelligenza umana.

Come si fa? Framework pratici per un uso consapevole dell’IA

La conversione da un uso passivo a uno strategico dell’IA non è un concetto astratto. Esistono già modelli consolidati, prevalentemente in ambito educativo, che forniscono linee guida pratiche.

  • Il Framework “4 C’s of AI Literacy”: Proposto da SchoolAI, promuove quattro competenze chiave: essere Consapevoli (comprendere limiti e bias dell’IA), Collaborativi (usare l’IA come partner dopo una prima fase di pensiero autonomo), Critici (valutare e verificare gli output) e Creativi (sfruttare lo strumento per espandere le proprie idee).
  • Il Framework HCAIF (Human-centric AI-First Teaching): Questo approccio australiano si fonda su due pilastri essenziali: l’Attribuzione (dichiarare in modo trasparente come si è usata l’IA) e la Riflessione (analizzare criticamente l’impatto dello strumento sul proprio processo di pensiero).

Entrambi i modelli promuovono la trasparenza, il pensiero critico e un ruolo attivo dell’utente, che guida la macchina anziché subirla passivamente. Resta da vedere quanto saranno applicabili in un mercato del lavoro ossessionato dalla moltiplicazione di performance e produttività che l’AI sembra offrire a breve termine.

Conclusione: una questione di igiene cognitiva

L’analisi dello studio del MIT conferma, con dati empirici, che un’interazione acritica con l’IA generativa può comportare un costo cognitivo significativo. La soluzione, tuttavia, non risiede in un anacronistico rifiuto della tecnologia, ma nell’adozione di un approccio metodico e strategico.

Emerge la necessità di sviluppare una nuova forma di “igiene cognitiva”. Come la medicina ha insegnato pratiche per la salute fisica, l’era digitale richiede una disciplina per mantenere la salute mentale e l’autonomia intellettuale. Ciò implica coltivare una costante consapevolezza dei propri processi di pensiero, scegliendo deliberatamente quando delegare un compito e quando, invece, è essenziale sobbarcarsi la “fatica” di pensare. È in questo sforzo che risiedono l’apprendimento profondo, la creatività e la capacità di formulare un pensiero autenticamente nostro.