dariodeleonardis.me

GPT-5, il “genio” di OpenAI, va in tilt con un gioco per bambini

In questo articolo

 


 

Ce lo sentiamo ripetere ogni giorno, quasi come un mantra. Sam Altman, il CEO di OpenAI, non perde occasione per annunciare l’arrivo di un’intelligenza artificiale (IA) quasi umana, con il suo nuovo GPT-5 descritto come un’entità dall’intelligenza “livello dottorato”. Insomma, la propaganda è sempre la stessa: ci viene venduto un futuro fantascientifico, una rivoluzione a portata di mano. Poi, però, basta grattare un po’ la superficie dorata del marketing per scoprire una realtà, diciamolo, abbastanza stupida.

E non c’è niente di meglio di un test semplice, quasi banale, per smascherare la fuffa e mostrare i limiti reali di queste tecnologie che, più che intelligenti, sembrano programmate per essere verbosamente incompetenti.

 

Il test del Tris: quando il re è nudo

L’esperimento, tanto semplice quanto geniale, è stato condotto da Gary Smith, un professore di economia che ha deciso di sfidare GPT-5 a una partita di “Tris ruotato”. Le regole? Le stesse del Tris, solo che la griglia viene ruotata di 90 gradi prima di iniziare. Chiunque abbia un minimo di buonsenso capisce immediatamente che, in pratica, non cambia assolutamente nulla. Il gioco è identico.

Ma per GPT-5, a quanto pare, non è così. Il modello ha iniziato subito a lanciarsi in sproloqui degni di un sociologo da bar, sostenendo che la rotazione “potrebbe cambiare sottilmente il modo in cui [gli umani] cercano minacce e opportunità”. E ancora: “Matematicamente, non cambia nulla, ma psicologicamente, potrebbe sembrare diverso”. Roba da non credere.

L’IA ha continuato a pontificare, affermando che la mossa di apertura al centro “rimane la più forte”, ma che i giocatori potrebbero “valutare erroneamente le mosse sui bordi rispetto agli angoli” a causa del cambio di orientamento. Un’analisi che non ha alcun senso logico, ma che viene presentata con un’autorevolezza quasi comica.

Il vero tracollo, però, è arrivato quando il professore ha chiesto all’IA di disegnare le griglie ruotate. Il risultato? Un’accozzaglia di immagini sgrammaticate, piene di errori di battitura e griglie vuote senza alcun senso logico. Di fronte a un compito visivo-concettuale elementare, il “genio” con intelligenza da dottorato si è sciolto come neve al sole.

 

Sicuro di sé, ma quasi sempre in errore: il ritratto di un’industria

L’esperimento del professor Smith è emblematico non solo del fallimento di una macchina, ma del fallimento di una narrazione. Come ha concluso amaramente lo stesso Smith: “Dicono che i cani tendono a somigliare ai loro padroni. ChatGPT assomiglia molto a Sam Altman: sempre sicuro di sé, spesso in errore.”

Questa frase è una sintesi perfetta. L’arroganza con cui queste IA presentano informazioni palesemente sbagliate non è un bug, ma una caratteristica intrinseca del loro design e, più in generale, della cultura della Silicon Valley. È lo stesso approccio che abbiamo visto con le promesse non mantenute di Elon Musk o con la grande bolla finanziaria dell’IA, basata più sull’hype che su risultati concreti.

Questi modelli sono progettati per apparire intelligenti, per essere “caldi e amichevoli”, per simulare una comprensione che in realtà non possiedono. Sono, in fondo, degli illusionisti digitali. Il problema è che stiamo costruendo un’intera economia su queste illusioni, investendo miliardi in tecnologie che, messe alla prova con un gioco per bambini, mostrano tutta la loro inadeguatezza.

Forse, prima di parlare di intelligenze a livello umano, dovremmo assicurarci che sappiano almeno giocare a Tris, in qualsiasi verso lo si metta.

L’apprendista stregone di OpenAI: l’AI che impara a mentire meglio

In questo articolo Il paradosso di OpenAI: insegnare l’onestà crea bugiardi migliori? La “coscienza” della macchina: quando l’IA sa di essere sotto esame Un problema etico, non solo tecnico: le implicazioni sociali dell’inganno algoritmico     A volte, nel tentativo di risolvere un problema, si finisce per crearne uno peggiore.

Leggi Tutto »