Siamo di fronte a un paradosso che ha quasi del comico, se non fosse tragico per il futuro della conoscenza umana: i ricercatori che dovrebbero studiare l’Intelligenza Artificiale lanciano l’allarme perché il loro stesso campo viene soffocato da una marea di documenti accademici scadenti, scritti proprio utilizzando quei modelli linguistici che dovrebbero analizzare. Insomma, il serpente che si mangia la coda, ma in versione digitale e con molte meno calorie intellettuali.
In questo articolo
Il problema è strutturale. La ricerca sull’AI è diventata incredibilmente popolare, una sorta di Eldorado moderno. E come succede sempre quando c’è una corsa all’oro, arriva chi vende pale bucate. Molti stanno cercando di costruirsi una reputazione accademica a tempo di record (“speedrun”, direbbero i gamer), sfornando decine, a volte centinaia di articoli all’anno. Il risultato? L’intero settore rischia di perdere credibilità.
Hany Farid, professore di informatica alla UC Berkeley, non usa mezzi termini. In un’intervista rilasciata al The Guardian, ha definito la situazione attuale una “frenesia”. C’è così tanta spazzatura (“slop”, in gergo tecnico ma non troppo) che sale a galla, che lui stesso ormai sconsiglia ai suoi studenti di entrare in questo campo.
«Così tanti giovani vogliono entrare nell’AI», ha detto Farid. «È semplicemente un disastro. Non riesci a stare al passo, non riesci a pubblicare, non riesci a fare un buon lavoro, non riesci a essere riflessivo». E quando manca la riflessione, sapete meglio di me che la scienza diventa solo marketing.
Il caso limite: 113 pubblicazioni in un anno
Farid ha scatenato un dibattito acceso puntando i riflettori sulla produzione “industriale” di un ricercatore AI di nome Kevin Zhu, che sostiene di aver pubblicato ben 113 articoli sull’Intelligenza Artificiale solo quest’anno.
Ora, facciamo due calcoli. «Non riesco a leggere attentamente 100 articoli tecnici in un anno», ha scritto Farid in un post su LinkedIn il mese scorso, «quindi immaginate la mia sorpresa quando ho saputo di un autore che afferma di aver partecipato alla ricerca e alla scrittura di oltre 100 articoli tecnici in un anno».
Qui entra in gioco quel meccanismo che spesso critichiamo: la performance che sostituisce la sostanza. Non conta cosa hai scoperto, conta quanto hai prodotto. È la logica del capitale applicata alla conoscenza: accumulazione pura, svuotata di significato.
La ricerca come performance: pagare per pubblicare
Zhu, che ha recentemente conseguito la laurea triennale in informatica alla UC Berkeley (lo stesso istituto dove insegna Farid, ironia della sorte), ha lanciato un programma per ricercatori AI rivolto a studenti delle scuole superiori e universitari chiamato Algoverse.
Molti dei partecipanti a questo corso finiscono co-autori negli articoli di Zhu. Ma attenzione al dettaglio: ogni studente paga 3.325 dollari per un corso online di 12 settimane, durante il quale ci si aspetta che presentino lavori alle conferenze sull’AI. In pratica, stiamo vedendo un sistema che permette a chi ha risorse economiche di comprare un posto al tavolo della “scienza”, intasando i canali di peer-review con lavori che Farid definisce, senza mezzi termini, un “disastro”.
Secondo Farid, Zhu «non avrebbe potuto contribuire in modo significativo» a tutti quei lavori. È umanamente impossibile.
Il collasso del sistema: rumore bianco e vibe coding
Una di queste conferenze è NeurIPS, considerata una delle “tre grandi” nel campo. Un tempo era un evento di nicchia, oggi è il centro dell’attenzione globale, perché l’AI muove investimenti immensi e prestigio sociale. Nel 2020 riceveva meno di 10.000 paper. Quest’anno? Il numero è schizzato a oltre 21.500. Un’esplosione tale che NeurIPS ora deve affidarsi a studenti di dottorato per aiutare a revisionare questa marea di proposte.
E perché c’è questo volume assurdo? Grazie a persone come Zhu: pensate che 89 dei suoi oltre cento articoli vengono presentati proprio al NeurIPS questa settimana.
Farid ha coniato un termine perfetto per descrivere questo atteggiamento: “vibe coding”. È lo slang che emerge per descrivere l’uso di strumenti AI per costruire software velocemente, basandosi sulle “vibrazioni”, sull’apparenza che funzioni, piuttosto che sulla solida comprensione del codice. È l’atteggiamento di spericolato abbandono che la nuova generazione di programmatori AI-dipendenti sta adottando. Non capisco come funziona, ma l’ha scritto ChatGPT e sembra girare, quindi va bene.
Zhu, interrogato dal Guardian, non ha confermato né smentito se i suoi paper fossero scritti con l’AI, limitandosi a dire che i suoi team usano “strumenti di produttività standard” e “a volte modelli linguistici per il copy-editing”. La classica risposta che non dice nulla per dire tutto.
Le conseguenze per chi fa ricerca seriamente
Il ruolo che l’AI si è ritagliata nella ricerca accademica è controverso da quando è esplosa la bolla dell’hype. Strumenti come ChatGPT sono ancora inclini ad allucinare citazioni, inventando fonti che non esistono, e spesso riescono a sgattaiolare attraverso il processo di peer review anche di riviste prestigiose. Abbiamo visto casi assurdi, come diagrammi di topi con genitali impossibili generati dall’AI finiti su riviste scientifiche. Siamo al punto in cui alcuni autori inseriscono testo nascosto nei loro paper progettato per ingannare i “revisori” (che a loro volta sono AI!) affinché diano valutazioni positive.
Ma ciò che è particolarmente sconcertante ora è vedere come la ricerca sull’AI stia venendo fatta a pezzi dalla tecnologia stessa. Quanto a lungo può sopravvivere questa disciplina al suo stesso prodotto? E cosa significa per la prossima generazione di scienziati veri, se la ricerca innovativa viene soffocata dai loro colleghi molto più “prolifici” che sfornano studi con fonti fabbricate?
Anche un veterano esperto come Farid ammette che ormai è impossibile tenere traccia di ciò che accade nel campo dell’AI.
«Non hai alcuna possibilità, nessuna possibilità come lettore medio di cercare di capire cosa sta succedendo nella letteratura scientifica», ha detto Farid. «Il rapporto segnale-rumore è praticamente uno. Riesco a malapena ad andare a queste conferenze e capire cosa diavolo stia succedendo».
In pratica, stiamo costruendo una Torre di Babele automatizzata. E mentre il rumore aumenta, la vera conoscenza rischia di diventare un sussurro inascoltabile. Se l’AI diventa uno strumento per concentrare ricchezza e prestigio verso l’alto, sfruttando competenze superficiali dal basso, abbiamo un problema politico, non solo tecnologico.




