dariodeleonardis.me

Il Disastro Servito a Tavola: Come l’AI Slop sta Avvelenando il Web (e la Vostra Cena)

Parliamoci chiaro: l’idea che la tecnologia debba necessariamente migliorare la nostra vita è una favola che ci raccontiamo per dormire meglio la notte. Ma quando ti ritrovi davanti a una torta carbonizzata perché un algoritmo ha deciso che cuocerla per quattro ore fosse una buona idea, il risveglio è brusco. E sa di bruciato.

La notizia che arriva dagli Stati Uniti, proprio a ridosso del Ringraziamento, è tragicomica ma rivelatrice: il web è inondato di quello che gli esperti chiamano “AI slop” (letteralmente “sbobba da intelligenza artificiale”). Ricette generate automaticamente che non solo fanno schifo, ma sono potenzialmente pericolose. Eppure, il problema non è solo culinario. È economico, etico e profondamente politico.

In questo articolo

 


 

Immaginate di cercare una ricetta per una torta natalizia e trovare istruzioni che vi dicono di infornarla per un tempo biblico, riducendola a un mattone di carbone. O biscotti che sono essenzialmente grumi di zucchero immangiabili. Non è uno scenario distopico, è quello che sta accadendo ora su piattaforme come Google, Facebook e Pinterest.

Secondo un report di Bloomberg, i food blogger stanno lanciando l’allarme rosso. L’AI generativa, priva di qualsiasi intuizione umana o capacità sensoriale, sta inondando i risultati di ricerca con contenuti spazzatura. Il motivo è semplice: i Large Language Models (LLM) non sanno cucinare. Non capiscono la chimica degli alimenti. Si limitano a prevedere la parola successiva in una frase, rimescolando contenuti esistenti senza alcuna verifica empirica.

È il trionfo della quantità sulla qualità, un principio cardine dell’attuale modello di sviluppo tecnologico che ignora completamente il principio di verità e accuratezza che dovrebbe guidare l’informazione, anche quella culinaria.

La guerra ai creatori indipendenti: estrazione di valore e licenziamenti

Ma se la torta bruciata è un fastidio, quello che succede dietro le quinte è una tragedia sociale. Dietro ogni ricetta “vera” c’è un essere umano che ha testato, fallito, riprovato e fotografato il risultato. C’è lavoro.

L’invasione dell’AI slop sta distruggendo questo ecosistema. I creatori indipendenti vedono il loro traffico crollare perché Google preferisce mostrare i suoi AI Overviews (riassunti generati dall’AI) che spesso “rubano” il contenuto dei blogger senza rimandare traffico al sito originale. Il risultato? Meno visite, meno entrate pubblicitarie, e conseguenti licenziamenti. Carrie Forest, proprietaria di Clean Eating Kitchen, ha raccontato a Bloomberg di essere stata costretta a ridimensionare la sua attività.

Siamo di fronte a un classico esempio di concentrazione della ricchezza: le Big Tech addestrano i loro modelli sul lavoro gratuito o sottopagato della collettività (i blogger), per poi usare quegli stessi modelli per rendere obsoleto il lavoro umano e trattenere tutto il valore economico all’interno dei propri “giardini recintati”. È un meccanismo predatorio che merita una critica serrata.

Realismo Capitalista in cucina: la simulazione sostituisce la realtà

Non posso fare a meno di leggere questa situazione attraverso la lente del Realismo Capitalista di Mark Fisher. Siamo arrivati al punto in cui la simulazione del cibo (la ricetta generata dall’AI) ha la precedenza sulla realtà del cibo (la ricetta testata). È una forma di “Stalinismo di mercato”: le piattaforme come Google valorizzano i simboli del risultato (la risposta immediata, l’engagement, il tempo di permanenza sulla piattaforma) a scapito del risultato reale (un pasto commestibile).

In questo sistema, la realtà diventa fungibile. Se la ricetta è vera o falsa importa poco all’algoritmo, purché generi click o soddisfi la query dell’utente in modo superficiale. È l’erosione del concetto stesso di competenza, sacrificata sull’altare dell’efficienza e del profitto a breve termine.

La “difesa” di Google e il futuro del web

La risposta di Google? Un capolavoro di burocratese aziendale. Affermano che i loro riassunti AI sono solo un “utile punto di partenza”. In pratica, scaricano la responsabilità sull’utente finale (il concetto di responsabilizzazione individuale che maschera problemi sistemici), ignorando che il loro design incoraggia l’utente a fermarsi lì, alla risposta facile e immediata.

Siamo di fronte a un bivio. Se continuiamo a permettere che il web venga riempito di “slop”, di contenuti spazzatura generati per ingannare i motori di ricerca, rischiamo quello che alcuni chiamano il collasso del modello: un’AI che parla solo con se stessa, in un loop infinito di mediocrità, mentre la creatività e la competenza umana vengono spinte ai margini, economicamente insostenibili.

Per questo Ringraziamento, e per il futuro, il consiglio è politico oltre che pratico: diffidate delle scorciatoie algoritmiche. Cercate fonti umane, verificate, sostenete i creatori indipendenti. Perché cucinare, come informarsi, è un atto che richiede umanità, non calcolo probabilistico.