dariodeleonardis.me

Questa settimana nel grottesco mondo dell’IA: politica, sfruttamento, molotov e bolle speculative

In questo articolo

 


 

Osservare l’ecosistema tecnologico odierno è come guardare un incidente d’auto al rallentatore, in cui i passeggeri della prima classe brindano mentre il motore va in fiamme. È l’apoteosi di quel realismo capitalista in cui tutto, dai nostri dati sanitari alle amicizie degli adolescenti, viene mercificato e fagocitato da una bolla speculativa che promette miracoli e consegna disastri. Insomma, un’altra settimana nel grottesco mondo dell’intelligenza artificiale, dove il lavoro viene svalutato, la ricchezza si concentra e la politica è complice.

I democratici e il terrore di infastidire i miliardari dell’IA

Durante le elezioni del 2024, l’establishment del Partito Democratico ha deciso, in un momento di genio politico, di spostarsi a destra. Hanno sbandierato Liz Cheney davanti ai propri elettori, adottato politiche più conservatrici, ignorando candidamente i milioni di giovani elettori che chiedevano un’agenda progressista. Risultato? Gli exit poll hanno certificato il disastro. La critica è sempre la stessa: il partito risponde prima ai suoi miliardari e finanziatori che alla base.

Oggi, nel 2026, non hanno imparato nulla. Secondo il Financial Times, gli strateghi stanno consigliando ai candidati per le elezioni di metà mandato di non infastidire gli interessi pro-IA, pur sapendo che i sondaggi mostrano quanto la regolamentazione dell’IA sia popolare. Un sondaggio Ipsos conferma che il 63% degli americani vuole una regolamentazione ferrea, inclusi i repubblicani. Abbracciare l’IA non aiuta nemmeno a catturare quegli elettori centristi inesistenti che tanto inseguono. Con le piccole città in rivolta contro le infrastrutture tecnologiche, l’opposizione contro le big tech è trasversale. Ma evidentemente il richiamo dei fondi milionari è troppo forte, confermando una ricerca psicologica implicita: chi detiene il capitale decide la linea, a discapito di tutti noi.

L’IA gioca al dottore e noi paghiamo il conto

L’IA di Google forse non ci consiglia più di mangiare sassi o di mettere la colla sulla pizza, ma è ancora tragicamente incompetente in ambito medico. Un nuovo studio pubblicato su JAMA Network Open ha testato 21 LLM su sintomi realistici. Il tasso di fallimento? Oltre l’80% sui sintomi ambigui e il 40% su casi chiari. Marc Succi, autore dello studio, ha rilasciato una dichiarazione cristallina: non sono pronti per l’uso clinico.

Eppure, un recente sondaggio svela che 66 milioni di americani si rivolgono ai chatbot per questioni di salute. Molti lo fanno perché non possono permettersi una visita. Il sistema, in pratica, espelle i poveri dalla sanità e offre loro un bot allucinante. Le IA hanno già fornito informazioni pericolosamente inaccurate e sono state beccate a inventare farmaci inesistenti. C’è un disperato bisogno di supervisione normativa, specialmente quando i modelli di frontiera continuano a prendere abbagli fatali sui pazienti veri.

La rivolta contro i data center e il panico dei CEO

L’indignazione pubblica contro l’ossessione per l’IA inizia a ribollire fuori dalla rete. Qualcuno ha lanciato una molotov contro la casa del CEO di OpenAI, Sam Altman, e ha sparato una dozzina di colpi contro l’abitazione di un consigliere dell’Indiana per fermare un data center. Le comunità rurali stanno continuando uno sforzo pluriennale per bloccare impianti dannosi per l’ambiente, che prosciugano la disponibilità di acqua e devastano la rete elettrica. Nel Missouri, i cittadini hanno reagito licenziando metà del consiglio comunale.

Anche i lavoratori si stanno ribellando attivamente, come sottolineato in un recente post sul blog di Brian Merchant. La narrazione di settore scricchiola, come sottolinea Axios: OpenAI sta sostenendo in un controverso documento che l’IA ci porterà alla settimana corta, mentre Anthropic continua a sottolineare i rischi esistenziali. Per puro controllo danni, proprio prima che il New Yorker pubblicasse un pezzo che definisce Altman un bugiardo e abile manipolatore, OpenAI ha annunciato l’acquisizione di TBPN, lo SportsCenter della Silicon Valley. Nel frattempo, Altman ha condiviso una foto di suo figlio per impietosire chi gli tira le molotov. Una ribellione di massa contro l’IA è chiaramente in atto.

Allbirds e la bolla speculativa che non muore mai

Questa settimana l’azienda di scarpe dei tech bro, Allbirds, ha provato un colpo di coda disperato: hanno fatto scalpore quando l’azienda ha annunciato una svolta verso l’infrastruttura IA, suscitando ridicolo generalizzato. Incredibilmente, il mercato, possibilmente sotto l’effetto di ketamina, ha premiato il titolo con un +700%, per poi schiantarsi quasi subito, come ha scritto Bloomberg.

Ricorda i bei vecchi tempi in cui Long Island Iced Tea annunciò di chiamarsi Long Blockchain Corp: le azioni salirono, l’azienda venne delistata a inizio 2021 e la SEC ha accusato tre persone di insider trading. Come ha scritto in una nota un analista di mercato, si prezza la narrativa, non il rischio. L’ennesimo marchio di scarpe in fallimento che munge l’hype.

Gli adolescenti hanno capito che i chatbot friggono il cervello

Mentre i CEO pontificano, le nuove generazioni, solitamente pioniere tecnologiche, sono paradossalmente le più scettiche nei confronti dell’IA. Un nuovo studio analizzando Reddit ha scoperto che i giovani sono estremamente consapevoli della loro dipendenza dalla tristemente nota Character.AI. Si rendono conto che la natura ricorsiva dei chatbot crea dinamiche relazionali fittizie e malsane. La Cina ha già iniziato a regolamentare queste piattaforme, mentre in Occidente stiamo a guardare come i ragazzi delle superiori stanno usando l’IA non solo per i compiti, ma come sostituto di un supporto emotivo che la società non garantisce più.

L’onesta reazione di ChatGPT alle scoregge

L’intelligenza artificiale generativa ha una solida reputazione per l’adulazione estrema. Nonostante le aziende abbiano promesso pubblicamente di sistemare il difetto, ricercatori hanno scoperto di recente che i bot confermano praticamente qualsiasi cosa l’utente dica. Un esempio assurdo? Lo YouTuber Jonas Čeika ha inviato a ChatGPT un audio di scoregge chiedendo un’opinione sul suo “brano”. Il bot lo ha elogiato per la sua atmosfera “lo-fi”. I presentatori di Pod Save America ci hanno scherzato durante un recente episodio, e un utente su TikTok ha chiesto a ChatGPT in un video virale di cronometrare la sua corsa, ricevendo risposte allucinate.

Fa ridere, finché non ricordiamo che questo tipo di accondiscendenza acritica facilita fenomeni gravissimi: dalla “psicosi da IA“, all’autolesionismo, fino a potenziali atti di violenza assecondati da macchine che non sanno dire di no. Un difetto intrinseco che perfino i modelli di frontiera faticano a scrollarsi di dosso.

Mercor e lo sfruttamento per addestrare i propri carnefici

E arriviamo al fondo del barile. Mercor, una startup di San Francisco, sta assumendo persone in cerca di lavoro disperate per addestrare l’IA che le rimpiazzerà. Come ha riportato il New York Magazine, i lavoratori operano nell’oscurità totale. Una catena di approvvigionamento dell’IA fragile e dipendente dai contractor, che inevitabilmente è andata in frantumi: l’azienda ha dichiarato a TechCrunch di aver subito un grave hack.

Ora ci sono cause legali ovunque, come ha riportato Business Insider. Meta ha dovuto sospendere i lavori con loro, come ha riportato Wired, ovviamente non per tutelare la privacy dei poveracci, ma per paura di perdere i propri segreti industriali. Una prassi disgustosa in cui Mercor aveva già licenziato contractor in massa solo per vedersi offrire lavoro a tariffe da fame, trattando i propri lavoratori come puro capitale da estrarre ed espellere.