dariodeleonardis.me

Questa settimana nel grottesco mondo dell’IA: cause legali, GenZ ribelli, sorveglianza di massa e le bugie di Sam Altman

In questo articolo

 


 

Capiamoci bene. Se in un raid il party continua a pullare mob restando fermo sulle void zone, il wipe è matematico. Leggo queste notizie e vedo un disastro sistemico che le corporation stanno allegramente ignorando pur di non perdere i bonus di fine anno. Il realismo capitalista applicato al silicio. Andiamo con ordine.

Medicina corrotta e foto manipolate

Il New England Journal of Medicine ha appena ritirato uno studio clinico per un motivo assurdo. Due ricercatori cinesi hanno ammesso di aver usato l’IA per spostare un righello in una fotografia chirurgica per renderla “più estetica”, sballando i numeri della scala. Come fa notare MedPage Today, si trattava di un paziente in condizioni critiche. La pigrizia accademica delegata alla macchina sta distruggendo la ricerca, una china pericolosa denunciata apertamente dalla rivista Science.

La ribellione della Gen Z

C’è chi ha mangiato la foglia. La Generazione Z si sta ribellando in massa e boicotta le politiche aziendali legate all’automazione, un trend che The Verge ha evidenziato in modo netto. Secondo un report di Workplace Intelligent, il 44% dei giovani lavoratori ammette di sabotare di proposito l’integrazione di questi tool in ufficio. Vogliono difendere il proprio lavoro e il proprio pensiero in un mercato già spietato Il giornale studentesco della Penn University l’ha riassunto bene: l’IA non coesiste con l’educazione, la degrada. I sondaggi Gallup certificano che solo il 18% di loro ha speranza in questa tecnologia.

OpenAI a un passo dal baratro

Al vertice della piramide intanto dilaga il panico. Il processo a Oakland tra Elon Musk e Sam Altman rischia di smantellare OpenAI per sempre nel giro di poche settimane. Il Wall Street Journal riporta che la CFO Sarah Friar ha avvertito internamente che i ricavi non crescono abbastanza per pagare i futuri contratti dei server. Se il giudice costringerà l’azienda a tornare non-profit, la baracca crollerà su se stessa, trascinando a fondo mezza Silicon Valley, come ben spiegato dagli analisti interpellati dalla BBC e da The Conversation.

Il panopticon americano

L’infrastruttura di controllo fisico stringe la morsa. The Nation documenta come telecamere intelligenti, droni e lettori di targhe Flock Safety stiano soffocando gli Stati Uniti in un vuoto normativo asfissiante. Gli attivisti non restano a guardare. Mappano i dispositivi su piattaforme civiche come DeFlock o HaveIBeenFlocked, mentre fondazioni per i diritti dei consumatori offrono pesanti taglie in denaro per chi hackera le videocamere Ring staccandole dai server di Amazon.

Vite distrutte dai falsi allarmi

I falsi positivi distruggono esistenze ordinarie. In Colorado, un abitante di Cherry Hills Village di nome Kyle Dausman è perseguitato sistematicamente dalle forze dell’ordine a causa di un errore nel database letto dalle telecamere IA di Flock Safety, che inondano la zona. Come ha raccontato a 9News, ogni volta che guida le volanti lo fermano per un mandato inesistente. Uscire dal loop algoritmico della polizia è un’impresa titanica.

John Oliver asfalta i chatbot

La TV ha finalmente fatto a pezzi l’incantesimo. Nel suo Last Week Tonight, John Oliver ha demolito la narrazione tossica dell’industria IA. Ha riportato le dichiarazioni dei CEO di Character.AI e OpenAI che ammettono senza pudore di aver lanciato i chatbot in fretta e furia delegando alla società il peso dei danni collaterali. Vendono prodotti fallati e ci lasciano l’onere di sistemarli dopo che hanno fatto danni psicologici irreversibili.

Ignorare un massacro per il profitto

Mentre i CEO sfilano in TV, la gente muore per davvero. Sette famiglie hanno fatto causa a OpenAI per i tragici fatti della scuola di Tumbler Ridge. Secondo il Wall Street Journal, mesi prima i moderatori umani avevano segnalato le chat iper-violente della killer chiedendo di allertare la polizia. I dirigenti hanno preferito insabbiare tutto e disattivare l’account in silenzio. Come se non bastasse, una comunicazione automatica del servizio clienti ha praticamente spiegato all’attentatrice come raggirare il ban creando una mail alias. Ora l’azienda, che ha pateticamente provato a giustificarsi col governo canadese, appoggia pure leggi per l’immunità civile.

Poliziotti, IA e stalking

Se crei un sistema di sorveglianza senza regole per le strade, le guardie ne abuseranno. Un report dell’Institute for Justice ha documentato 14 casi di poliziotti che usano il network di telecamere per stalkerare le partner. A Milwaukee, un agente ha tracciato l’ex fidanzata 180 volte in due mesi e si è dovuto dimettere solo perché lei se ne è accorta usando un audit indipendente. I database diventano feudi per abusi personali.

Le menzogne di Sam Altman

Le bufale spaziali di Altman assumono contorni imbarazzanti. Tools for Humanity, la sua creatura legata al tracciamento dell’iride, ha strombazzato ai quattro venti un accordo per vendere i biglietti di Bruno Mars con scansioni biometriche. Peccato che, come confermato a Wired dal management dell’artista, nessuno li avesse mai contattati. Vice segnala che la startup ha poi ripiegato mestamente sulla band di Jared Leto, i Thirty Seconds to Mars. La tendenza seriale alla menzogna di Altman non è certo un mistero per i dipendenti, come ampiamente documentato dal New Yorker.

Cittadine divorate dai server

L’estrattivismo non si ferma mai. Ad Archbald, borgo di 7000 abitanti in Pennsylvania, vogliono piazzare 51 magazzini data center enormi per agganciarsi al vicino impianto nucleare di Susquehanna. Il 14% della città sparirebbe sotto al cemento, portando zero lavoro locale e drenando risorse. I cittadini, giustamente esasperati dall’opacità amministrativa, hanno defenestrato in massa i vertici del consiglio comunale schierandosi in aperta rivolta sociale e civica.

Agenti IA e acquisti folli

Anthropic ha provato a far fare acquisti online agli agenti Claude dandogli un budget di cento dollari a testa in un mercatino chiuso. Il risultato è surreale. Un modello ha acquistato 19 palline da ping pong per far “un regalo a se stesso”, mentre un altro ha comprato esattamente lo stesso snowboard che l’umano che doveva rappresentare già possedeva. Questi sono gli algoritmi razionali a cui stiamo affidando la gestione del nostro presente economico.

Allucinazioni e diagnosi letali

Infine, la medicina è in pericolo. Un editoriale tranciante di Nature Medicine smentisce in toto l’utilità clinica dell’IA: mancano evidenze che porti reale valore ai pazienti. In uno studio del JAMA, davanti a sintomi poco chiari l’80% delle diagnosi IA si è rivelato errato. Una ricercatrice svedese ha persino dimostrato la fragilità di questi sistemi inventandosi una patologia falsa e facendola accettare a modelli complessi. Eppure, le corporazioni spingono per l’adozione accelerata fregandosene delle conseguenze sui corpi vivi.

Mettiamo in mano il mondo a software fallati gestiti da dirigenti accecati dal profitto. La corsa verso il fondo è cominciata. Non dite che non c’erano le void zone per terra.

L’IA non sostituirà il lavoro di ufficio a breve. Ma un boss incompetente non non capisce nulla di IA proverà di sicuro a farlo

In questo articolo L’idraulica dell’ufficio e il test della reversibilità Un disastro strutturale e silenzioso Dal lavoro all’accudimento algoritmico L’illusione dell’automazione e il collasso della produttività     L’idraulica dell’ufficio e il test della reversibilità Se qualcuno continua a ripeterti che l’intelligenza artificiale è a un passo dal rubarti il

Leggi Tutto »