L’industria dei videogiochi, lo sappiamo, è ossessionata dall’idea di sfruttare l’AI generativa. La promessa è sempre quella: aumentare la produttività, sognare mondi virtuali più grandi e, ovviamente, tagliare i costi. Non a caso, un recente sondaggio di Google Cloud ha rivelato che quasi il 90% degli sviluppatori sta già usando l’AI per automatizzare e snellire le attività.
Il problema è che la vera motivazione dietro questa corsa all’oro digitale non è affatto creativa. Arriva dritta dalla spinta a contenere i costi, specialmente dopo che il settore ha visto licenziamenti massivi a causa dell’aumento delle spese e di un calo della domanda post-pandemia. Insomma, si cerca il profitto facile, non la rivoluzione artistica.
E a giudicare da quanto sta accadendo in Electronic Arts (EA), l’azienda dietro franchise colossali come The Sims e Battlefield, questa strategia si sta orribilmente ritorcendo contro. Il personale ha raccontato a Business Insider che i tentativi dell’azienda di infilare l’AI nelle attività quotidiane stanno facendo cilecca.
In questo articolo
Codice difettoso e aumento del lavoro: l’AI che crea più crunch
Il nocciolo della questione è che i tool di AI che il personale di EA è incoraggiato a usare stanno generando codice difettoso e altre “allucinazioni” che i dipendenti devono poi correggere. In pratica, l’AI non sta alleggerendo il carico di lavoro, ma lo sta aumentando. Per un’industria già tristemente nota per la sua cultura del crunch e l’alto turnover, questo è un colpo durissimo alla sostenibilità del lavoro. Non stiamo parlando di automazione, ma di complicazione algoritmica.
Parafrasando un analista di TD Cowen, la situazione è riassunta perfettamente: “È un problema quando i cani non mangiano il cibo per cani”. I tool, teoricamente pensati per aiutare gli sviluppatori, sono di fatto inutili o dannosi, ma i dirigenti continuano a spingere per il loro utilizzo.
Sfiducia e resistenze: i lavoratori scavano la propria tomba?
C’è un livello di apprensione ancora più profondo e, direi, legittimo, tra i lavoratori: quello di essere costretti a scavare la propria tomba addestrando i programmi di AI. Un ex dipendente di alto livello dell’area quality-assurance design ha raccontato di sospettare che il suo licenziamento sia legato proprio alla capacità dell’AI di svolgere, almeno in parte, il suo compito di riassumere i feedback dei playtester.
Questa dinamica genera una frattura netta tra le alte sfere e la base: un sondaggio di Dayforce mostra che l’87% dei dirigenti utilizza l’AI quotidianamente, contro solo il 27% dei lavoratori. Il divario è così ampio che i dipendenti di EA hanno iniziato a prendere in giro i loro capi su Slack, con meme che sbeffeggiano gli Amministratori Delegati (CEO) che vogliono l’AI “subito” pur non sapendo bene cosa farsene.
Un problema di etica e di reputazione: il disinteresse del pubblico
Il problema di fondo è che l’AI, per come è applicata in questi casi, è l’antitesi di quella che l’arte videoludica dovrebbe rappresentare: la connessione umana. Come ha sottolineato Jackson Lu della MIT Sloan School of Management, dove il lavoro è altamente personalizzato, creativo e legato all’identità, i dipendenti vogliono un “essere umano nel circuito” (human in the loop).
Anche i giocatori, d’altra parte, sono poco entusiasti all’idea di giocare a titoli “AI-centrico”. Esempi come il prototipo di AI del protagonista di Horizon Zero Dawn, Aloy, sono stati subito derisi perché ritenuti “inquietanti” e fuori luogo.
L’azienda stessa sembra essere consapevole del rischio. In una recente documentazione alla Securities & Exchange Commission, EA ha ammesso che l’uso dell’AI potrebbe presentare “problemi sociali ed etici” che, se non gestiti appropriatamente, potrebbero portare a danni legali e reputazionali, facendo perdere fiducia nei marchi e influenzando negativamente i risultati finanziari e operativi. Quando un’azienda è costretta ad ammettere che la sua “rivoluzione” AI potrebbe far crollare la fiducia dei consumatori, siamo davanti a un fallimento etico prima ancora che tecnico.
Il fallimento del tool “pensiero-partner”
Nonostante tutto, Andrew Wilson, Amministratore Delegato di EA, continua a sostenere che l’AI non è una semplice buzzword, ma “il cuore stesso della nostra attività”. Il personale, nel frattempo, è obbligato a seguire corsi di formazione per vedere la tecnologia come un “pensiero-partner” e viene persino consigliato di usare i chatbot per gestire i sottoposti poco performanti.
Ecco, questa è la dinamica che ci interessa come giornalisti progressisti: la tecnologia che dovrebbe liberare l’uomo dal lavoro alienante viene qui usata per rendere il lavoro più alienante (correggere codici fallaci) e per sostituire le competenze umane (riassumere feedback o, peggio, gestire i rapporti con i colleghi). Non si tratta di innovazione, ma di una degradazione delle competenze e di un cinico tentativo di risparmiare sul costo del lavoro umano, anche quando il risultato è oggettivamente scadente. La speranza è che questa resistenza interna costringa l’industria a un ripensamento etico sulla vera funzione dell’AI.
