dariodeleonardis.me

Il Grande Bluff dell’IA: Licenziamenti, Fallimenti e il Ritorno dell’Uomo (per ora)

C’è un’ironia quasi comica in quello che sta succedendo nel mondo aziendale. Prima la corsa sfrenata a sostituire il lavoro umano con l’Intelligenza Artificiale, presentata come la nuova frontiera dell’efficienza. E adesso? Adesso assistiamo a un costoso e imbarazzante “effetto boomerang”. Le aziende si stanno schiantando contro fallimenti operativi, danni d’immagine e grane legali che le costringono a una rapida ritirata. E, cosa più incredibile, a riassumere personale umano.

Non si tratta di un fallimento della tecnologia in sé, sia chiaro. Il problema, come al solito, sta nelle strategie miopi, nella totale mancanza di visione e in una sottovalutazione quasi arrogante del valore insostituibile del giudizio umano. Le statistiche, del resto, parlano da sole: si stima che fino all’80% dei progetti di IA fallisca miseramente. Una cifra spaventosa. Insomma, il dibattito non è più *se* l’IA cambierà il lavoro, ma come le aziende possano evitare di ripetere gli stessi, costosissimi errori dei pionieri e costruire finalmente una collaborazione sostenibile tra uomo e macchina.

In questo articolo

 


 

La grande de-sostituzione: I casi emblematici che fanno scuola

Il passaggio da un’euforia quasi ingenua per l’automazione a una più matura comprensione dei suoi limiti è ormai evidente. Basta guardare ad alcuni casi concreti.

Il caso Klarna: il vero costo del servizio clienti automatizzato

La fintech svedese Klarna è diventata l’emblema di questo effetto boomerang. All’inizio, la narrazione era trionfale: via 700 agenti del servizio clienti, sostituiti da un assistente IA di OpenAI. I numeri iniziali sembravano dare loro ragione: l’IA gestiva 2,3 milioni di conversazioni, l’equivalente del lavoro di 700 persone, con tempi di risoluzione crollati da 11 a 2 minuti e un risparmio previsto di 40 milioni di dollari l’anno.

Poi, però, è arrivata la dura realtà. Lo stesso CEO, Sebastian Siemiatkowski, ha dovuto ammettere che una focalizzazione miope sulla riduzione dei costi ha portato a un servizio di “qualità inferiore”. L’IA si è dimostrata totalmente inadeguata a gestire compiti che richiedevano un minimo di empatia, sfumature o discrezione, causando un’impennata delle lamentele. I guadagni iniziali sono stati polverizzati da un aumento del 25% delle richieste ripetute e da un danno reputazionale enorme. La mossa successiva? Klarna ha iniziato a riassumere personale umano per l’assistenza clienti, riconoscendo che il “tocco umano” non è negoziabile. Il tutto mentre la valutazione dell’azienda crollava dell’85% rispetto al suo picco, suggerendo un legame tra l’errore strategico sull’IA e lo scetticismo del mercato.

IBM e McDonald’s: riallocazione strategica e fallimenti comici

Il caso di IBM è più sfumato. Anche loro hanno sostituito centinaia di ruoli nelle risorse umane con un’agente IA, “AskHR”. Ma non si è trattato di un semplice taglio. Il CEO Arvind Krishna ha chiarito che, mentre alcuni ruoli venivano automatizzati, l’organico totale di IBM è addirittura aumentato. I risparmi ottenuti sono stati reinvestiti per assumere in aree strategiche come l’ingegneria del software. Questo dimostra che l’IA può essere usata per eliminare compiti a basso valore e liberare risorse per attività più creative, una vera e propria riallocazione strategica.

Altri segnali, poi, confermano questa tendenza al “rimorso da IA”. Pensiamo a McDonald’s, il cui sistema di ordinazione IA nei drive-thru ha prodotto errori comici ma costosi, come l’aggiunta di bacon al gelato, dimostrando l’immaturità della tecnologia in ambienti complessi. O a Duolingo, che ha dovuto fare marcia indietro dopo le proteste dei clienti contro la decisione di sostituire i collaboratori con l’IA. Dati di mercato lo confermano: il 55% dei leader aziendali che hanno licenziato per l’IA si è pentito, e il 42% delle aziende ha abbandonato i progetti pilota di IA generativa nel 2025.

Anatomia di un fallimento: Dai chatbot impazziti ai progetti abbandonati

I fallimenti dell’IA non sono semplici bug, ma hanno conseguenze legali, finanziarie e reputazionali enormi.

La catastrofe dei chatbot e la responsabilità legale

L’uso di chatbot a contatto con il pubblico è un campo minato. Il caso del chatbot dell’azienda di consegne DPD è da manuale: sollecitato da un cliente frustrato, il bot ha iniziato a usare un linguaggio volgare, a insultare la propria azienda e a comporre una poesia sulla sua stessa inutilità. L’incidente è diventato virale, un disastro di immagine.

Ancora più grave è il precedente legale stabilito dal caso Moffatt v. Air Canada. Il chatbot della compagnia aerea ha “allucinato”, inventandosi una politica tariffaria inesistente. Il tribunale ha respinto la tesi di Air Canada secondo cui il bot fosse un’entità legale separata, ritenendo l’azienda pienamente responsabile per le informazioni fornite. Questo è un punto fondamentale: un’azienda è responsabile dell’output della sua IA, proprio come lo è delle parole di un suo dipendente.

Perché l’80% dei progetti interni fallisce

Anche internamente, la situazione è disastrosa. Uno studio della Rand Corporation ha identificato le cause principali dell’alto tasso di insuccesso:

  • Incomprensione del problema di business che l’IA dovrebbe risolvere.
  • Dati inadeguati, sporchi o pieni di bias per addestrare i modelli. La scarsa qualità dei dati è indicata come la causa principale fino all’87% dei fallimenti.
  • Una “sindrome dell’oggetto luccicante” che porta a inseguire la tecnologia del momento invece di risolvere problemi reali.
  • Infrastruttura tecnologica e di governance dei dati del tutto inadeguata.

Queste conclusioni sono confermate anche da fonti italiane. Un’analisi di Confindustria parla di una “mancata corrispondenza” tra le capacità dell’IA e le reali esigenze operative, mentre il Mimit ha sottolineato che l’efficacia dell’IA dipende interamente dalla competenza dell’utente umano e dalla qualità dei dati.

La rivincita umana: Nascono nuove professioni per “riparare” l’IA

La risposta a questi fallimenti sta portando alla nascita di una nuova classe di professionisti dedicati a gestire, correggere e governare l’IA. È questo il vero nucleo del fenomeno della “riassunzione”: non un ritorno al passato, ma la creazione di lavori completamente nuovi. La soluzione strategica è l’adozione di un modello “Human-in-the-Loop” (HITL), un approccio collaborativo in cui l’esperienza umana è integrata nel ciclo di vita dell’IA per guidarla e migliorarla.

Stanno emergendo nuove figure professionali molto specializzate:

  • L’Addestratore di IA (AI Trainer): È responsabile di “insegnare” ai modelli, gestendo e pulendo i dati, annotandoli, definendo flussi conversazionali e testando le performance per identificare i bias. Richiede competenze