Il turno di lavoro per Johnny (nome cambiato per proteggerne l’identità ) era iniziato come al solito, portando il suo furgone carico di pacchi tra le colline boscose di Big Bear Lake, in California. C’era solo un piccolo problema: il suo itinerario lo stava conducendo pericolosamente vicino alla bocca di un incendio selvaggio in corso. Il fumo si addensava intorno a lui e, valutando la situazione tramite l’app Amazon Flex, Johnny si è reso conto che l’intera rotta di consegna era a rischio.
Ha subito contattato il dispatch, supponendo che lo avrebbero richiamato al magazzino. Invece, Amazon gli ha risposto di non mollare e di fare del suo meglio: “Amazon ha detto: ‘So che non è sicuro, consegna quello che puoi’.” L’azienda lo stava spingendo in un incendio attivo per le consegne.
In questo articolo
Il panottico tecnologico: la sorveglianza implacabile
Se Johnny si fosse rifiutato, avrebbe rischiato sanzioni: essere costretto a corsi di formazione nel suo tempo libero, una riduzione delle ore o persino il licenziamento. Il suo lavoro è monitorato costantemente da un arsenale tecnologico: l’app Amazon Flex, l’app eDriving Mentor, l’app DSP Workplace, sensori di bordo, software di routing e telecamere alimentate dall’AI. Questo “panottico tecnologico” ha il compito di notificare ad Amazon qualsiasi deviazione che richieda una “correzione”.
Eppure, quando si tratta di segnalare pericoli reali, come un incendio boschivo, il sistema di sorveglianza che circonda i quasi 400.000 autisti di Amazon fallisce clamorosamente. Questo evidenzia l’ipocrisia di un sistema che è progettato per massimizzare l’efficienza, non per garantire la sicurezza del lavoratore. Come ha notato Alex Hanna, direttore di ricerca del DAIR (Distributed AI Research Institute), Amazon è più interessata a trattare i lavoratori come automata che come esseri umani. “Amazon si libererebbe del tutto degli autisti se potesse”, ha aggiunto.
Licenziato per un sensore rotto e il conflitto di istruzioni
Il sistema AI non solo mette in pericolo gli autisti ma li punisce per eventi fuori dal loro controllo. Un autista di nome Pablo ha raccontato di aver inchiodato per evitare un semi-truck che guidava contromano. L’uomo ha ricevuto immediatamente un rimprovero per “frenata brusca” dal sistema Mentor. Quando ha chiesto al manager come correggere il suo punteggio (sceso da 850 a 650), non ha ricevuto alcuna risposta, sollevando la questione retorica: “La prossima volta mi schianterò per mantenere il mio punteggio a 850, è questo che mi state dicendo?”.
In un altro caso, Johnny è stato licenziato perché i sensori delle cinture di sicurezza nel suo furgone si erano guastati. Nonostante avesse la cintura allacciata e il suo DSP (il fornitore di servizi di consegna) avesse segnalato il problema ad Amazon, i conseguenti cali nel punteggio di sicurezza lo hanno spinto oltre il limite, portando al suo licenziamento tramite una semplice telefonata.
La strategia della non-responsabilità : il modello DSP
Il paradosso è insito nel modello DSP: Amazon esige velocità e precisione estreme (per massimizzare l’efficienza), ma esternalizza l’assunzione e il licenziamento degli autisti a terze parti. Questo permette ad Amazon di scaricare i costosi oneri dei benefici, delle uniformi e, soprattutto, della responsabilità diretta per la sicurezza e il benessere del lavoratore. Quando le aziende di consegna cercano di mettere i conducenti al sicuro, vengono spesso ignorate o, peggio, vedono il loro intero contratto revocato da Amazon.
Pericoli reali e finti canali di segnalazione
La sorveglianza di Amazon ha anche esacerbato problemi sociali di lunga data, come la necessità di urinare nelle bottiglie pur di non perdere tempo. Le telecamere onnipresenti, spesso installate anche nel retro dei furgoni, negano ai lavoratori la minima privacy per affrontare esigenze umane di base.
I canali per le lamentele dei lavoratori, come il sistema Project Cheetah, sono descritti dagli autisti come una “falsa pista” progettata per tenere d’occhio i lavoratori scontenti o potenzialmente interessati all’azione sindacale. E quando le lamentele riguardano minacce serie – come l’episodio in cui un autista ebreo è stato minacciato con una pistola da un abitante della zona – Amazon ha promesso di “mettere in blacklist la casa”, ma non l’ha mai fatto, costringendo gli autisti ad affrontare il pericolo da soli.
Il DAIR ha proposto cinque raccomandazioni, tra cui ritenere Amazon direttamente responsabile per i suoi lavoratori (come suggerito dal National Labor Relations Board), limitare la tecnologia di sorveglianza e garantire la supervisione umana sulla pianificazione algoritmica. Agire su queste raccomandazioni, tuttavia, significherebbe mettere i lavoratori prima del profitto – una scelta che l’azienda non ha alcun incentivo a fare.




