dariodeleonardis.me

“Non hai una faccia umana”: l’IA della motorizzazione umilia una donna con disabilità

In questo articolo

 


 

L’intelligenza artificiale, ci dicono, è il futuro. Efficiente, oggettiva, infallibile. Peccato che la realtà sia ben diversa. Addestrata su enormi moli di dati presi da internet, l’IA eredita e amplifica i pregiudizi umani. E così, invece che un futuro migliore, rischiamo di costruire un presente ancora più discriminatorio.

Non sorprende, quindi, che l’IA abbia una spiccata “abilità” nel discriminare. Lo fa esacerbando pregiudizi basati sulla razza, sul genere, sull’orientamento sessuale. E, come ha scoperto a sue spese una donna durante un’umiliante visita alla motorizzazione civile (DMV), anche contro le persone con disabilità.

L’incubo kafkiano di Autumn Gardiner

La storia, raccontata da Wired, riguarda Autumn Gardiner, una donna del Connecticut. Il suo compito era banale: aggiornare la patente dopo essersi sposata. Serviva una nuova foto. Un processo semplice, che si è trasformato rapidamente in un incubo a causa del software di verifica dell’identità basato sull’IA del governo statale.

Autumn vive con la sindrome di Freeman-Sheldon, una rara malattia genetica che colpisce i muscoli intorno al viso, in particolare la bocca. A causa di questa condizione, una dopo l’altra, le sue foto venivano rifiutate dal software della motorizzazione.

È diventato uno spettacolo degradante. “Tutti guardavano”, ha raccontato a Wired. “Continuavano a scattare altre foto”.

“È stato umiliante e strano”, ha continuato. “Ecco questa macchina che mi dice che non ho una faccia umana”.

“Differenza visibile”: l’angolo cieco dell’algoritmo

La condizione di Autumn rientra in quella che viene definita una “differenza visibile”. Il gruppo di advocacy Changing Faces la descrive come “una cicatrice, un segno o una condizione che ti fa apparire diverso”. Questo può includere persone con voglie, ustioni, esiti di cancro, condizioni craniofacciali, perdita di capelli, condizioni della pelle come la vitiligine o condizioni ereditarie come la neurofibromatosi.

Persone reali, con volti reali, che però non rientrano negli angusti parametri di “normalità” definiti dagli algoritmi, addestrati su set di dati che, evidentemente, mancano di rappresentatività.

Un problema sistemico: dai filtri social al riconoscimento facciale

Autumn non è sola. Wired ha parlato con diverse persone con differenze visibili che raccontano come i software AI stiano complicando sempre di più le loro vite. Le frustrazioni sono infinite: dai filtri per i selfie sui social media che non riconoscono i loro volti, alle app bancarie che usano la verifica facciale e li bloccano fuori dai loro conti.

“In molti paesi, il riconoscimento facciale è sempre più parte della vita quotidiana, ma questa tecnologia sta fallendo la nostra comunità”, ha testimoniato Nikki Lilly, rappresentante del gruppo Face Equality International, davanti alle Nazioni Unite quest’anno.

Mentre sempre più aspetti della nostra vita vengono sbarrati dietro questi sistemi, la domanda diventa seria: chi ne beneficia davvero? E la vita di chi viene resa più difficile, se non impossibile?

Chi decide chi è “normale”? L’etica mancante dell’IA

Il caso di Autumn Gardiner alla motorizzazione non è un semplice “glitch” tecnologico. È il sintomo di un problema etico profondo. Stiamo delegando a macchine, addestrate su dati parziali e intrinsecamente viziati, il potere di definire cosa sia “umano”, cosa sia “normale”, chi abbia diritto di accedere a servizi essenziali.

L’IA non è “oggettiva”. Riflette le scelte, i pregiudizi e le limitazioni di chi l’ha creata e addestrata. Continuare a implementarla acriticamente in settori delicati come l’identificazione personale, senza meccanismi di controllo umano robusti e senza una seria riflessione sull’inclusività e l’equità, significa costruire attivamente una società che esclude e umilia chi non rientra in uno standard arbitrario. È ora di fermarsi e chiedersi se questo è davvero il “progresso” che vogliamo.