dariodeleonardis.me

Il Panopticon è razzista: la polizia britannica ammette che l’AI discrimina neri e asiatici (ma la userà lo stesso)

C’è un vecchio adagio nel mondo della tecnologia che dice: “se automatizzi un processo rotto, otterrai solo un disastro automatizzato”. Ebbene, quello che sta succedendo nel Regno Unito ne è la prova lampante. Il governo britannico ha deciso di premere l’acceleratore sulla sorveglianza di massa, promettendo di implementare il riconoscimento facciale su scala nazionale. Il problema? Hanno dovuto ammettere, nero su bianco, che il sistema è strutturalmente razzista.Non stiamo parlando di opinioni, ma di dati tecnici che svelano il vero volto della “sicurezza” moderna: un occhio digitale che vede criminali dove non ce ne sono, specialmente se la pelle di chi passa davanti alla telecamera non è bianca.

In questo articolo

 


 

L’espansione del Panopticon britannico

Giovedì scorso, i funzionari del Regno Unito hanno lanciato una promessa che suona come una minaccia: un sistema di riconoscimento facciale diffuso in tutto il paese per aiutare la polizia a rintracciare i criminali. Hanno aperto una consultazione di 10 settimane per discutere le regole, ma la sensazione è che la decisione sia già stata presa. L’occhio onniveggente sta arrivando, che ci piaccia o no.

Londra è già una delle città più sorvegliate al mondo, con una densità stimata di 1.552 telecamere per miglio quadrato. Non contenti, a novembre il Ministero dell’Interno ha finanziato sette nuove forze di polizia metropolitane per schierare furgoni dotati di riconoscimento facciale in tempo reale. È la normalizzazione della sorveglianza, venduta come “progresso”.

I numeri della discriminazione algoritmica

Qui però la faccenda si fa sporca. Un’analisi del National Physical Laboratory (NPL), riportata dal The Guardian, ha scoperchiato il vaso di Pandora. Il software di riconoscimento facciale retrospettivo (quello usato per analizzare filmati passati) ha un tasso di falsi positivi dello 0,04% per i soggetti bianchi.

E per gli altri? Il tasso di errore sale al 4% per i soggetti asiatici e schizza al 5,5% per i soggetti neri. In pratica, se sei nero, hai oltre 100 volte più probabilità di essere erroneamente identificato come un criminale rispetto a una persona bianca. L’Associazione dei Commissari di Polizia ha dovuto ammettere che “in alcune circostanze è più probabile che il sistema abbini erroneamente persone nere e asiatiche rispetto alle loro controparti bianche”.

La fretta di schedare ignorando i rischi

Nonostante questi dati allarmanti, la ministra della polizia Sarah Jones ha avuto il coraggio di definire questa tecnologia “la più grande svolta nella cattura dei criminali dai tempi del confronto del DNA”. È il classico trionfo della tecnocrazia sulla giustizia sociale: l’efficienza (presunta) viene prima dei diritti civili.

Eppure, persino alcuni commissari di polizia stanno chiedendo cautela, sottolineando che la tecnologia viene dispiegata operativamente “senza adeguate salvaguardie”. È come distribuire armi difettose che sparano a caso, ma solo verso certe direzioni.

La fine della presunzione d’innocenza?

Il piano a lungo termine è ancora più inquietante: creare un nuovo database nazionale con “milioni di immagini” di cittadini innocenti, incrociando i dati delle telecamere con i registri di passaporti e patenti. Charlie Whelton del gruppo per i diritti civili Liberty ha centrato il punto: “Il bias razziale in queste statistiche mostra i dannosi impatti nella vita reale”.

Siamo di fronte all’automazione del pregiudizio. Se addestriamo le macchine con i dati di una società strutturalmente iniqua, otterremo solo una discriminazione più veloce ed efficiente. Invece di correggere le ingiustizie, stiamo costruendo un’infrastruttura tecnologica che le cristallizza, rendendo la vita ancora più difficile per le comunità già marginalizzate. Non è sicurezza, è controllo sociale selettivo.