dariodeleonardis.me

Il testimone era un deepfake: negli USA l’IA entra in tribunale e il giudice (per fortuna) se ne accorge

Credevamo di averle viste tutte con gli avvocati che usavano ChatGPT per scrivere arringhe piene di leggi inesistenti, ma quello che è successo in California alza l’asticella dell’assurdo e, diciamolo, del pericolo. Per la prima volta, ci troviamo di fronte a un tentativo sfacciato di introdurre prove fabbricate interamente dall’intelligenza artificiale in un’aula di tribunale. Non un errore di copia-incolla, ma un video deepfake spacciato per testimonianza. È successo negli Stati Uniti, certo, ma non illudiamoci: con la velocità a cui viaggia la tecnologia, questo è un problema che busserà molto presto anche alle porte dei tribunali italiani.

In questo articolo

 


 

Fino a poco tempo fa, gli scivoloni legali legati all’IA erano quasi comici: avvocati pigri che si facevano scrivere le memorie da chatbot allucinati. Ma il caso Mendones v. Cushman & Wakefield, Inc segna un punto di svolta inquietante. Come riportato da NBC News, i legali dell’accusa hanno presentato un video che avrebbe dovuto rappresentare una testimonianza chiave. Peccato che fosse palesemente falso.

Il testimone che non sbatteva mai le palpebre

Il video in questione era, per usare un eufemismo, “goffo”. La presunta testimone aveva un volto sfocato, quasi immobile. A parte un raro battito di ciglia, l’unico movimento percepibile era quello delle labbra, che si muovevano in modo meccanico mentre l’espressione facciale rimaneva congelata. C’era persino un taglio di montaggio brutale, dopo il quale i movimenti si ripetevano in loop.

Insomma, un deepfake di bassa lega. Ma il fatto che qualcuno abbia avuto l’audacia di presentarlo come prova autentica in una corte di giustizia è un campanello d’allarme assordante. Non stiamo parlando di un meme su internet, ma di un documento che avrebbe potuto decidere le sorti di un processo e la vita delle persone coinvolte.

La reazione del giudice: orrore e rigetto

Fortunatamente, il giudice Victoria Kolakowski non si è fatta ingannare. Ha respinto il caso il 9 settembre, citando esplicitamente la natura artificiale della testimonianza. Quando gli avvocati hanno avuto il coraggio di chiedere un riesame, sostenendo che il giudice non avesse “provato” che fosse un’IA, la richiesta è stata respinta nuovamente a novembre.

“Il sistema giudiziario sa che stanno avvenendo grandi cambiamenti”, ha commentato Kolakowski, ammettendo però che nessuno ha ancora capito le piene implicazioni di tutto ciò. Siamo ancora nella fase infantile di questa tecnologia, e già vediamo tentativi di inquinamento probatorio.

La democratizzazione del falso: da Sora agli smartphone

Il problema reale non è il video scadente di questo caso specifico. Il problema è cosa succederà domani. Con strumenti come Sora di OpenAI che diventano sempre più accessibili, la capacità di creare video iper-realistici non richiederà più competenze tecniche avanzate. Chiunque, con un prompt e uno smartphone, potrà generare un video di qualcuno che commette un crimine, firma un contratto o confessa un fatto mai avvenuto.

In un contesto giudiziario, dove la “verità processuale” si basa sulle prove, questo è un attacco al cuore del sistema. Se non possiamo più fidarci dei nostri occhi e delle nostre orecchie, come possiamo garantire un giusto processo?

La giustizia è pronta a difendersi?

Negli Stati Uniti il dibattito è acceso. C’è chi vorrebbe nuove regole ferree per la verifica delle prove digitali e chi, come il comitato consultivo federale, sostiene che gli standard attuali siano sufficienti. Un approccio, quest’ultimo, che mi pare pericolosamente ingenuo.

Come ha sottolineato il giudice Erica Yew della California, è probabile che prove false o modificate dall’IA stiano già circolando nei tribunali molto più frequentemente di quanto venga riportato pubblicamente. Semplicemente, non sempre vengono scoperte.

Perché dobbiamo preoccuparci anche in Italia

Potremmo pensare che sia un problema americano, distante dal nostro sistema giuridico. Errore madornale. La tecnologia non ha confini e le dinamiche processuali, pur diverse, si basano sempre sull’affidabilità delle prove. In Italia, dove i tempi della giustizia sono già biblici, l’introduzione di deepfake che richiedono perizie tecniche complesse per essere smascherati potrebbe paralizzare ulteriormente il sistema o, peggio, portare a errori giudiziari devastanti.

È urgente che anche da noi si apra un dibattito serio, non solo tra tecnologi, ma tra giuristi e legislatori. Non possiamo aspettare che il primo innocente venga condannato da un video generato da un algoritmo per iniziare a preoccuparci.

OpenAI brucia miliardi, gli utenti non pagano e Google avanza. Analisi di una crisi che potrebbe trasformare il gigante dell’AI nel prossimo MySpace.

C’è un suono che inizia a farsi sentire nei corridoi della Silicon Valley, ed è quello assordante degli allarmi antincendio. In casa OpenAI, la festa sembra essere finita, o quantomeno la musica è cambiata drasticamente. Quello che fino a ieri sembrava un dominio incontrastato nel mondo dell’Intelligenza Artificiale si sta

Leggi Tutto »