In questo articolo
OpenAI ha rilasciato una nuova app per smartphone, al momento solo su invito, che si preannuncia come un rivale di TikTok alimentato da un flusso infinito di video generati dall’intelligenza artificiale. L’app si basa sull’ultimo modello text-to-video, Sora 2, che l’azienda descrive come “più fisicamente accurato, realistico e controllabile dei sistemi precedenti”. Peccato che uno dei suoi stessi sviluppatori abbia pensato bene di dimostrarne la potenza in un modo a dir poco inquietante: creando un video falso del suo capo, il CEO Sam Altman, mentre ruba in un supermercato.
Il lancio di Sora 2 e la gaffe dello sviluppatore
Il video di lancio dell’app è stato accolto con reazioni perlopiù negative, definito da molti “inquietante” e “senz’anima”. Ma il vero problema va ben oltre la qualità artistica. La possibilità di creare video fotorealistici di chiunque, in qualsiasi situazione, apre scenari distopici, specialmente quando si tratta di impersonificazione e false accuse.
In un atto di ironia che definire “fuori luogo” è un eufemismo, lo sviluppatore di Sora, Gabriel Petersson, ha pubblicato su X un video generato dall’IA che mostra il filmato di una telecamera a circuito chiuso in cui Sam Altman “ruba schede grafiche da Target”.
Il video, inteso come una battuta sulla fame di hardware di OpenAI, mostra Altman beccato da una guardia di sicurezza mentre cerca di uscire dal negozio con una scatola di GPU. Una gag che fa riferimento alla corsa sfrenata delle aziende IA per accaparrarsi hardware specializzato. Ma al di là della frecciatina aziendale, il video dipinge un futuro terrificante, in cui chiunque potrebbe essere facilmente incastrato per un crimine che non ha mai commesso.
“Ogni avvocato difensore ha già una mozione pronta”
Le reazioni non si sono fatte attendere. Molti hanno sottolineato quanto la gaffe di Petersson fosse sorda a qualsiasi considerazione etica. «I dipendenti di OpenAI sono molto entusiasti di quanto il loro nuovo strumento IA possa creare video falsi di persone che commettono crimini e hanno sicuramente pensato a tutte le implicazioni di questo», ha commentato sarcasticamente Drew Harwell, giornalista del Washington Post.
Un altro utente ha aggiunto: «Vedo che ogni avvocato difensore ora ha una mozione pre-scritta quando si tratta di prove video».
Il punto è proprio questo. Stiamo già vedendo le forze dell’ordine utilizzare il riconoscimento facciale basato sull’IA per identificare i colpevoli, nonostante le palesi imprecisioni della tecnologia che hanno già portato all’arresto di persone innocenti. Ora, con l’avvento di generatori video potenti come Sora 2, diventa ancora più facile posizionare un bersaglio sulla scena di un crimine che non ha mai visitato.
Le deboli difese di OpenAI
Da parte sua, OpenAI sostiene che la nuova funzione “cameo” dell’app — che permette di “inserire te stesso direttamente in qualsiasi scena di Sora” — proteggerà le persone comuni. Come? Dando loro il controllo sulla propria immagine.
«Con i cameo, hai il controllo della tua somiglianza dall’inizio alla fine», si legge nell’annuncio. «Solo tu decidi chi può usare il tuo cameo, e puoi revocare l’accesso o rimuovere qualsiasi video che lo includa in qualsiasi momento». L’azienda ha anche dichiarato di voler bloccare le rappresentazioni di personaggi pubblici (anche se non è chiaro se Altman avesse acconsentito ai video di Petersson) e che ogni contenuto potrà essere segnalato per abusi.
Promesse che suonano deboli, considerando la grande difficoltà che OpenAI ha già dimostrato nell’implementare barriere efficaci per i suoi modelli linguistici, come ChatGPT.
Il vaso di Pandora è aperto: la fine delle prove video?
È troppo presto per dire come andrà a finire. Ma il semplice fatto che i dipendenti stessi dell’azienda stiano già dimostrando con leggerezza quanto sia facile generare video falsi di persone innocenti che commettono reati non fa ben sperare.
La “battuta” dello sviluppatore è la metafora perfetta dell’approccio sconsiderato della Silicon Valley: lanciare sul mercato tecnologie potentissime senza averne minimamente compreso o gestito le implicazioni sociali, legali ed etiche. Abbiamo appena aperto un vaso di Pandora che rischia di minare le fondamenta del nostro sistema giudiziario e il concetto stesso di prova. E, a quanto pare, per qualcuno è solo un gioco divertente.