In questo articolo
Diciamocelo, il lancio di Sora 2 da parte di OpenAI, l’app text-to-video pensata per generare video dall’intelligenza artificiale, è stato tutto fuorché liscio. Anzi, ha scatenato un vero e proprio putiferio a Hollywood.
L’app, infatti, è diventata rapidamente una specie di “zona zero” per clip che violano palesemente la proprietà intellettuale: da SpongeBob SquarePants che fuma un bong a Scooby-Doo fermato in autostrada. La risposta iniziale di OpenAI? Alcune blande “barriere protettive” che, a quanto pare, sono state aggirate con una facilità quasi ridicola.
Ma il problema non è solo la violazione dilagante del copyright. Il vero nocciolo della questione, quello che ha fatto perdere le staffe alle grandi agenzie e agli studios di Hollywood, è la sensazione di essere stati presi in giro.
Sora 2: un lancio nel caos del copyright
Questo palese disprezzo per il copyright ha messo Hollywood sul piede di guerra. Diverse e importanti agenzie di talenti hanno dichiarato all’Hollywood Reporter che OpenAI è stata “volutamente fuorviante” nelle comunicazioni avute dietro le quinte.
Qui sta il punto: secondo quanto riportato, l’azienda avrebbe giocato su due tavoli. Ad alcuni detentori di diritti (come riportato anche dal Wall Street Journal), sarebbe stato detto che avrebbero dovuto fare “opt-out” per evitare che le loro opere apparissero nell’app; ad altri, invece, sarebbe stato detto l’esatto contrario. Una confusione che puzza di strategia.
Il doppio gioco dell’ “opt-out”
Certo, il CEO Sam Altman, in un post sul blog del 3 ottobre, ha provato a metterci una pezza, promettendo di “dare ai detentori dei diritti un controllo più granulare sulla generazione dei personaggi, simile al modello opt-in per le sembianze ma con controlli aggiuntivi”.
Peccato che il danno fosse già fatto. Sora 2 era già schizzata in cima alle classifiche dell’App Store, un successo facilitato proprio dalla promessa di accesso illimitato ad alcuni dei personaggi più riconoscibili dei media.
La richiesta iniziale alle agenzie di notificare individualmente a OpenAI il dissenso dei loro clienti all’uso delle loro sembianze è stata accolta con incredulità. “È molto probabile che il cliente licenzierebbe il proprio agente”, ha detto a THR un partner di WME (che rappresenta attori come Matthew McConaughey e Michael B Jordan). “Nessuno di noi farebbe quella chiamata”.
La reazione furiosa di Hollywood
La riproduzione dilagante di materiale protetto da copyright su Sora ha attirato, prevedibilmente, l’attenzione delle lobby di Hollywood. La Motion Picture Association (MPA) ha criticato duramente l’azienda, chiedendo “un’azione immediata”.
Anche la Creative Artists Agency (CAA) si è unita al coro, definendo Sora un “abuso” della tecnologia emergente e “sfruttamento, non innovazione”. Ed è difficile dargli torto: qui stiamo parlando della base stessa del lavoro creativo e della sua protezione.
La strategia del “chiedi scusa dopo”
Molti vedono in questo caos la classica strategia della Silicon Valley del “chiedi perdono dopo, intanto prenditi il mercato” (ask-for-forgiveness-later). Un approccio che, nel mondo dell’IA generativa, significa addestrare i modelli su qualsiasi dato si riesca a trovare, e poi gestire le conseguenze legali.
“Questa è stata una serie di mosse molto calcolate”, ha detto al Reporter un dirigente di un’agenzia che conosce bene la situazione. “Sapevano esattamente cosa stavano facendo quando hanno rilasciato [Sora 2] senza protezioni e barriere”.
Dal punto di vista legale, l’idea dell’opt-out è, francamente, un’assurdità. “Stanno ribaltando il copyright”, ha detto a THR Rob Rosenberg, partner dello studio legale Moses Singer. “Stanno creando questo falso accordo in cui loro possono farlo, a meno che tu non faccia opt-out. E se non l’hai fatto, è colpa tua”.
Conseguenze: il ponte è bruciato?
Secondo la pubblicazione, sono in corso colloqui “che coinvolgono personale legale” e “si sta valutando un’azione legale”. D’altronde, non sarebbe la prima volta: grandi studios hanno già avviato azioni legali contro l’IA di generazione di immagini Midjourney, e la società di IA Anthropic ha accettato un accordo da 1,5 miliardi di dollari dopo essere stata sorpresa ad addestrare i suoi modelli su copie piratate di libri protetti da copyright.
Questa situazione rischia di trasformare OpenAI da potenziale alleato a nemico numero uno per i detentori di diritti, minando la capacità dell’industria AI di stringere partnership future con gli studios.
La sintesi perfetta l’ha fatta il partner di WME, ricordando cosa ha detto allo staff di OpenAI: “Come potete venire dall’industria aspettandovi una partnership? Avete letteralmente dato fuoco al ponte”.