Il modello di business dell’IA generativa è, in fondo, piuttosto semplice: prendi un’enorme quantità di lavoro creativo fatto da esseri umani, dallo in pasto a un modello senza chiedere il permesso né pagare, e poi vendi un servizio che replica (o scimmiotta) quel lavoro. È un meccanismo che, come dico sempre, serve a concentrare ricchezza verso l’alto, sfruttando competenze e creatività altrui. Ma ora, qualcuno inizia a dire ‘basta’ sul serio.
In questo articolo
Dopo che Sora 2, il generatore video di OpenAI, è stato usato per sfornare senza sosta repliche e parodie di personaggi iconici dell’animazione e dei videogiochi giapponesi, i creatori di quei personaggi hanno deciso di passare al contrattacco.
Il 28 ottobre, un gruppo che rappresenta giganti come Studio Ghibli, Bandai Namco, Square Enix e altri importanti editori giapponesi ha inviato una richiesta formale a OpenAI. La richiesta è semplice e diretta: smettetela di usare i nostri contenuti protetti da copyright per addestrare i vostri strumenti di intelligenza artificiale.
Il saccheggio dell’arte giapponese
L’azione, riportata da Automaton, è stata coordinata dalla Content Overseas Distribution Association (CODA) e segna un momento importante nella resistenza contro il modello di business estrattivo dell’industria AI.
Il lancio di Sora 2, infatti, si è rivelato l’ennesimo strumento generativo con un atteggiamento, diciamo, “disinvolto” verso la legge sul copyright. Il punto non era nemmeno creare arte, ma alimentare un flusso infinito di “slop” (spazzatura digitale) in formato video verticale stile TikTok.
Fin da subito, la piattaforma è stata inondata di parodie di personaggi riconoscibili, in particolare quelli giapponesi. Abbiamo visto video di Pokémon ovunque, inclusa una clip inquietante di un deepfake di Sam Altman (CEO di OpenAI) che griglia un Pikachu morto. In un altro video, lo stesso Altman-fake guardava uno stormo di Pokémon per poi sogghignare alla telecamera dicendo: “Spero che Nintendo non ci faccia causa”.
Nel suo comunicato ufficiale, CODA ha dichiarato di aver stabilito che Sora 2 è in grado di generare output che “assomigliano molto a contenuti o immagini giapponesi” per un motivo ovvio: quei contenuti sono stati usati come dati di addestramento. In parole povere: se il risultato assomiglia al lavoro dello Studio Ghibli, è perché l’IA è stata addestrata *sul lavoro* dello Studio Ghibli.
Per questo, CODA “ritiene che l’atto di replica durante il processo di machine learning possa costituire una violazione del copyright”.
La risposta (quasi beffarda) di Sam Altman
Il vero Sam Altman, da parte sua, ha riconosciuto questa “affinità” dei suoi utenti nel replicare l’arte giapponese, ma senza menzionare minimamente l’indignazione dei creatori.
“In particolare, vorremmo riconoscere la straordinaria produzione creativa del Giappone”, ha scritto in un post sul blog dopo il lancio di Sora 2. “Siamo colpiti da quanto sia profonda la connessione tra gli utenti e i contenuti giapponesi!”
Questa “connessione profonda” viene da lontano. Quando OpenAI ha rilasciato le nuove funzionalità di generazione di immagini per ChatGPT, ha scatenato un trend virale di “Ghiblificazione” dei propri selfie. Lo stesso Altman ha consacrato la tendenza creando il proprio ritratto in stile Ghibli, che è ancora oggi la sua immagine del profilo sui social media.
Non è un omaggio, è quasi una presa in giro. È come se qualcuno ti svaligiasse la casa e poi ti facesse i complimenti per il tuo buon gusto nell’arredamento, mentre indossa i tuoi vestiti.
Il vero modello di business: “Move fast and steal things”
Non sorprende che il Giappone si senta un po’ preso di mira. Già a metà ottobre, il governo giapponese aveva chiesto formalmente a OpenAI di smetterla di saccheggiare i suoi amati personaggi. Minoru Kiuchi, ministro di stato per la strategia IP e AI, ha definito manga e anime “tesori insostituibili”.
L’approccio di OpenAI è il classico “move fast and break things” (muoviti velocemente e rompi le cose), che in questo contesto somiglia più a “move fast and steal things” (muoviti velocemente e ruba le cose).
Questo è il nucleo del problema, quello che evidenzio sempre: il modello di business dell’IA generativa si basa su una **sistematica svalutazione del lavoro creativo umano**. Non c’è innovazione senza i dati, e i dati, in questo caso, sono decenni di lavoro, cultura e proprietà intellettuale di artisti e studi, usati senza permesso per costruire un prodotto che, alla fine, farà concorrenza sleale a quegli stessi artisti.
La legge non basta: la differenza tra “opt-out” e “opt-in”
Inizialmente, OpenAI aveva segnalato che i titolari dei diritti avrebbero dovuto fare un “opt-out” manuale per evitare che le loro opere venissero clonate da Sora. Dopo le proteste, hanno fatto marcia indietro, promettendo un “opt-out” di default.
Una concessione inutile, per due motivi:
- Lo hanno fatto solo dopo aver sfruttato la viralità dei personaggi protetti da copyright per far schizzare l’app in cima all’App Store.
- Come fa notare CODA, questa misura è comunque una foglia di fico. Il problema non è l’uso futuro, è il furto già avvenuto.
Nel loro comunicato, gli editori giapponesi sono chiarissimi: “Secondo il sistema di copyright giapponese, è generalmente richiesta un’autorizzazione preventiva per l’uso di opere protette da copyright, e non esiste un sistema che permetta di evitare la responsabilità per la violazione tramite obiezioni successive”.
In parole povere: non ci interessa il vostro “opt-out” (poterci cancellare dopo che ci avete già derubato); la legge richiede un “opt-in” (chiederci il permesso *prima*). Il danno — l’addestramento del modello — è già stato fatto.
Le richieste di CODA sono semplici: che i loro contenuti non vengano usati per l’addestramento senza permesso, e che OpenAI “risponda sinceramente” alle richieste di violazione del copyright. La battaglia dello Studio Ghibli non è solo una questione legale; è una battaglia per il valore del lavoro creativo contro un modello che vede la cultura solo come dati grezzi da cui estrarre profitto.




