OpenAI en Sora 2's gebruik van anime‑IP's 'kan Japanse contentcultuur en ecosysteem vernietigen', waarschuwt grootste omroepvereniging
In dit artikel:
De Japan Commercial Broadcasters’ Association (JCBA), een koepel van 207 Japanse omroepen waaronder de grote zenders, publiceerde op 26 november een verklaring waarin ze ernstige bezwaren uit tegen OpenAI’s Sora 2 en vergelijkbare generatieve AI-videomodellen. De organisatie stelt dat dergelijke systemen videocontent produceren die identiek of sterk lijkt op anime en ander auteursrechtelijk beschermd materiaal van haar leden, en dat die resultaten naar alle waarschijnlijkheid voortkomen uit training op zonder toestemming gebruikte Japanse content.
De JCBA waarschuwt dat het ongevraagd gebruiken van beschermde werken tijdens het trainen van AI niet alleen auteursrechten schendt, maar ook de mogelijkheid creëert dat derden vergelijkbare materiaal commercieel exploiteren. Het biedt niet afdoende soelaas dat sommige bedrijven een retroactieve opt-out aanbieden voor het gebruik van content, omdat de vermeende inbreuk volgens de omroepvereniging al heeft plaatsgevonden. De organisatie benadrukt de economische en persoonlijke schade voor makers — waaronder auteurs, scenarioschrijvers, performers en producenten — en het risico op reputatieschade van merken en publieke figuren door gemanipuleerde video’s.
Naast de directe schade aan de creatieve sector ziet de JCBA ook maatschappelijke gevaren: overtuigende deepfakes kunnen nep-rampenbeelden of fictieve nieuwsuitzendingen met echte nieuwslezers tonen, politici imiteren en haatdragende content verspreiden. Dergelijke content kan publieke angst aanwakkeren, het vertrouwen in legitieme nieuwsvoorziening ondermijnen en misbruik door criminelen, bijvoorbeeld bij investeringsfraude, vergemakkelijken. De omroepen waarschuwen dat naarmate AI verbetert, het publiek het onderscheid tussen officieel materiaal en door AI gegenereerde content mogelijk niet meer kan maken, wat het hele content-ecosysteem bedreigt.
De JCBA vraagt generatieve AI-ontwikkelaars dringend te stoppen met trainen op auteursrechtelijk beschermde content zonder toestemming, technische maatregelen te implementeren die het genereren van op bestaande werken lijkende content voorkomen en actief inbreukmakende AI-video’s van platforms te verwijderen — zeker op sites die zij zelf beheren. Ze roepen OpenAI en andere bedrijven op serieus te reageren op klachten van rechthebbenden.
Het probleem overstijgt Japan: recent verschenen virale leaks en AI-deepfakes wereldwijd, van vermeende gameplayclips tot gemanipuleerde video’s met publieke figuren zoals Brian Cox en Keanu Reeves. Grote entertainmentbedrijven als Disney en Universal hebben juridische stappen ingezet tegen AI-diensten, en ook Nintendo en The Pokémon Company hebben publiekelijk opgetreden tegen ongeautoriseerd gebruik van hun IP. Juristen waarschuwen dat AI-bedrijven juridische risico’s lopen wanneer ze beschermd materiaal gebruiken voor training en distributie.