Generatieve AI (hierna: “GenAI”) is in korte tijd uitgegroeid tot een vast onderdeel van creatieve processen. GenAI-modellen kunnen moeiteloos tekst, beeld en muziek produceren, soms zelfs in de vorm van (nagenoeg) letterlijke reproducties van bestaande auteursrechtelijk beschermde werken. Dit noemt men ‘memorisation’. Er is sprake van ‘memorisation’ als een GenAI-model in staat is om (fragmenten van) trainingsdata letterlijk te reproduceren. Het gaat daarbij dus niet om het nabootsen van een bepaalde stijl of het geven van een algemene samenvatting van een stuk, maar om het leveren van output waarin het werk daadwerkelijk één-op-één terug is te zien.
Dit zorgt voor een juridisch spanningsveld tussen het auteursrecht en GenAI. Voor organisaties die GenAI inzetten, is dit onderwerp bovendien direct relevant, omdat niet altijd voorspelbaar is of output (deels) terug kan vallen op auteursrechtelijk beschermde werken die in trainingsdata voorkomen. Steeds vaker richten geschillen zich namelijk niet alleen op de training van GenAI, maar ook op de vraag of de output zelf een auteursrechtinbreuk kan opleveren. In Nederland bestaat hieromtrent op het moment van schrijven nog geen uitsluitsel, maar in een aantal buitenlandse uitspraken hebben rechters zich hierover wél uitgelaten. De kernvraag is dan ook: kan memorisation ertoe leiden dat de gegenereerde output van het GenAI-model zodanig als inbreukmakend werk moet worden gezien, en wie is daarvoor aansprakelijk? In dit blog zal daarom stilgestaan worden bij deze uitspraken en de implicaties daarvan.
Allereerst is van belang om na te gaan wanneer in auteursrechtelijke zin überhaupt sprake is van een inbreuk. Op grond van de Auteurswet komen er twee exclusieve rechten toe aan de auteursrechthebbende: ‘openbaarmaking’ en ‘verveelvoudiging’ (ook wel: ‘reproductie’). Er is sprake van een openbaarmaking als een bestaand beschermd werk getoond wordt aan een publiek zonder toestemming van de auteursrechthebbende. Bij een verveelvoudiging gaat het zowel om kopieën van een bestaand werk als nabootsing in gewijzigde vorm, mits de beschermde trekken van het originele werk zijn overgenomen. Alleen de auteursrechthebbende mag deze handelingen verrichten ten aanzien van diens werk. Anderen mogen dit slechts met toestemming van de auteursrechthebbende.
Onder juristen bestaat geen consensus of er bij memorisation sprake is van een inbreuk. In zekere zin klinkt het logisch dat een vrijwel letterlijke output kan kwalificeren als (ongeoorloofde) verveelvoudiging, maar de complicerende factor is dat het GenAI-model output genereert op basis van statistische patronen en niet door het opslaan van een “kopie” in de klassieke zin. Als de output van een GenAI-model als een verveelvoudiging kwalificeert, dan zou het ter beschikking stellen van het GenAI-model aan het publiek gezien kunnen worden als een openbaarmaking. Daarnaast zou gesteld kunnen worden dat het verspreiden van het GenAI-model an sich al een openbaarmakingshandeling is, omdat het publiek daarmee toegang krijgt tot het auteursrechtelijk beschermde werk in kwestie.
De rechtbank München heeft op 11 november 2025 uitspraak gedaan over onder meer memorisation in een zaak tussen GEMA en OpenAI. GEMA, een vereniging voor muzikale uitvoerings- en reproductierechten die handelt namens artiesten (vergelijkbaar met het Nederlandse BUMA/STEMRA), had een zaak aangespannen tegen OpenAI omdat zij bij de training van ChatGPT gebruik hadden gemaakt van songteksten van bekende Duitse nummers. Daarbij voerden zij onder meer aan dat de songteksten nagenoeg woord-voor-woord konden worden gereproduceerd en derhalve opgeslagen zouden moeten zijn in de parameters van ChatGPT. OpenAI verweerde zich met het standpunt dat er geen trainingsdata wordt opgeslagen in het GenAI-model, maar dat het model slechts statistische correlaties toont die het model heeft gedestilleerd uit de volledige dataset. De vermeende inbreuk was volgens OpenAI daarmee een resultaat van de door de eindgebruiker ingevoerde prompts die buiten de invloedssfeer van OpenAI liggen.
De rechtbank deed vergelijkend onderzoek tussen de originele songteksten en de door ChatGPT met relatief eenvoudige prompts (zoals ‘Wat is het refrein van liedje A?’ of ‘Hoe luidt de tekst van liedje B?’ genereerde output. Deze output bleek nagenoeg identiek aan de songteksten, met sporadische hallucinaties van ondergeschikte waarde. De rechtbank stelde daarom dat de songteksten opgeslagen waren in de parameters van ChatGPT, waardoor sprake was van auteursrechtinbreuk. Hiervoor werd OpenAI en niet de eindgebruiker verantwoordelijk geacht. De rechtbank ging derhalve niet mee in het betoog van OpenAI. In Duitsland werd dus bepaald dat memorisation als een kopie van het werk kwalificeert en daarmee een inbreuk vormt.
Opvallend is de ruime strekking van het reproductiebegrip, nu ook numerieke opslag (zoals de parameters) een inbreuk op kan leveren als de tekst uiteindelijk reproduceerbaar is. Een verveelvoudiging hoeft dus niet een direct zichtbare kopie in ‘menselijk leesbare’ vorm te zijn, zolang de vastlegging de mogelijkheid biedt tot reconstructie van het werk. Deze benadering ondersteunt daarmee indirect ook het standpunt dat een GenAI-model in auteursrechtelijke zin een relevante ‘vastlegging’ kan bevatten, wanneer het beschermde werken (nagenoeg) letterlijk kan reproduceren.
De Britse rechter oordeelde echter anders in de zaak tussen Getty Images en Stability AI. Stability AI is de ontwikkelaar en exploitant van het GenAI-model Stable Diffusion, waarmee afbeeldingen gegenereerd kunnen worden door middel van prompts. Volgens stock photo-website Getty Images werd door het exploiteren van Stable Diffusion een auteursrechtinbreuk gemaakt, nu het GenAI-model als gevolg van de training met auteursrechtelijk beschermd materiaal zelf een ‘inbreukmakend werk’ was geworden.
De rechter erkende daarin dat memorisation hypothetisch gezien voor zou kunnen komen, maar Getty Images bleek niet in staat om hard te maken dat daarvan sprake was in onderhavig geval. Zonder dit bewijs concludeerde de Britse rechter dat er geen sprake was van een auteursrechtinbreuk. Deze uitspraak lijkt lijnrecht tegenover de door de Duitse rechter gewezen uitspraak in GEMA v. OpenAI, maar dat is niet per se het geval. Er was met name een gebrek aan bewijs door Getty Images. Indien net als in GEMA v. OpenAI een onderzoek had plaatsgevonden waarbij nagenoeg letterlijke reproducties waren gegenereerd, had deze zaak wellicht andersom uitgepakt. Het verschil in uitingsvorm is in die zin ook nog relevant, nu het aantonen van een inbreuk op tekstuele werken makkelijker te verifiëren is dan bij afbeeldingen, zeker als zich sporadisch hallucinaties voordoen.
In een eerdere bijdrage ging ik al in op de Anthropic-zaak, waarin werd besloten dat het trainen van het GenAI-model van Anthropic met rechtmatig verkregen auteursrechtelijk beschermde boeken ‘fair’ was. De Amerikaanse rechter overwoog daarin dat de auteursrechtelijk beschermde boeken gedurende de training een transformatieproces doormaken, waardoor het niet realistisch zou zijn dat de output een volledige of coherente reproductie van de boeken op zou kunnen leveren.
In deze zaak werd niet ingegaan op de vraag of memorisation an sich een inbreuk is, maar werd het begrip ‘memorisation’ gebruikt als gezichtspunt in de afweging of het gebruik van een beschermd werk toegestaan was. Als Anthropic in staat was gebleken om letterlijke kopieën van beschermde werken te creëren, zou deze afweging mogelijk in het nadeel van Anthropic beslecht zijn.
Ook in China is een interessante uitspraak gedaan door een internetrechtbank in Guangzhou (Kanton). In de op 10 februari 2025 gepubliceerde zaak stonden door GenAI-gegenereerde afbeeldingen die beschermd werken van de Japanse superheldenfranchise Ultraman nabootsten centraal. Het GenAI-platform wordt niet bij naam genoemd, maar bood gebruikers de mogelijkheid om sterk op beschermde werken van Ultraman lijkende afbeeldingen te genereren, publiceren en downloaden als ‘eigen content’. Het platform bood deze mogelijkheid nadrukkelijk aan, door de inbreukmakende afbeeldingen pontificaal op de homepage te positioneren onder “Recommended” en “IP Works”.
De rechtbank achtte het platform niet aansprakelijk voor directe auteursrechtinbreuken, maar stelde dat het platform wél aansprakelijk was op grond van medeplichtigheid omdat het platform commercieel profijt haalde uit de GenAI-dienst (1), het ging om zeer bekende beschermde werken van Ultraman (2), de output stabiel en herhaalbaar was (3) en er geen proactieve moderatie werd toegepast door het platform (4). Al met al kon het platform daarom niet aan aansprakelijkheid ontsnappen via een safe harbor-vrijwaring. In de Europese Unie bestaat onder de Digital Services Act een soortgelijke vorm van platformaansprakelijkheid bij wetenschap van inbreukmakende content. In tegenstelling tot GEMA v. OpenAI pleegde de aanbieder van het GenAI-model dus niet zelfstandig auteursrechtinbreuk, maar werd alsnog indirect aansprakelijkheid geacht.
Het afgelopen jaar zijn er diverse uitspraken gedaan waarin het memorisation-vraagstuk aan bod kwam. Met name de uitspraak in GEMA v. OpenAI is interessant, omdat deze afkomstig is van een rechter binnen de Europese Unie. Wel dient in acht te worden genomen dat de uitspraak is gewezen bij een Duitse lagere rechter en dat hoger beroep nog openstaat. Het auteursrecht is binnen de Europese Unie deels geharmoniseerd. Er bestaat een reële kans dat uiteindelijk prejudiciële vragen zullen worden gesteld aan het Hof van Justitie. Het is dus nog geen gegeven dat de uitspraak navolging krijgt in de Europese Unie.
Ook buiten de Europese Unie hebben rechters zich uitgelaten over het begrip ‘memorisation’, met uiteenlopende uitspraken als gevolg. In het Verenigd Koninkrijk werd overwogen dat memorisation een inbreuk was, maar sneuvelde het betoog vanwege bewijsrechtelijke perikelen. In de Verenigde Staten werd memorisation meegenomen als gezichtspunt in de ‘fair use’-afweging. In China werd een GenAI-platform indirect aansprakelijk geacht voor inbreukmakende afbeeldingen.
Al met al lijkt de rechtspraak langzaamaan de optie te verkennen dat memorisation een vorm van auteursrechtinbreuk is. In bepaalde gevallen kan dat bovendien vragen oproepen over het GenAI-model als zodanig, met name wanneer het structureel (nagenoeg) letterlijke reproducties mogelijk maakt. De kans op memorisation hangt daarbij niet alleen samen met de omvang van de trainingsdataset, maar vooral met hoe frequent het betrokken werk in de trainingsdata voorkomt. Een werk dat slechts incidenteel in de dataset voorkomt, zal minder snel kunnen worden gereproduceerd dan een werk dat zeer vaak in de trainingsdata voorkomt. Bij met grote hoeveelheden data getrainde GenAI-modellen bestaat daarom een reële kans op memorisation, tenzij het model ‘leert’ dat het niet is toegestaan om werken na te bootsen. Dit wordt alignment of guardrails genoemd. Dit brengt echter technische uitdagingen met zich mee. Daarnaast heeft de potentiële kwalificatie van memorisation als inbreuk ook gevolgen voor eindgebruikers en professionele afnemers die output gebruiken en publiceren. Het is daarom van belang om goed op de hoogte te blijven van de laatste ontwikkelingen.
Ontdek onze andere blogs over intellectueel eigendom en verdiep je verder in dit thema.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.