Platformaansprakelijkheid voor Auteursrechtinbreuken: wat moet je weten?

Online platformen moeten tegenwoordig veel meer doen dan alleen gebruikers een plek bieden om content te delen. Wie een platform exploiteert waarop video’s, beelden, muziek of teksten worden geüpload, krijgt bijna automatisch te maken met auteursrecht. De Europese wetgever heeft de afgelopen jaren het speelveld ingrijpend veranderd. Enerzijds is er het auteursrechtelijke kader uit de Copyright in the Digital Single Market-richtlijn (C-DSM Richtlijn, hierna: C-DSM), met artikel 17 als ommekeer: sommige platformen zijn niet langer alleen ‘host’, maar worden zelf verantwoordelijk voor auteursrechtinbreuken door gebruikers. Anderzijds is er de Digital Services Act (hierna: DSA), die voor alle online tussenpersonen striktere regels geeft over hoe zij met illegale content moeten omgaan.

In dit tweeluik leggen we uit wat dit nieuwe landschap betekent voor organisaties die online platforms beheren. In dit eerste deel zoomen we in op de basis: wat eisen C-DSM en DSA precies, hoe lopen ze samen, en wanneer ben je als platform aansprakelijk voor auteursrechtinbreuken? In deel 2 verschuiven we de blik naar de praktijk: hoe verandert de rol van platforms door maatschappelijke druk, technologie en handhaving, en waarom lijkt vrijwillige controle steeds meer op een feitelijke verplichting?

Deel 1: Auteursrecht op online platformen: wat regelen de C-DSM-richtlijn en de Digital Services Act?

Online platformen zijn dé plek waar creatieve content wordt gedeeld. Denk aan video’s, muziek, afbeeldingen, podcasts, livestreams en teksten. Dat is geweldig voor bereik en innovatie, maar het schuurt ook met het auteursrecht. Gebruikers uploaden namelijk niet altijd eigen werk. Soms gaat het om een (deel van een) film, een liedje op de achtergrond, een foto van Google of een knipsel uit een artikel. Voor platformbeheerders rijst dan de vraag: wie is aansprakelijk als er auteursrecht wordt geschonden: de gebruiker, het platform, of allebei?

De Europese Unie heeft de afgelopen jaren twee belangrijke regels gemaakt die hierop ingrijpen: de C-DSM en de DSA. Deze regels lopen deels over elkaar heen. In dit blog leggen we in gewone taal uit wat elke regeling doet en hoe ze samenkomen bij auteursrechtinbreuken op platformen.

Waarom nieuwe regels?

Het oude systeem was simpel: de gebruiker die iets illegaals uploadt, pleegt de inbreuk. Het platform was vooral een doorgeefluik. Pas als het platform een duidelijke melding kreeg (“notice”), moest het ingrijpen (“takedown”). Dat werkte redelijk bij incidentele inbreuken, maar niet bij de schaal van moderne platforms. Rechthebbenden, zoals filmstudio’s, uitgevers en fotografen, zagen hun werk massaal online verschijnen zonder toestemming. Rechtenhouders kunnen immers in de praktijk vaak weinig beginnen tegen individuele inbreukmakers. De uploader is regelmatig anoniem, moeilijk te traceren of bevindt zich in het buitenland. Bovendien zijn juridische procedures tegen particulieren duur, tijdrovend en leveren ze meestal weinig op. Daardoor verschoof de aandacht van rechthebbenden steeds meer naar de platformen die de inbreuk faciliteren

De EU koos daarom voor een dubbele aanpak. De C-DSM verschuift voor een specifieke groep platformen de verantwoordelijkheid duidelijk naar het platform. De DSA moderniseert daarnaast de algemene regels over hoe platforms moeten omgaan met illegale content, inclusief auteursrechtinbreuk.

Welke platforms vallen onder de werking van de C-DSM-richtlijn?

De C-DSM heeft één artikel dat voor platformen allesbepalend is: artikel 17. Dit artikel geldt niet voor elk platform. Het richt zich op zogenaamde online content-sharing service providers. Denk aan grote social media- en videoplatformen. Dat zijn platforms:

  • waar gebruikers grote hoeveelheden content kunnen uploaden,
  • die die content vervolgens aan het publiek aanbieden,
  • en die daar meestal ook geld aan verdienen (bijvoorbeeld via advertenties of abonnementen).

Niet-commerciële encyclopedieën, clouddiensten voor privé-opslag of marktplaatsen vallen hier doorgaans niet onder.

Waarom is dit onderscheid zo belangrijk? Omdat artikel 17 voor deze platforms een ander aansprakelijkheidsmodel introduceert dan het klassieke “notice-and-takedown”.

Artikel 17 C-DSM in één zin: het platform is zelf verantwoordelijk

De kern van artikel 17 is dat een content-sharing platform niet langer puur een neutrale host is. Juridisch wordt het platform geacht zélf de content “openbaar te maken” zodra het gebruikersuploads toont. En wie openbaar maakt, moet daarvoor toestemming hebben.

Het uitgangspunt is simpel maar verstrekkend: platformen moeten vooraf toestemming krijgen van rechthebbenden voor het tonen van hun werk. In de praktijk betekent dit vaak dat er afspraken worden gemaakt met collectieve beheersorganisaties of individuele rechthebbenden.

Wanneer gebruikers zelf al toestemming hebben gekregen, bijvoorbeeld omdat zij auteursrechten bezitten of een licentie hebben, hoeft het platform geen extra toestemming te vragen. Maar in de meeste gevallen is die toestemming niet aanwezig, waardoor het platform verantwoordelijk is.

Dat is een grote verschuiving. Het platform kan zich niet meer standaard verdedigen met “wij wisten het niet”. Het moet vooraf met rechthebbenden regelen dat hun werk op het platform mag verschijnen, bijvoorbeeld via licenties.

Maar platforms hebben wel een uitweg: “best efforts”

De EU zag ook dat het onmogelijk is om voor elk los filmpje, liedje of plaatje vooraf een licentie te sluiten. Daarom biedt artikel 17 een vrijstellingsroute. Een platform is niet aansprakelijk als het kan laten zien dat het alles heeft gedaan wat redelijkerwijs verwacht mag worden, oftewel “best efforts”. In de praktijk komt dat neer op drie dingen:

  1. Serieuze pogingen om licenties te sluiten.
    Het platform moet actief proberen om toestemming te regelen met rechthebbenden of collectieve organisaties.
  2. Bekende inbreukcontent zo veel mogelijk tegenhouden.
    Als rechthebbenden informatie geven over specifiek werk dat vaak illegaal wordt geüpload, moet het platform proberen die content te herkennen en te weren. Dat kan technisch, bijvoorbeeld met herkenningssoftware.
  3. Snel verwijderen na een melding, en herhaling voorkomen.
    Krijgt het platform een goede melding, dan moet het prompt verwijderen én voorkomen dat exact dezelfde content meteen weer terugkomt.

Het is dus geen simpele check-the-box-plicht. Platforms moeten aantoonbaar en structureel werk maken van preventie en opvolging.

Wat betekent dit voor deze filters?

Veel platforms zullen een vorm van automatische contentherkenning gebruiken. Dat is niet verplicht als techniek, maar wél vaak de enige realistische manier om aan die “best efforts” te voldoen. Tegelijkertijd waarschuwde de EU voor te strenge filters. Er moet ruimte blijven voor legaal gebruik, zoals parodie, citaat of review. Daarom moet een platform ook een goede klachtenroute hebben als content onterecht wordt geblokkeerd.

De Digital Services Act: algemene spelregels voor illegale content

Dan is er de DSA. Die geldt voor alle online tussenpersonen, dus ook voor platforms die niet onder artikel 17 vallen. De DSA doet twee dingen tegelijk.

Aan de ene kant houdt de DSA de klassieke aansprakelijkheidsvrijwaringen in stand. Voor hostingplatforms geldt nog steeds: je bent niet automatisch aansprakelijk voor wat je gebruikers plaatsen, zolang je het niet weet en je na kennisname snel ingrijpt.

Aan de andere kant legt de DSA uitgebreidere zorgvuldigheids- en procesplichten op. Platforms moeten onder meer:

  • een goed toegankelijk meldpunt hebben voor illegale content;
  • meldingen zorgvuldig en op tijd behandelen;
  • gebruikers uitleg geven als content wordt verwijderd;
  • en een klachtenprocedure bieden.

Voor zeer grote platforms komen daar extra eisen bij, zoals het analyseren van risico’s en het laten controleren van hun systemen.

Belangrijk is ook dat de DSA zegt: er is geen algemene verplichting om alles vooraf te controleren. Platforms hoeven dus niet standaard elke upload preventief te monitoren. Ze mogen dat wel doen, maar het is geen generieke plicht onder de DSA.

Hoe lopen C-DSM en DSA samen?

Beide regels gaan over auteursrechtinbreuken, maar op een andere manier.

Artikel 17 C-DSM is de speciale auteursrechtregel voor content-sharing platforms.
Het bepaalt wie aansprakelijk is en wanneer je als platform onder die aansprakelijkheid uit kunt komen.

De DSA is de algemene, horizontale regel voor omgaan met illegale content.
Die bepaalt vooral hoe je meldingen, verwijderingen en klachten moet organiseren.

De DSA zegt expliciet dat zij het auteursrecht niet opzijzet. Met andere woorden: waar artikel 17 geldt, blijft artikel 17 leidend. De DSA kan dan niet alsnog zeggen “je bent host, dus pas aansprakelijk na melding”. Artikel 17 gaat vóór als speciale regel.

Maar dat betekent niet dat de DSA irrelevant is voor artikel-17-platformen. Integendeel: als je onder artikel 17 valt, ben je bijna altijd óók een platform onder de DSA. Daardoor gelden de DSA-procesplichten óók voor jou. Je moet dus én aan artikel 17 voldoen, én je notice-and-action en klachtenprocedures zo inrichten dat ze DSA-proof zijn.

Een praktische manier om het te onthouden is deze: artikel 17 zegt “wat je moet doen om niet aansprakelijk te zijn”, de DSA zegt “hoe je dat netjes en transparant moet doen”.

Wat betekent dit in de praktijk voor platformaanbieders?

Voor platformen die onder artikel 17 vallen, is het tijdperk voorbij waarin je alleen een takedown-formulier nodig had. Je moet nu structureel laten zien dat je actief licenties zoekt, inbreuken probeert te voorkomen en meldingen snel opvolgt. Daarbij hoort een technische én organisatorische investering.

Tegelijkertijd moet je processen steeds beter uitlegbaar maken. Krijgt een gebruiker een upload-blokkade? Dan moet die begrijpen waarom. Maakt die gebruiker bezwaar? Dan moet dat bezwaar serieus behandeld worden. Brengt een rechthebbende een melding in? Dan moet je duidelijk laten zien wat je ermee hebt gedaan. Dat is niet alleen een juridische plicht, maar ook reputatie- en klantvertrouwen: platforms die eerlijk en transparant modereren, krijgen minder escalaties en conflicten.

Voor platforms die níet onder artikel 17 vallen, blijft de DSA het belangrijkste kader. Daar geldt nog steeds het “na melding handelen”-model, maar wel met strengere procesvereisten dan vroeger. Een rommelig meldpunt of slecht onderbouwde verwijderingen leveren sneller risico's op.

De combinatie van C-DSM en DSA zorgt dus voor een gelaagd systeem. Artikel 17 legt voor bepaalde content-sharing platforms de inhoudelijke verantwoordelijkheid neer: jij bent in beginsel aansprakelijk als er zonder toestemming werk wordt geüpload, tenzij jij aantoonbaar alles doet wat redelijkerwijs verwacht mag worden om dat te voorkomen. De DSA vult dat aan met duidelijke spelregels over meldingen, verwijderingen en klachten, en borgt dat handhaving transparant en proportioneel gebeurt.

Maar daarmee is het verhaal nog niet af. Wat op papier een inspanningsplicht of een vrijwillige keuze lijkt, wordt in de praktijk vaak een veel zwaardere opgave. Platforms voelen druk van rechthebbenden, gebruikers, toezichthouders, adverteerders en hun eigen technologie. Daardoor gaan zij regelmatig verder dan strikt wettelijk verplicht is. In deel 2 kijken we naar die werkelijkheid: hoe platforms opschuiven van passieve tussenpersoon naar actieve poortwachter, welke paradoxen dat met zich meebrengt, en welke lessen dat oplevert voor ondernemers.

Ben je benieuwd naar meer blogs over intellectueel eigendom? Klik dan hieronder. 

Blogs over intellectueel eigendom

Terug naar overzicht