In het eerste deel van dit blogtweeluik zagen we dat online platforms onder de oude E-commerce-systematiek vooral als neutrale ‘doorgeefluiken’ werden gezien. Wie slechts een neutraal hostingplatform was, kon in principe niet aansprakelijk worden gehouden. Dat beeld is inmiddels ingrijpend veranderd. Dankzij algoritmes, gepersonaliseerde feeds en rankingmechanismen bepalen platforms welke video viraal gaat, welke producten bovenaan staan en welke content gebruikers te zien krijgen. Dat maakt platforms tot actieve schakels in de verspreiding van inbreukmakende content – tot ergernis van de rechthebbenden van de beschermde werken.
Die ontwikkeling heeft zijn weerslag gekregen in het recht. Zoals we in deel 1 al uiteen hebben gezet, bepaalt artikel 17 van de Copyright in the Digital Single Market-richtlijn (C-DSM) dat bepaalde platforms zelf als inbreukmaker kunnen worden aangemerkt. Zij moeten daarom kunnen aantonen dat zij ‘best efforts’ leveren: actief proberen licenties te sluiten, bekende inbreukcontent voorkomen en herhaalde uploads tegenhouden. De Digital Services Act (DSA) stapelt daar extra taken bovenop en verplicht alle platforms om illegale inhoud, waaronder auteursrechtinbreuken, effectief te handhaven. Platforms kunnen nog terugvallen op de klassieke aansprakelijkheidsvrijstellingen (safe harbour), maar alleen als zij aan strenge voorwaarden voldoen.
In dit tweede deel verleggen we de focus naar de praktijk. Want hoewel de Europese wetgever evenwicht nastreeft tussen ondernemersvrijheid en verantwoordelijkheid, ervaren platforms dat die balans in werkelijkheid lastig te vinden is. Wie risico’s niet zichtbaar beheerst, riskeert reputatieschade, toezichtmaatregelen of juridische claims. Het verbod op algemene monitoring blijft bestaan, maar de ruimte om níet in te grijpen wordt kleiner. Wat betekent dat voor organisaties die online diensten aanbieden? Dat licht ik toe in de volgende paragrafen.
Zoals reeds aan bod is gekomen in deel 1, behoudt de DSA het klassieke ‘safe harbour’-regime. Voor hostingplatforms betekent dit dat zij in principe niet aansprakelijk zijn voor wat gebruikers uploaden, zolang zij geen kennis hebben van illegale content én na kennisname doeltreffend handelen. Het gaat hierbij om notice-and-actionhandelingen: snel reageren op meldingen, de gemelde inhoud verwijderen of blokkeren en, waar nodig, herhaling voorkomen. Om te voorkomen dat platforms terughoudend worden in hun moderatie, introduceert de DSA een belangrijke nuance: de zogeheten Good Samaritan-bepaling in artikel 7.
Die bepaling zorgt ervoor dat een platform zijn aansprakelijkheidsbescherming niet automatisch verliest wanneer het vrijwillig maatregelen neemt om illegale of inbreukmakende content op te sporen of te verwijderen, mits dit te goeder trouw en zorgvuldig gebeurt. De boodschap van de Europese wetgever is helder: platforms moeten zich vrij voelen om misbruik actief tegen te gaan, zonder angst dat extra inspanningen juist tegen hen worden gebruikt.
Toch blijkt de praktijk weerbarstig. Intensieve moderatie, zoals het gebruik van automatische detectiefilters, kan worden geïnterpreteerd als “kennis” van inbreukmakende content. Daarmee ontstaat een paradox: hoe actiever een platform controleert, hoe groter het risico dat het zijn safe harbour verliest en alsnog aansprakelijk wordt voor wat het níet verwijdert. Zo kan een platform dat uit zorgvuldigheid handelt uiteindelijk meer risico lopen dan een platform dat afwacht.
Om te voldoen aan DSA en C-DSM grijpen platforms steeds vaker naar slimme detectietools. Technieken als hash-matching, fingerprinting en AI-filters maken het mogelijk om miljoenen uploads razendsnel te scannen en te vergelijken met referentiebestanden van rechthebbenden. Voor platforms waar dagelijks enorme hoeveelheden video’s, muziek of afbeeldingen binnenstromen, zijn dit inmiddels onmisbare tools om te laten zien dat zij “best efforts” leveren om auteursrechtinbreuken te voorkomen.
Diezelfde technologie kent echter ook duidelijke valkuilen. Detectiesystemen zijn nooit feilloos: ze missen soms evidente inbreuken (onderfilteren) of blokkeren legale content zoals parodie, kritiek of citaat (overfilteren). Dat kan leiden tot klachten, reputatieschade en spanningen met betrekking tot de vrijheid van meningsuiting. Bovendien kan de inzet van automatische detectiesystemen de safe harbour onder de DSA sneller in gevaar brengen. Hoe geavanceerder en actiever een detectiesysteem is, hoe groter de kans dat wordt geconcludeerd dat het platform kennis had van inbreukmakende content.
De afhankelijkheid van deze technologie brengt niet alleen juridische, maar ook aanzienlijke operationele risico’s met zich mee. Platforms hebben meer gespecialiseerde kennis, beoordelingscapaciteit en middelen nodig om moderatie zorgvuldig uit te voeren. De opkomst van generatieve AI vergroot die complexiteit verder, bijvoorbeeld wanneer AI-werken sterk lijken op bestaande creaties. Dat onderwerp verdient een eigen bespreking; in dit blog gaan we er daarom verder niet op in. Alle extra moderatielasten werken uiteindelijk door in de bedrijfsvoering, zoals in de volgende paragraaf blijkt.
De juridische en technologische puzzel is al pittig, terwijl de economische kosten die uitdaging verder vergroten. Het ontwikkelen, implementeren en onderhouden van detectiesystemen brengt immers aanzienlijke kosten met zich mee. Daarnaast vergen zowel de DSA als de C-DSM structurele investeringen in personeel, technische infrastructuur en complianceprocessen. Grote spelers kunnen die lasten meestal dragen, maar voor kleinere platforms of start-ups kan dit de continuïteit van de onderneming direct onder druk zetten.
Daarmee raakt dit debat ook aan een fundamenteel recht: de vrijheid van ondernemerschap (artikel 16 EU-Handvest). Het Hof van Justitie benadrukte in SABAM v. Scarlet (2011) en Netlog (2012) al dat een algemeen filterplicht, waarbij al het dataverkeer preventief moet worden gescand, in strijd is met dit grondrecht.[1] Een dergelijke verplichting dwingt immers tot een ingewikkeld en kostbaar controlesysteem. Toch zien we anno 2025 dat veel platforms, uit angst voor claims of negatieve publiciteit, vrijwillig verregaande controlemechanismen inzetten.
Het gevolg? Een vorm van “indirecte nalevingsdruk”. Formeel is er geen generieke filterplicht, maar de juridische risico’s, reputatieschade en kosten maken dat platforms zich verplicht voelen om toch te filteren. Voor sommige platforms raakt dit zelfs aan hun bedrijfsmodel, met name wanneer lage moderatie-lasten of maximale vrijheid voor gebruikers juist deel uitmaakten van hun propositie. Voor anderen uit de druk zich vooral in extra financiële en operationele belasting. Het ligt, gelet op Scarlet en Netlog, voor de hand dat een dergelijke situatie ook onder de DSA tegen de vrijheid van ondernemerschap zou moeten worden afgewogen.
Voor Nederlandse platforms betekent dit veranderende landschap vooral dat zorgvuldigheid, transparantie en documentatie onmisbaar zijn geworden. Daarbij zijn er enkele concrete lessen te trekken:
Bepaal om te beginnen of jouw dienst kwalificeert als een platform onder artikel 17 C-DSM en/of de DSA. Die kwalificatie bepaalt namelijk welke verplichtingen je hebt en hoe groot jouw aansprakelijkheidsrisico’s zijn.
Richt een goed toegankelijk meldpunt in, zorg voor duidelijke notice-and-takedownprocedures, communiceer helder met gebruikers en organiseer een serieuze klachtenafhandeling. Verwerk deze processen vervolgens consequent in je algemene voorwaarden. Hoe je dit het meest effectief aanpakt, lees je in dit blog.
Automatiseer waar mogelijk, maar voorkom blind vertrouwen op filters. Documenteer technische keuzes en zorg dat legale content, zoals parodie of citaat, niet onterecht wordt verwijderd. Bied content creators bovendien een laagdrempelige bezwaarprocedure en zorg dat dit bezwaar altijd door een mens wordt beoordeeld.
Overmatig toezicht kan juridisch tegen je werken. Kies voor gerichte, specifieke maatregelen die passen bij de aard en risico’s van het platform.
Vastgelegde procedures, afwegingen en periodieke audits tonen aan dat je te goeder trouw handelt. Volg bovendien nieuwe rechtspraak en Europese guidance, omdat deze jouw aansprakelijkheidspositie direct kunnen beïnvloeden.
De oplossing ziet in de kern op proportionaliteit: beperk automatische detectie tot risicogebieden en combineer deze met menselijke beoordeling. Alleen met zorgvuldige afstemming tussen techniek, beleid en menselijke toetsing blijft handhaving effectief én juridisch houdbaar.
De boodschap van de Europese wetgever is helder: online platforms zijn niet langer neutrale hosts, maar dragen een actieve verantwoordelijkheid bij het voorkomen van auteursrechtinbreuken. Wie profiteert van gebruikerscontent, moet ook zorgen voor zorgvuldige handhaving.
De uitdaging ligt in het vinden van een balans bij het navigeren van de verplichtingen uit de DSA en C-DSM. Platforms moeten genoeg doen om misbruik te beperken, maar niet zó ver gaan dat zij hun safe harbour of ondernemingsvrijheid verliezen. Te weinig actie brengt risico’s mee, te veel actie soms ook.
Voor ondernemers betekent dit dat compliance geen momentopname is, maar een doorlopend proces. Transparantie, documentatie en aantoonbaar te goeder trouw handelen zijn daarbij essentieel.
Klinkt complex? Onze adviseurs ondersteunen je graag bij het ontwikkelen van een passende en werkbare aanpak. Neem vrijblijvend contact met ons op!
[1] HvJ EU 24 november 2011, ECLI:EU:C:2011:771, punt 48–53 (SABAM/Scarlet); HvJ EU 16 februari 2012, ECLI:EU:C:2012:85, punt 44–52 (SABAM/Netlog).
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.