Home / Nieuws & Blogs / Juridische wapens tegen voice deepfakes

Juridische wapens tegen voice deepfakes

| 22 februari 2022

Een nooit gehouden klimaattoespraak van premier Mark Rutte of Jay-Z die een gedicht van Shakespeare rapt. Het zijn allebei recente voorbeelden van zogeheten ‘deepfakes’: kunstmatige intelligentie die naadloze synchronisatie van beeld en geluid mogelijk maakt. Hoewel bij deepfakes meestal wordt gedacht aan nepvideo’s, is de technologie ook toepasbaar op de menselijke stem. Tegenwoordig is slechts een kort spraakfragment nodig om iemands stem na te bootsen. Het resultaat wordt een ‘voice deepfake’ genoemd. Wat kan degene wiens stem ongevraagd in een voice deepfake te horen is, daar juridisch tegen doen?

Wat is een voice deepfake?

De term deepfake combineert de Engelse woorden deep en fake. Deep verwijst naar de AI deeplearning-netwerken, fake staat voor nep. In een voice deepfake wordt iemands unieke stem, inclusief spraakpatronen, accent en verbuigingen, gekloond met behulp van AI. Dit gebeurt door een algoritme te trainen met voorbeelden van spraak in combinatie met een fragment van de te klonen stem. Met AI wordt een stemmodel gecreëerd waarmee iedere ingevoerde tekst kan worden uitgesproken met de gekloonde stem.

Je gelooft je eigen oren niet

Het gevaar van de steeds beter wordende technologie is dat de luisteraar van het deepfake fragment in de toekomst niet meer het onderscheid kan maken of de stem die hij hoort echt of nep is. Hierdoor wordt het eenvoudig om een bedrieglijke associatie met een bepaald persoon te maken. Dit kan enerzijds zorgen voor humoristische, onschuldige content. Zo is de stem van Jay-Z te horen in een voice deepfake waarin de Amerikaanse rapper een gedicht van Shakespeare rapt.  Anderzijds kan de technologie schadelijk zijn. Denk bijvoorbeeld aan de mogelijkheid een nep voicemailbericht in te spreken. Op die manier kunnen criminelen stemmen klonen en daarmee fraude plegen.

Hoe zit dit juridisch?

Er is geen specifiek wetsartikel dat voice deepfakes verbiedt. Daarom moet worden gekeken naar de inhoud en de strekking van zo’n fragment. Het is duidelijk dat je met een voice deepfake iemand iets kan laten zeggen wat diegene nooit gezegd heeft. Dit kan leiden tot bijvoorbeeld identiteitsfraude, reputatieschade of chantage. De jurist zal daarom al snel bij het strafrecht uitkomen. Het Nederlandse strafrecht lijkt over het algemeen namelijk goed uitgerust te zijn om deepfakes aan te pakken die zó kwalijk zijn, dat ze als strafwaardig moeten worden beschouwd.

Zodra er echter persoonlijke of commerciële belangen spelen, moeten er ook andere mogelijkheden voor verzet worden verkend. In dit kader is ten eerste de Algemene verordening gegevensbescherming (AVG) van belang. De stem is namelijk een persoonsgegeven in de zin van de AVG. Sterker nog, de stem kan worden aangemerkt als een biometrisch persoonsgegeven. Het is verboden dit soort gegevens te verwerken voor niet persoonlijke of huishoudelijke doeleinden, tenzij er sprake is van een wettelijke uitzondering op het verwerken van bijzondere persoonsgegevens én één van de zes grondslagen voor het verwerken van persoonsgegevens. Wanneer iemands stem dus zonder dergelijke uitzondering en/of deugdelijke grondslag in een voice deepfake wordt gepubliceerd, is de maker in overtreding van de AVG.

Ten tweede zou bescherming van iemands unieke stemgeluid onder het portretrecht kunnen worden overwogen. Het is echter nog maar de vraag of de stem kan worden aangemerkt als portret in de zin van art. 21 Auteurswet. Tot op heden is de vraag of het stemgeluid kan worden beschermd onder het portretrecht in de jurisprudentie immers ontkennend beantwoord. Gelet op het ruime portretbegrip zou, wanneer uit het stemgeluid van een persoon zijn identiteit blijkt, de mogelijkheid moeten bestaan een bepaalde mate van portretrechtelijke bescherming van de stem te genieten. Met name omdat er sprake kan zijn van redelijk belang bij publicatie van de stem.

Bereid je voor op voice deepfakes

Kortom, er zijn potentiële moeilijkheden geïdentificeerd, maar een bevredigende oplossing ontbreekt nog. Misschien komen we er wel uit met het bestaande strafrecht. Misschien zijn er situaties denkbaar waarin we nog geen juridisch wapen paraat hebben. Het is hoe dan ook tijd ons juridisch voor te bereiden op voice deepfakes.

Opleiding ICT-jurist business professional


Meer lezen over privacy? Lees verder: