AI en verkiezingen: hoe beschermt de wet jouw stem?

Het is verkiezingstijd! Je verdiept je in alle verkiezingsprogramma's, volgt de debatten en maakt in het stemhokje een weloverwogen keuze, die je vastlegt met het rode potlood. Tenminste, dat is het ideaalbeeld. Maar is die keuze wel zo autonoom in een verkiezingstijd waarin informatiestromen gedomineerd worden door kunstmatige intelligentie (AI)? Vorig jaar liet BNR zien hoe deepfakes van Nederlandse politici door de filters van Twitter/X en Meta (Facebook en Instagram) kwamen, AI schrijft mee aan verkiezingsprogramma's en chatbots helpen stemmers bij het kiezen tussen partijen.

De invloed van AI op verkiezingen is een één-tweetje. Eerst is er generatieve AI, waarmee in een handomdraai politieke teksten, afbeeldingen en video's gemaakt kunnen worden. Vervolgens tonen de aanbevelingssystemen van sociale media precies die content waardoor kiezers geraakt worden.

Dit blog bespreekt hoe dit één-tweetje onze vrije keuze in het stemhokje kan beïnvloeden. En belangrijker: hoe wetgeving bijdraagt aan het bewaken van de autonomie van kiezers. Want met zorgvuldige wetgeving, en het naleven daarvan, kunnen de risico's beperkt worden en zou AI zelfs een positieve impact kunnen hebben op ons democratische proces.

Content maken met AI

We beginnen met generatieve AI. Deze jonge technologie maakt het eenvoudiger dan ooit om teksten, afbeeldingen en video's te manipuleren of volledig te genereren (synthetische content). Dit gaat verder dan de voorbeelden waarin duidelijk slechte bedoelingen te herkennen zijn, zoals illegale deepfakes van politici. Politieke partijen gebruiken generatieve AI inmiddels ook bij het schrijven van hun verkiezingsprogramma's. Kiezers gebruiken dezelfde AI vervolgens om die verkiezingsprogramma's te vergelijken. Dit lijkt heel nuttig, AI kan immers ontzettend goed teksten schrijven en samenvatten, maar brengt risico's op hallucinaties en feitelijke onjuistheden met zich mee.

De kracht van zulke technologieën zit in de mentale shortcuts (biases) die mensen de hele dag helpen om de wereld te begrijpen. Die shortcuts zijn harder nodig naarmate mensen steeds meer informatie voorgeschoteld krijgen. Een nepvideo of -afbeelding van een politicus heeft bijvoorbeeld een effect door de beschikbaarheidsbias: we kunnen ons beelden levendiger herinneren dan abstracte feiten, waardoor de beelden echter lijken. Zelfs als we weten dat ze nep zijn.

Naast dergelijke (soms onbewuste) manipulatie, brengt generatieve AI een risico van verlies van authenticiteit met zich mee. Als een grotere hoeveelheid teksten of beelden volledig of deels gegenereerd zijn, gaan deze meer op elkaar lijken. Dit maakt het moeilijker voor de kiezer om echt van nep te onderscheiden en dat vermindert het vertrouwen in eigen waarneming en de oprechtheid van standpunten. Met het verlies van autonomie als gevolg.

De Europese Unie (EU) werkt hard aan wetgeving om deze risico's te beperken, als onderdeel van het Digital Decade 2030-programma, waarover we eerder al schreven. We lichten twee wetten uit:

De AI Act richt zich op de veiligheid van de technologie zelf. Op de volgende drie manieren zullen we het effect van de AI Act met name zien in verkiezingstijd:

  • Synthetische content moet digitaal voorzien worden van een watermerk en deepfakes moeten zelfs zichtbaar als zodanig te herkennen zijn;
  • AI die bedoeld is om gedrag (waaronder de keuze voor een politieke partij) dusdanig te manipuleren dat mensen hun autonomie verliezen, is sinds februari 2025 verboden; en
  • AI-systemen die bedoeld zijn om de uitslag van een verkiezing te beïnvloeden en waarvan mensen de output zien (systemen die helpen bij het organiseren van een campagne vallen hier niet onder), worden vanaf augustus 2026 bestempeld als hoogrisico-AI-systemen. Dat betekent dat deze systemen aan vergaande verplichtingen moeten voldoen, waarover we ook al eerder schreven.

Daarnaast richt de Digital Services Act (DSA) zich op de verantwoordelijkheid van de platforms waarop kiezers synthetische content zien. Zogenaamde zeer grote online platforms moeten meer stappen zetten om de verspreiding van illegale content, waaronder bepaalde schadelijke deepfakes en misleidende content, aan te pakken.

Aanbevelingssystemen

Synthetische content is maar de helft van het verhaal. Want als kiezers deze content niet zien, blijft het effect ervan ook beperkt. Het risico dat verkiezingen beïnvloed worden, groeit wanneer een kiezer op grote schaal nep- of bevooroordeelde content voorgeschoteld krijgt. Dat brengt ons bij de motor achter wat we online te zien krijgen: aanbevelingssystemen.

Sociale media zijn een belangrijke bron van nieuws in 2025. Met name jongeren nemen het nieuws in grote mate tot zich via platforms als TikTok, Instagram, Threads en X/Twitter. De feeds op deze platforms worden niet op dezelfde manier samengesteld als websites van traditionele nieuwsmedia. Er is geen redactie die bepaalt welk nieuws een gebruiker te zien krijgt, maar een aanbevelingssysteem, ook wel ‘het algoritme’. En het algoritme heeft maar één doel: de aandacht vasthouden.

Aandacht is niet neutraal en hoeft niet gebaseerd te zijn op de werkelijkheid of iemands overtuigingen. Controverse is interessant en als een gebruiker van TikTok iets langer blijft hangen bij een filmpje dat emoties oproept, positief of negatief, dan bij een neutrale video, zal diegene meer vergelijkbare content voorgeschoteld krijgen. Vanzelfsprekend zijn ook redacties van nieuwsmedia niet neutraal, maar het verschil zit in de gepersonaliseerde aard van aanbevelingssystemen. Hierdoor krijgt elke gebruiker content te zien die aan hen is aangepast. Dit kan resulteren in een filterbubbel, waarin het algoritme iedereen een eigen realiteit toont. Denk terug aan de beschikbaarheidsbias en het is goed te zien waarom dit in verkiezingstijd een groot risico is: bestaande overtuigingen worden versterkt en het vermogen om een autonome afweging te maken wordt verminderd.

Microtargeting kan dit effect versterken. Politieke partijen gebruiken daarbij data om hun advertenties alleen aan specifieke groepen te laten zien. In plaats van de politieke reclames in de zendtijd politieke partijen, die voor iedere tv-kijker hetzelfde zijn, zien jonge kiezers advertenties over betaalbare woningen en 60+’ers over pensioenen. Zo praat niet iedere kiezer meer op basis van dezelfde informatie, wat een gevaar is voor het publieke debat. Een gebrek aan publiek debat zorgt ervoor dat politieke keuzes minder weloverwogen gemaakt worden en beperkt daarmee de autonomie van de kiezer.

De EU houdt zich ook bezig met het bestrijden van deze gevaren. We lichten weer twee wetten uit:

De Digital Services Act (DSA) verplicht online platforms om transparant te zijn over de werking van hun aanbevelingssystemen. Daarnaast moeten de zeer grote online platforms (bijvoorbeeld TikTok en Instagram) een optie bieden aan gebruikers om een feed te zien die niet gebaseerd is op een profiel van hun persoonsgegevens, hierbij speelt ook de Algemene verordening gegevensbescherming (AVG) een belangrijke rol.

En ook de Verordening transparantie en gerichte politieke reclame (TTPA) legt transparantie-eisen op aan iedere partij in de keten van politieke reclames. Zo moet op een online platform duidelijk zijn wie voor een politieke reclame betaald heeft, maar ook waarom jij die reclame te zien krijgt. Verder zijn ook de eisen voor het gebruik van persoonsgegevens bij het targeten van politieke reclames stevig aangescherpt. De TTPA heeft ervoor gezorgd dat Meta en Google vanaf 10 oktober 2025 geen politieke reclames meer zullen tonen in de EU.

Hoe nu verder

De inzet van AI in verkiezingstijd zorgt er niet voor dat onze democratie meteen ophoudt te bestaan. Iedere kiezer is nog steeds vrij om in het stemhokje zelf te bepalen welk vakje rood moet worden. De kracht van AI-systemen biedt veel kansen: informatie wordt toegankelijker en keuzes worden geïnformeerd door grotere hoeveelheden en meer diverse data. Maar het één-tweetje van synthetische content, die twijfel zaait over de werkelijkheid, en aanbevelingssystemen, die bepalen welke informatie we zien, vormt een reëel risico voor de autonomie van de kiezer.

De Europese wetten die we hierboven hebben uitgelicht, moeten in dat licht gezien worden. Ze zijn onderdeel van een bredere poging om de autonomie en macht van burgers te beschermen in een maatschappij die steeds meer gedomineerd wordt door AI en invloedrijke tech-giganten, ook in verkiezingstijd.

De nadruk vanuit Europa ligt met name op transparantie, zodat burgers geïnformeerde keuzes kunnen maken, maar het beschermen van autonomie vereist meer dan kennis. Er moet ook iets met die kennis gedaan worden. Burgers moeten een kritische blik houden op de informatie die zij tot zich nemen en zichzelf digitale vaardigheden aanleren. Organisaties moeten niet alleen transparant zijn, maar zich ook laten leiden door ethische waarden. Voor juridische professionals ligt er een taak om de nieuwe wetgeving te doorgronden en organisaties ertoe bewegen deze toe te passen. Zo zorgen we er samen voor dat AI ons niet beperkt in het stemhokje.

Heb je nog vragen over dit onderwerp? Neem gerust contact met ons op!

Neem contact op

Terug naar overzicht