Alles weten over de AI Act? Download onze factsheet

Wil je meer weten over de AI Act en wat deze wet betekent voor jouw organisatie? In onze factsheet leggen we de belangrijkste regels, risico’s en verplichtingen helder uit. Download de factsheet en krijg direct inzicht in de impact van de AI Act.

Download nu
Voorkant van AI Act factsheet

Wat is de AI Act?

De AI Act is een Europese verordening die regels stelt voor het ontwikkelen, aanbieden en gebruiken van AI-systemen binnen de Europese Unie. Het doel is om innovatie mogelijk te maken, maar tegelijkertijd risico’s voor veiligheid, grondrechten en transparantie te beperken. De regelgeving richt zich vooral op de betrouwbaarheid en veiligheid van AI-systemen. Voor de verwerking van persoonsgegevens blijft daarnaast ook de AVG van toepassing, waardoor organisaties vaak met beide kaders rekening moeten houden.

Voor wie geldt de AI Act in Nederland?

De AI Act heeft een zeer ruime reikwijdte. De wet geldt voor bijna alle organisaties die AI ontwikkelen, leveren of gebruiken. Onder de regels vallen onder andere:
  • Aanbieders van AI-systemen (ontwikkelaars, leveranciers)
  • Distributeurs en importeurs
  • Gebruikers van AI-systemen (bedrijven, overheden, instellingen)
  • GPAI-aanbieders (aanbieders van generatieve of algemene AI-modellen)
  • Organisaties die AI integreren in producten, zoals medische hulpmiddelen, voertuigen of machines

Daarnaast werkt de AI Act door in de hele supply chain: organisaties moeten aantonen dat toeleveranciers compliant zijn.
L1853292

Hoe werkt het risicomodel van de AI Act?

De AI Act werkt met een risicogebaseerde aanpak. Hoe groter het mogelijke risico voor mensen en samenleving, hoe strenger de regels.

  • Verboden AI 
    AI-toepassingen die een onacceptabel risico vormen, zoals systemen die mensen manipuleren of sociale controle mogelijk maken.
  • Hoog risico AI 
    AI-systemen die grote impact kunnen hebben op veiligheid of grondrechten.
  • Transparantie-verplichtingen
    AI-systemen die interactie hebben met mensen (zoals chatbots) moeten duidelijk maken dat men met AI te maken heeft.
  • General-Purpose AI (GPAI)
    Algemene AI-modellen, zoals grote taalmodellen, waarvoor specifieke transparantie- en documentatie-eisen gelden

Hoe verhoudt de AI Act zich tot de AVG?

De AI Act en de AVG gelden naast elkaar. De AI Act richt zich op de veiligheid en betrouwbaarheid van AI-systemen, terwijl de AVG de verwerking van persoonsgegevens reguleert.

Bij AI-toepassingen die persoonsgegevens verwerken moeten organisaties daarom vaak beide wetten toepassen. In sommige situaties kan bijvoorbeeld een DPIA onder de AVG nodig zijn en daarnaast een Fundamental Rights Impact Assessment (FRIA) onder de AI Act.

 

Veelgestelde vragen over de AI Act

Welke rollen bestaan er in de AI-keten?

De AI Act onderscheidt verschillende partijen in de waardeketen van AI-systemen. Elke rol heeft eigen verantwoordelijkheden.

Aanbieder (provider)
De partij die het AI-systeem ontwikkelt of onder eigen naam op de markt brengt.

Gebruiksverantwoordelijke (deployer)
De organisatie die het AI-systeem daadwerkelijk inzet binnen haar processen.

Importeurs en distributeurs
Partijen die AI-systemen op de Europese markt brengen of distribueren.

Vooral aanbieders van hoog-risico AI moeten aantonen dat hun systeem voldoet aan de wettelijke eisen, bijvoorbeeld via conformiteitsbeoordelingen en documentatie.

Hoe zal de AI Act worden gehandhaafd in Nederland?

Elke lidstaat krijgt minstens één toezichthouder. In Nederland zullen de huidige markttoezichthouders en inspectiediensten toezicht houden op AI.  

Toezichthouders mogen:

  • Toegang eisen tot alle documentatie, broncode en model parameters.
  • Bindende aanwijzingen geven over aangepast gebruik.
  • Bevel tot staking geven indien de AI toch te risicovol blijkt.
  • Boetes opleggen.
Wat zijn de boetes voor het overtreden van de AI Act in Nederland?
Boetes kunnen oplopen tot:
  • EUR 35 miljoen of bij bedrijven 7% van wereldwijde concernomzet bij inzet van verboden AI.
  • EUR 15 miljoen of bij bedrijven 3% van wereldwijde concernomzet bij andere overtredingen.
  • EUR 7,5 miljoen of bij bedrijven 1,5% van wereldwijde concernomzet bij verstrekken van onjuist, onvolledige of misleidende informatie aan toezichthouders.
  • Voor MKB en startups gelden lagere plafonds.
Wanneer is een AI-systeem hoog risico?

Een AI-systeem kan hoog risico zijn wanneer het wordt gebruikt in sectoren zoals onderwijs, werving, kredietbeoordeling of kritieke infrastructuur. Voor zulke systemen gelden uitgebreide compliance-eisen.

Moet AI-gegenereerde content altijd worden gelabeld?

AI-gegenereerde inhoud moet herkenbaar zijn als synthetisch. Bij deepfakes moet dit expliciet zichtbaar worden gemaakt.

Blijf op de hoogte

Schrijf je in voor onze AI-nieuwsbrief en blijf vooroplopen: we delen nieuwe AI-documenten, handige prompts, updates over taalmodellen en juridische ontwikkelingen. Speciaal samengesteld voor professionals die verantwoord met AI willen werken. 

AI-nieuwsbrief

Laat je e-mailadres achter en meld je direct aan

Meer informatie ontvangen?

Laat een bericht achter via het formulier. Een van onze juridisch adviseurs neemt dan contact met je op.

Wanneer je een aanvraag bij ons doet, volgt altijd eerst een vrijblijvend kennismakingsgesprek: telefonisch, bij ons op kantoor of bij jou op locatie.

Laat je gegevens achter