De AI Act is de Europese verordening die regels stelt voor het ontwikkelen en gebruiken van kunstmatige intelligentie. De wet hanteert een risicogebaseerde aanpak met verboden toepassingen, streng gereguleerde hoog-risico AI en transparantieverplichtingen voor andere systemen.
Wil je meer weten over de AI Act en wat deze wet betekent voor jouw organisatie? In onze factsheet leggen we de belangrijkste regels, risico’s en verplichtingen helder uit. Download de factsheet en krijg direct inzicht in de impact van de AI Act.
Download nuDe AI Act is een Europese verordening die regels stelt voor het ontwikkelen, aanbieden en gebruiken van AI-systemen binnen de Europese Unie. Het doel is om innovatie mogelijk te maken, maar tegelijkertijd risico’s voor veiligheid, grondrechten en transparantie te beperken. De regelgeving richt zich vooral op de betrouwbaarheid en veiligheid van AI-systemen. Voor de verwerking van persoonsgegevens blijft daarnaast ook de AVG van toepassing, waardoor organisaties vaak met beide kaders rekening moeten houden.
De AI Act werkt met een risicogebaseerde aanpak. Hoe groter het mogelijke risico voor mensen en samenleving, hoe strenger de regels.
De AI Act en de AVG gelden naast elkaar. De AI Act richt zich op de veiligheid en betrouwbaarheid van AI-systemen, terwijl de AVG de verwerking van persoonsgegevens reguleert.
Bij AI-toepassingen die persoonsgegevens verwerken moeten organisaties daarom vaak beide wetten toepassen. In sommige situaties kan bijvoorbeeld een DPIA onder de AVG nodig zijn en daarnaast een Fundamental Rights Impact Assessment (FRIA) onder de AI Act.
De AI Act onderscheidt verschillende partijen in de waardeketen van AI-systemen. Elke rol heeft eigen verantwoordelijkheden.
Aanbieder (provider)
De partij die het AI-systeem ontwikkelt of onder eigen naam op de markt brengt.
Gebruiksverantwoordelijke (deployer)
De organisatie die het AI-systeem daadwerkelijk inzet binnen haar processen.
Importeurs en distributeurs
Partijen die AI-systemen op de Europese markt brengen of distribueren.
Vooral aanbieders van hoog-risico AI moeten aantonen dat hun systeem voldoet aan de wettelijke eisen, bijvoorbeeld via conformiteitsbeoordelingen en documentatie.
Elke lidstaat krijgt minstens één toezichthouder. In Nederland zullen de huidige markttoezichthouders en inspectiediensten toezicht houden op AI.
Toezichthouders mogen:
Een AI-systeem kan hoog risico zijn wanneer het wordt gebruikt in sectoren zoals onderwijs, werving, kredietbeoordeling of kritieke infrastructuur. Voor zulke systemen gelden uitgebreide compliance-eisen.
AI-gegenereerde inhoud moet herkenbaar zijn als synthetisch. Bij deepfakes moet dit expliciet zichtbaar worden gemaakt.
Schrijf je in voor onze AI-nieuwsbrief en blijf vooroplopen: we delen nieuwe AI-documenten, handige prompts, updates over taalmodellen en juridische ontwikkelingen. Speciaal samengesteld voor professionals die verantwoord met AI willen werken.
Laat je e-mailadres achter en meld je direct aan
Bekijk al onze artikelen
Laat een bericht achter via het formulier. Een van onze juridisch adviseurs neemt dan contact met je op.
Wanneer je een aanvraag bij ons doet, volgt altijd eerst een vrijblijvend kennismakingsgesprek: telefonisch, bij ons op kantoor of bij jou op locatie.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.