De Europese Commissie wil via het Digital Omnibus-wetsvoorstel onder andere de implementatie van de AI Act stroomlijnen, maar toezichthouders plaatsen daar stevige kanttekeningen bij. In een gezamenlijke verklaring benadrukken het Europees Comité voor gegevensbescherming (EDPB) en de Europese Toezichthouder voor gegevensbescherming (EDPS) dat innovatie en efficiëntie nooit ten koste mogen gaan van verantwoording en fundamentele rechten. Zij verzetten zich tegen plannen om registratieverplichtingen voor hoogrisico-AI-systemen te schrappen, willen het gebruik van bijzondere persoonsgegevens voor biasdetectie beperken en pleiten voor een centrale rol van nationale autoriteiten in plaats van een te machtige AI Office.
De Autoriteit Persoonsgegevens (AP) sluit zich bij deze kritiek aan. In haar position paper benadrukt de AP dat de definitie van een persoonsgegeven niet mag worden verzwakt en dat transparantie en verantwoordingsplichten behouden moeten blijven. Zij vindt dat organisaties verantwoordelijk moeten blijven voor voldoende AI-kennis bij medewerkers en dat AI-geletterdheid geen vrijblijvend streven mag worden. Zowel de Europese als de nationale toezichthouders waarschuwen dat het schrappen of uitstellen van regelgeving voor hoogrisico-AI-systemen de rechtszekerheid ondermijnt. Minder regels mogen niet betekenen dat kernbegrippen uit de AVG verwateren; een vereenvoudigde AI-wet moet juist sterke waarborgen voor burgerrechten en publieke controle behouden, zo is de feedback.
De Franse toezichthouder CNIL ondersteunt AI-ontwikkelaars met een uitgebreide set aanbevelingen en richtlijnen voor de ontwikkelfase van AI-systemen. AI-ontwerpers geven vaak aan dat het toepassen van de AVG lastig is, met name bij de training van modellen; volgens de CNIL is het echter een misvatting dat de AVG innovatie in de weg zou staan. De aanbevelingen zijn dan ook gericht op AI-systemen die persoonsgegevens gebruiken. Ze benadrukken dat de ontwikkelfase - het ontwerpen van het systeem, het samenstellen van datasets, en het trainen van het model - al cruciaal is voor privacybydesign. Omdat trainingsdata vaak persoonlijke informatie bevat, moeten organisaties het doel van hun systeem duidelijk bepalen en alleen relevante gegevens verzamelen. Tegelijkertijd maakt de CNIL duidelijk dat de AVG en de AI Act elkaar aanvullen: wanneer persoonlijke data worden gebruikt voor AI-ontwikkeling, gelden beide regelgevingen.
De dertien “AI how-to” sheets behandelen alle stappen en verplichtingen die bij dat proces komen kijken. Ze geven onder meer uitleg over:
het bepalen van het toepasselijke rechtsregime,
het vastleggen van de doelstelling en rechtsgrond,
het bepalen van de rol (verwerkingsverantwoordelijke of verwerker),
het uitvoeren van DPIA’s, privacybydesign,
dataverzameling en beheer,
het gebruik van gerechtvaardigd belang (inclusief webscraping),
het informeren van betrokkenen,
het waarborgen van hun rechten,
data-annotatie, beveiliging,
en het beoordelen of een AI-model zelf onder de AVG valt.
Naast deze fiches biedt de CNIL ook een checklist om te controleren of aan alle punten is voldaan. Met deze tools krijgen ontwerpers, ontwikkelaars, en juristen concreet houvast om risico’s vroeg te identificeren, passende waarborgen in te bouwen, en te zorgen dat hun AI-projecten zowel aan de AVG als aan de komende AI Act eisen voldoen.
Steeds meer organisaties vertrouwen op AI bij werving en selectie, maar hebben vaak beperkt zicht op wie hun systemen bevoordelen en wie structureel afvalt. Het Europese Horizon-project FINDHR - met de Universiteit van Amsterdam (UvA) als partner - laat zien dat AI-wervingsinstrumenten discriminatie kunnen versterken, zeker bij intersectionele discriminatie waarbij meerdere persoonlijke kenmerken samen een rol spelen. Op basis van onderzoek in zeven Europese landen ontwikkelde FINDHR concrete, vrij beschikbare hulpmiddelen - zoals fairness-audits, technische richtlijnen, en trainingen - om AI-werving beter uitlegbaar, controleerbaar, en aantoonbaar eerlijker te maken. Denk bijvoorbeeld aan een impact- en auditframework (fairness-audits), technische toolkits, en een Software Development Guide die uitlegt hoe wervingssoftware ontworpen kan worden met aandacht voor wettelijke vereisten, eerlijkheid, en transparantie.
Die praktische tools zijn extra relevant met het oog op de AI Act: AI-systemen die bedoeld zijn voor recruitment of selectie worden expliciet genoemd als hoogrisico-categorie. Voor aanbieders van zulke systemen gaan vanaf augustus 2026 stevige verplichtingen gelden, waaronder een gedocumenteerd kwaliteitsmanagementsysteem en een doorlopend risicomanagementsysteem, met aandacht voor o.a. datakwaliteit, testen en validatie, logging/traceerbaarheid, documentatie, menselijk toezicht, en post-market monitoring.
De hulpmiddelen van FINDHR bieden dan ook mogelijkheden om voor deze hoogrisico-AI-systemen nu al concreet invulling te geven aan “fairness-by-design”: een mooie stap in de opmaat naar de nieuwe wettelijke vereisten die eraan komen.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.