Met de komst van de AI Act is één van de belangrijkste verplichtingen voor hoogrisico AI-systemen het uitvoeren van een Fundamental Rights Impact Assessment (FRIA). Maar wat houdt dit precies in en hoe pak je het praktisch aan?"
Wij hebben een praktisch FRIA-template ontwikkeld, dat helpt de impact van AI-systemen op fundamentele rechten grondig te evalueren. Het template bestaat uit drie onderdelen:
Een Impact Assessment is een systematische evaluatie van de gevolgen van een systeem of activiteit, met name de risico’s. Bekende voorbeelden zijn de Data Protection Impact Assessment (DPIA) onder de AVG of risicobeoordelingen uit de Digital Services Act. De FRIA richt zich op het in kaart brengen van risico’s van AI-systemen voor fundamentele rechten, inclusief privacy, discriminatie, milieu en andere maatschappelijke effecten. Het doel is potentiële schade te mitigeren voordat het systeem wordt ingezet.
Artikel 29a van de AI Act bepaalt dat een FRIA nodig is bij hoogrisico AI-systemen, onderverdeeld in twee categorieën:
Uitzondering: AI-systemen met een fysieke veiligheidscomponent in kritieke infrastructuur (CER Richtlijn 2022/2557) hoeven geen FRIA te doen.
Volgens de AI Act ligt de verantwoordelijkheid voor het uitvoeren van een FRIA bij de ‘deployer’ van het AI-systeem. Hoewel de producent wellicht meer kennis heeft van de werking van het systeem, kent de deployer het beste de praktische toepassing, de doelgroep, de maatschappelijke context etc. De deployer kan daarbij wel de producent raadplegen of diens informatie gebruiken.
Er zijn vijf categorieën voor wie deze plicht geldt:
De AI Act noemt zes kernonderwerpen:
Het draait vooral om risico’s (4) en maatregelen (6).
De kern van een FRIA is dat deze veel breder in scope is dan een DPIA. Waar de laatste specifiek kijkt naar risico’s voor privacy, persoonlijke levenssfeer en een eerlijke omgang met persoonsgegevens, zal een FRIA in principe alle soorten risico’s voor mens en maatschappij mee moeten nemen. Naast persoonsgegevens vallen hier ook bijvoorbeeld fysieke veiligheid onder, ongewenste censuur (vrijheid van meningsuiting), gevaar voor de volksgezondheid of milieuvervuiling.
Een veelvoorkomende valkuil is dat de FRIA als afvinklijstje wordt gezien, wat leidt tot oppervlakkige evaluaties en gemiste kansen om echte problemen aan te pakken. Betrek daarom altijd een multidisciplinair team, zodat IT, juridische zaken, ethici, eindgebruikers en andere relevante stakeholders samenwerken en een volledig beeld ontstaat van de mogelijke gevolgen.
Een FRIA benadrukt dat naleving van fundamentele rechten niet alleen een juridische vereiste is, maar een cruciale voorwaarde voor verantwoord gebruik van AI.
Bekijk al onze artikelen
Laat een bericht achter via het formulier. Een van onze juridisch adviseurs neemt dan contact met je op.
Wanneer je een aanvraag bij ons doet, volgt altijd eerst een vrijblijvend kennismakingsgesprek: telefonisch, bij ons op kantoor of bij jou op locatie.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.