De technologische versnelling waarin we ons bevinden, zet het juridische speelveld onder hoogspanning. Kunstmatige intelligentie, geautomatiseerde besluitvorming en datagedreven processen bieden ongekende mogelijkheden, én risico’s. Nieuwe wet- en regelgeving, zoals de AI-verordening van de Europese Commissie, vragen niet alleen om compliance, maar ook om een herbezinning op de manier waarop fundamentele risico’s worden geïdentificeerd en beheerst.

Druk op juridische afdelingen neemt toe

Als General Counsel of Hoofd Juridische Zaken wordt u geconfronteerd met een veelheid aan krachten:

  • Technologisch: AI wordt geïntegreerd in bedrijfsprocessen, van HR tot klantenservice, zonder dat de risico’s voor de organisatie en betrokken personen altijd goed in beeld zijn.

  • Politiek: Overheden intensiveren hun toezicht. De AI-verordening vereist dat organisaties proactief risico’s verbonden aan hoog-risico AI-systemen op fundamentele rechten signaleren en mitigeren.

  • Macro-economisch: De druk om efficiënter te werken en te (blijven) innoveren neemt toe, terwijl het regulerend kader waaraan moet worden voldaan groter wordt.

  • Ethisch: Stakeholders, van toezichthouders tot klanten en medewerkers, verwachten dat organisaties niet alleen wettelijk correct handelen, maar ook moreel leiderschap tonen.

Wat is een Fundamental Rights Impact Assessment?

Een effectbeoordeling op het gebied van de grondrechten, in het Engels “Fundamental Rights Impact Assessment” of afgekort “FRIA”) is een instrument voor organisaties om specifieke risico’s voor de rechten van (groepen) personen die waarschijnlijk zullen worden getroffen door gebruik van een hoog-risico AI-systeem in kaart te brengen en om te bepalen welke mitigerende maatregelen er nodig zijn in het geval die risico’s zich voordoen.

Reden hiervoor is dat AI-systemen aanzienlijke gevolgen kunnen hebben voor de fundamentele rechten van individuen, zoals het recht op eerbiediging van de persoonlijke levenssfeer (waaronder het recht op gegevensbescherming, maar ook het recht op autonomie en zelfbeschikking), het recht op gelijke behandeling, het recht op een eerlijk proces en het recht op bescherming van (intellectueel) eigendom .

Hoog-risico AI-systemen worden vaak ingezet in gevoelige domeinen zoals rechtshandhaving, migratie, gezondheidszorg en onderwijs, waar fouten, vooroordelen of gebrek aan transparantie direct kunnen leiden tot onrechtvaardige behandeling, uitsluiting of schade. De FRIA helpt organisaties vooraf te identificeren, beoordelen en beperken welke risico’s hun systemen kunnen opleveren, en zorgt ervoor dat het gebruik van AI-systemen in lijn is met de waarden en grondrechten die binnen de EU wettelijk zijn beschermd.

Onder de AI-verordening kunnen organisaties die gebruikmaken van een AI-systeem in bepaalde gevallen verplicht zijn om een FRIA uit te voeren. Dat is met name het geval als het AI-systeem als ‘hoog-risico’ classificeert en wordt ingezet voor kredietwaardigheid, -scores of risicobeoordelingen of als de organisatie een publiekrechtelijk orgaan of particuliere entiteit is die openbare diensten verleent. Maar ook buiten die context is een FRIA een krachtig juridisch instrument om ethische risico’s vroegtijdig te signaleren en beheersen.

Met het uitvoeren van een FRIA:

  • Brengt u risico’s systematisch vroegtijdig in kaart;

  • Krijgt u concrete handvatten om mitigerende maatregelen te treffen;

  • Vergroot u de transparantie richting toezichthouders en stakeholders;

  • Versterkt u het vertrouwen van klanten, medewerkers en de samenleving;

  • Voldoet u aan u compliance-verplichting uit de AI-verordening.

Waarom u hier nú mee aan de slag moet

De Europese AI-verordening is al in werking getreden en wordt gefaseerd van kracht. Vanaf 2 augustus 2026 wordt verwacht dat een organisatie alle regels uit de AI-verordening naleeft. Organisaties die zich nu voorbereiden, hebben een duidelijke voorsprong, juridisch, ethisch én strategisch. Tegelijkertijd is de maatschappelijke gevoeligheid rond AI groot: discriminatie door algoritmen, bias in wervingsprocessen of privacy-inbreuken kunnen uitmonden in reputatieschade of zelfs juridische claims.

Door tijdig een FRIA uit te voeren, laat u zien dat uw organisatie niet alleen compliant is, maar ook bewust en verantwoordelijk omgaat met AI en de fundamentele rechten van de personen die hierbij betrokken zijn.

Over de auteurs

Gerelateerd nieuws

Van belofte naar beleid: hoe de EU desinformatie structureel wil aanpakken

Hieronder volgt het eerste deel van een tweedelige blogreeks, geschreven door Tijn Iserief, Consultant Privacy & Data Protection bij Lex Digitalis.

ChatGPT bij de bestuursrechter: hulpmiddel of hindernis?

AI-toepassingen zoals ChatGPT zijn de afgelopen jaren doorontwikkeld van een innovatie naar een gangbaar hulpmiddel. De technologie biedt ontelbare mogelijkheden. Een logisch gevolg daarvan is dat de technologie ook wordt toegepast door betrokkenen bij een juridische procedure. De Afdeling Bestuursrechtspraak van de Raad van State (hierna: Afdeling) heeft een uitspraak gedaan over het gebruik van ChatGPT als hulpmiddel. Anne de Jong (advocaat bij Poelmann van den Broek) legt in deze blog uit dat vertrouwen op ChatGPT voor een deskundigenoordeel (vooralsnog) niet mogelijk is.

AI hard op weg om grootste energieverbruiker te worden

Het wereldwijde gebruik van kunstmatige intelligentie groeit razendsnel. Toch blijft het energieverbruik dat daarmee gepaard gaat grotendeels onzichtbaar. Onderzoek van datawetenschapper Alex de Vries-Gao wijst uit dat AI op weg is een van de grootste energieverbruikers in de digitale wereld te worden. Aan toezicht en transparantie ontbreekt het.

Mag je een VOG bewaren? Dit zegt de AVG over het verwerken van Verklaringen Omtrent het Gedrag

Veel organisaties vragen een Verklaring Omtrent het Gedrag (VOG) van een sollicitant, werknemer of vrijwilliger. Maar mag je een VOG ook bewaren? Mike Tiernagan werkt bij adviesbureau L2P en geeft antwoorden op vragen over de verantwoorde omgang met een VOG.