Dat is de conclusie van Amnesty International(1) in het rapport ‘Etnisch profileren is een overheidsbreed probleem – Nederlandse overheid moet burgers beschermen tegen discriminerende controles’. Het rapport is vandaag gepubliceerd, op de Internationale Dag tegen Racisme en Discriminatie.

Etnisch profileren nog altijd een groot probleem in Nederland

Amnesty International verzet zich al jaren met hand en tand tegen etnisch profileren in Nederland. Verschillende overheidsorganisaties hebben weliswaar stappen gezet om burgers te beschermen tegen etnisch profileren, maar deze stappen zijn te vrijblijvend en maken geen echt verschil. “Burgers in Nederland zijn niet effectief beschermd tegen discriminatie door de overheid”, meent Gwen van Eijk, onderzoeker bij Amnesty International.

In het rapport beschrijft de mensenrechtenorganisatie dat de overheid weliswaar maatregelen neemt om etnisch profileren aan te pakken, maar dat de ‘reële risico’s op etnisch profileren’ blijven bestaan. Als voorbeeld worden de ‘discriminerende werkwijzen’ bij de politie, Koninklijke Marechaussee (KMar), Belastingdienst en Dienst Uitvoering Onderwijstaken (DUO) genoemd.

In al deze zaken werden Nederlanders met een migratieachtergrond extra gecontroleerd in vergelijking met autochtone Nederlanders. Dat is volgens Amnesty een duidelijk signaal dat de overheid bij controles zich baseert op risicoprofilering en risico-inschattingen, al dan niet gevoed door algoritmes.

‘Automation bias staat op gespannen voet met het zorgvuldigheidsbeginsel’

Burgers hebben recht op transparantie om grip te krijgen op de uitvoering van overheidsbeslissingen, zo betoogt Amnesty. Ze hebben immers het recht om te weten hoe een besluit over hen tot stand is gekomen. Zeker als er algoritmes in het spel zijn. “De inzet van algoritmen, en dan met name zelflerende algoritmes en black box-systemen, staat op gespannen voet met het beginsel van transparant overheidsoptreden”, zo schreef de mensenrechtenorganisatie in het rapport ‘Xenofobe machines’(2).

Amnesty staat nog altijd vierkant achter deze filosofie. “Overheidsorganisaties dienen zich bewust te zijn dat er bij het gebruik van algoritmen voor ondersteuning van beslissingen het risico bestaat op ‘automation bias’. Dat wil zeggen dat ambtenaren zich te veel laten leiden door de uitkomst van het algoritme, in dit geval de risicoscores en categorisering. Dit staat op zeer gespannen voet met het zorgvuldigheidsbeginsel”, zo schrijft de organisatie in haar rapport.

Dit zijn enkele aanbevelingen van Amnesty

Amnesty International vindt dat alle overheidsorganisaties zich moeten verantwoorden hoe ze burgers controleren en wat ze doen om etnisch profileren te voorkomen. Een belangrijke voorwaarde om daaraan te voldoen is dat toezichthouders als de Autoriteit Persoonsgegevens, de Nationale Ombudsman en het College voor de Rechten van de Mens voldoende middelen en capaciteit hebben om onderzoeken in te stellen en handhavend op te treden.

Het toezicht door deze instanties schiet echter tekort, zo meent Amnesty. Om te beginnen zijn de uitspraken van de toezichthouders niet bindend, wat de effectiviteit van extern toezicht aantast. Daardoor schiet de rechtsbescherming van burgers momenteel tekort: ze kunnen een klacht indienen over discriminatie of etnisch profileren, maar uiteindelijk staan ze vaak met lege handen. Amnesty wil dan ook dat de toezichthoudende instanties adequate (bindende) bevoegdheden krijgen en dat de klachtbehandeling sterk wordt verbeterd.

Amnesty is positief over de invoering van het algoritmeregister, dat eind 2022 werd ingevoerd. Het kabinet wil hiermee open en eerlijk zijn over welke overheidsorganisaties algoritmes gebruiken en welke data deze gebruiken. Toch constateert de mensenrechtenorganisatie dat het algoritmeregister drie tekortkomingen kent: het register is niet verplicht, de informatie in het register is incompleet en ontoereikend, en het kabinet wil een uitzondering opnemen voor veiligheidsdiensten die zich bezighouden met rechtshandhaving, opsporing, defensie en inlichtingenverzameling.

“Verplicht het algoritmeregister voor algoritmes die worden ingezet voor selectiebeslissingen en risicoprofilering bij criminaliteit en fraudebestrijding, en ter ondersteuning van migratie en antiterrorismebeleid”, zo adviseert Amnesty. Tot slot wil de organisatie dat zelflerende en black-box algoritmen voor selectiebeslissingen en risicoprofilering worden verboden.

  1. https://www.amnesty.nl/actueel/het-kabinet-moet-burgers-beschermen-tegen-etnisch-profileren

  2. https://www.amnesty.org/en/documents/eur35/4686/2021/nl/

Gerelateerd nieuws

Waarom je als General Counsel nú werk moet maken van een Fundamental Rights Impact Assessment (FRIA)

Welke ethische afwegingen maak je als General Counsel bij de inzet van AI? De FRIA (Fundamental Rights Impact Assessment) helpt om risico’s voor grondrechten vroegtijdig te signaleren. Lees waarom dit essentieel is en hoe het bijdraagt aan compliance, transparantie en vertrouwen.

Van belofte naar beleid: hoe de EU desinformatie structureel wil aanpakken

Hieronder volgt het eerste deel van een tweedelige blogreeks, geschreven door Tijn Iserief, Consultant Privacy & Data Protection bij Lex Digitalis.

ChatGPT bij de bestuursrechter: hulpmiddel of hindernis?

AI-toepassingen zoals ChatGPT zijn de afgelopen jaren doorontwikkeld van een innovatie naar een gangbaar hulpmiddel. De technologie biedt ontelbare mogelijkheden. Een logisch gevolg daarvan is dat de technologie ook wordt toegepast door betrokkenen bij een juridische procedure. De Afdeling Bestuursrechtspraak van de Raad van State (hierna: Afdeling) heeft een uitspraak gedaan over het gebruik van ChatGPT als hulpmiddel. Anne de Jong (advocaat bij Poelmann van den Broek) legt in deze blog uit dat vertrouwen op ChatGPT voor een deskundigenoordeel (vooralsnog) niet mogelijk is.

AI hard op weg om grootste energieverbruiker te worden

Het wereldwijde gebruik van kunstmatige intelligentie groeit razendsnel. Toch blijft het energieverbruik dat daarmee gepaard gaat grotendeels onzichtbaar. Onderzoek van datawetenschapper Alex de Vries-Gao wijst uit dat AI op weg is een van de grootste energieverbruikers in de digitale wereld te worden. Aan toezicht en transparantie ontbreekt het.