Op 29 oktober 2025 behandelde de rechtbank Groningen twee asielzaken waarin precies deze vragen aan bod kwamen. In het debat stond een interne tool van de IND centraal: de Case Matcher, een systeem dat dossiers vergelijkt om eerdere, soortgelijke zaken te vinden. Wat begon als een technisch detail, groeide tijdens de zitting uit tot een principiële discussie over de juridische status van algoritmische ondersteuning bij overheidsbesluiten.

Grensgeval tussen Ctrl + f-zoekfunctie en AI

Advocate Meijering stelt dat de Case Matcher (die werkt met text-mining technieken zoals TF-IDF) als AI moet worden aangemerkt, omdat deze automatisch documenten rangschikt op relevantie en daarmee de besluitvorming kan beïnvloeden. In de ogen van de landsadvocaat van de IND betreft het slechts een klassieke zoekfunctie met statistische relevantieberekening: geen autonomie en geen aanpassingsvermogen.

De Case Matcher werkt met gevoelige data van heel veel eerdere asielzaken. Als zo’n tool als AI wordt aangemerkt, gelden striktere eisen: het gebruik moet worden gemeld, de werking gedocumenteerd, risico’s vooraf beoordeeld. Wordt deze beschouwd als gewone zoektechnologie, dan vallen deze verplichtingen grotendeels weg. Precies dat maakt classificatie zo belangrijk – en tegelijk zo complex.

Transparantie bij gebruik AI

Tijdens de zitting bleek dat niet met zekerheid kon worden vastgesteld of de Case Matcher daadwerkelijk was gebruikt in een van de behandelde zaken. Dit kwam mede doordat het gebruik van de tool niet standaard wordt vastgelegd in dossiers. Hierdoor blijft voor betrokkenen onduidelijk of en zo ja op welke manier de tool bij hun zaak een rol heeft gespeeld.

In de bredere discussie over de aard van de Case Matcher kwam ook de kwestie van documentatie aan de orde. Advocate Meijering stelde dat de beschikbare informatie over de werking van de tool beperkt te vinden is, wat het moeilijk maakt om te beoordelen of er sprake is van kunstmatige intelligentie in de zin van de Europese AI-verordening.

Deze bevindingen sluiten aan bij een bredere ontwikkeling in de rechtspraak, waarin steeds meer nadruk wordt gelegd op transparantie: burgers moeten kunnen weten hoe algoritmische hulpmiddelen een rol spelen in besluiten die hen raken.

Wat organisaties hiervan kunnen leren

De kwestie raakt niet alleen overheden. Ook private organisaties gebruiken steeds vaker datagedreven of algoritmische hulpmiddelen bij analyses en besluitvorming. De belangrijkste lessen:

  • Breng functionaliteit juridisch in kaart. Beschrijf concreet wat een systeem doet en of er sprake is van autonomie of aanpassingsvermogen.

  • Leg gebruik en bevoegdheden vast. Wie mag de tool gebruiken, en met welke opleiding of toestemming?

  • Voer risicoanalyses op het juiste niveau uit. Niet alleen voor het platform, maar ook voor afzonderlijke modules die beslissingen kunnen beïnvloeden.

  • Wees proactief transparant. Licht gebruikers, klanten of burgers op voorhand in wanneer algoritmes of AI-achtige hulpmiddelen worden ingezet.

Tot slot

De rechtbank moet nog uitspraak doen, maar de zaak onderstreept één ding: de grens tussen AI en een ‘gewoon’ hulpmiddel is naast technisch ook juridisch en ethisch van aard. Voor verantwoord gebruik van datagedreven technologie is daarmee niet alleen belangrijk wát een systeem doet, maar ook hóe organisaties daarover verantwoording afleggen.

Dit artikel is geschreven samen met Melody Jansen.

Over de auteurs

  • Daniel Los

    Daniel Los is junior consultant bij Berenschot. 'Hoe ga je om met een overload aan versnipperde informatie? Dit is een van de grootste uitdagingen van onze tijd. Informatie is overal, waardoor het vinden van de juiste kennis lastig is. Als digitale adviseur zet ik mij in om dit probleem te tackelen met onder andere AI en simulaties. Zo kunnen we met de juiste informatie sneller, efficiënter en beter onderbouwd aan de slag.'

Gerelateerd nieuws

Ruimtelijke opgaven vragen om scherpere keuzes

De ontwerp-Nota Ruimte schetst de grote ruimtelijke opgaven en erkent de rol van gemeenten. De opgaven vragen wel om scherpere keuzes, meer nationale samenhang en duidelijke rolverdeling. De invulling van de ruimte komt uiteindelijk in onze dorpen en steden tot uitwerking.

Omgeving

Groot tekort aan eigen regie bij Nederlandse werkenden

Een grote meerderheid van de Nederlandse werkenden heeft onvoldoende grip op de eigen inzetbaarheid en ontwikkeling. Slechts 29 procent van de werknemers scoort gunstig op persoonlijk leiderschap, terwijl 69 procent inzetbaarheid wél belangrijk vindt. Dat blijkt uit het nieuwe rapport Duurzame inzetbaarheid: Wat leren we van de DIX-benchmark 2022–2025, opgesteld door Berenschot, TNO, NPDI en Johan.nl. Het gebrek aan eigen regie is zorgwekkend, omdat dit een cruciale voorspeller is van duurzame inzetbaarheid op lange termijn.

Zorg & Sociaal

Kleine Kerncentrales in Nederland: waar staan we nu?

Op de weg naar een klimaatneutraal Nederland in 2050 heeft het kabinet de ambitie uitgesproken om uiterlijk in 2035 een vrijwel CO₂-arme elektriciteitsproductie te realiseren. Kernenergie kan daar een rol in spelen, mogelijk niet alleen via grote kerncentrales maar ook via kleine modulaire reactoren (SMR’s).

Omgeving

Europees Parlement zwakt duurzaamheidsregels af: "Verraad aan mens en planeet"

Het Europees Parlement heeft in Straatsburg het zogenaamde Omnibus I-pakket aangenomen, dat de Europese duurzaamheidsregels aanzienlijk versoepelt. Dit besluit, dat door wetgevers als lastenverlichting voor bedrijven wordt gepresenteerd, leidt tot scherpe kritiek van mensenrechten- en milieuorganisaties. Organisaties als Amnesty International en de European Coalition for Corporate Justice (ECCJ) spreken van een ontmanteling van de kern van de Corporate Sustainability Due Diligence Directive (CSDDD) en een "verraad aan mens en planeet".