Werkgevers maken steeds vaker gebruik van AI bij werving en selectie. Denk aan de tool die Cv’s van kandidaten screent en naar mate van geschiktheid op volgorde zet, automatische video gesprekken waarbij de lichaamstaal of gezichtsuitdrukking van de kandidaat worden geanalyseerd of Unilever die Pymetrics toepast: een programma dat online sollicitanten beoordeelt op grond van een uur spelletjes spelen en op basis van getoonde karaktereigenschappen zoals nieuwsgierigheid, aanpassingsvermogen en risico’s nemen. Vaak maakt de inzet van AI het mogelijk voor werkgevers om kostenefficiënt te werken.

Regelgeving over AI

Mogelijk valt de inzet van dergelijke systemen onder de nieuwe AI-verordening. Daarover hieronder meer. Er is namelijk al veel regelgeving in Nederland die de inzet van AI door werkgevers momenteel regelt. AI-systemen maken gebruik van een enorme hoeveelheid data, verwerken deze data real time en nemen op basis daarvan beslissingen in de vorm van aanbevelingen of voorspellingen. Bij werving en selectie brengt dit risico’s met zich mee op het gebied van privacy en ongelijke behandeling (discriminatie).

Anti-discriminatie

Zo kunnen de oorspronkelijke (trainings)data van het algoritme aanleiding geven tot discriminerende bias, bijvoorbeeld als het AI-systeem een niet representatieve dataset gebruikt. Denk aan de sollicitatie tool van Amazon die automatisch CV’s van vele kandidaten kon analyseren. Later bleek echter dat de tool onderscheid maakte tussen mannen en vrouwen bij de selectie van kandidaten. De tool had namelijk geleerd welke kandidaten deze moest selecteren door alle CV's die het bedrijf sinds 2004 had gekregen te analyseren. De meeste daarvan kwamen van mannen, waardoor de sollicitatierobot leerde dat mannen de voorkeur zouden moeten krijgen. CV's met daarin het woord 'vrouwen' en ook afgestudeerden aan scholen speciaal voor vrouwen of CV’s met typisch vrouwelijke eigenschappen zoals perfectionisme, empathie en behulpzaamheid, werden daardoor benadeeld.

Discriminatie op grond van geslacht is verboden in Nederland. Ook indirecte discriminatie is verboden; ongelijke behandeling wat op zichzelf niet discriminerend is (bijvoorbeeld het criterium ‘aansluitend dienstverband’ is op zichzelf niet discriminerend) maar wel een specifieke groep meer raakt dan de andere groep. In dit geval vrouwen.

Dit risico speelt niet alleen bij discriminatie op grond van geslacht maar ook op grond van migratieachtergrond en handicap. Zoals hiervoor genoemd, speelt bij AI - anders dan bij andere selectiemethoden - dat niet alleen de zoekcriteria indirect discriminerend kunnen zijn, maar ook de data waarmee de gezochte informatie wordt vergeleken. Denk aan het bestaande mannelijke personeelsbestand bij Amazon. Dit zou voorkomen kunnen worden als de output van AI-tools constant kan worden getoetst zodat de tools kunnen worden verbeterd. Maar daar schort het nu juist vaak aan in de praktijk. Enerzijds omdat daar geen prioriteit ligt en anderzijds omdat privacywetgeving de verwerking van bepaalde data (en dus controle van systemen) verbiedt. Denk aan bijzondere persoonsgegevens zoals raciale gegevens of gegevens over de gezondheid van de sollicitant. Dat betekent dus dat een werkgever vaak niet eens weet en kan weten of een kandidaat een migratieachtergrond heeft en of er opvallend weinig kandidaten met een migratieachtergrond door de selectie zijn gekomen, terwijl het systeem deze groep wel indirect heeft gediscrimineerd.

Mogelijkheden voor sollicitanten en werknemers

Schending van anti-discriminatie regelgeving bij de inzet van AI kan leiden tot aansprakelijkheidsclaims van kandidaten en hogere ontslagvergoedingen in ontslagprocedures. Vaak kloppen kandidaten eerst aan bij het College voor de Rechten van de Mens, die vervolgens een uitspraak doet. Met die uitspraak in de hand kunnen kandidaten gemakkelijker een schadevergoeding vorderen. Het College heeft op basis van haar uitspraken richtlijnen ontwikkeld voor de inzet van AI bij werving en selectie, waaraan het College toetst. Belangrijkste punt daarbij is dat werkgevers moeten kunnen uitleggen op welke manieren de algoritmes werken en een eventuele objectieve rechtvaardiging voor indirecte discriminatie kunnen uitleggen. De selectieprocedures moeten inzichtelijk, controleerbaar en systematisch zijn en werkgevers zijn juridisch verantwoordelijk voor de AI-tools (en niet de provider van de software). Krijg je als werkgever te maken met een klacht van een werknemer bij het College, zorg dan dus dat je niet alleen in lijn met anti-discriminatiewetgeving handelt maar ook rekening houdt met de specifieke richtlijnen van het College.

Het College voor de rechten van de mens bevordert en beschermt de naleving van mensenrechten in Nederland door voorlichting, onderzoek, advies, samenwerking en toezicht op gelijkebehandelingsvraagstukken. Digitalisering biedt kansen voor betere bescherming van mensenrechten, zoals toegang tot informatie en zorg, maar brengt ook risico's zoals discriminatie door geautomatiseerde processen en onherleidbare beslissingen door algoritmes. Daarom is het College in 2020 het strategische programma Digitalisering en Mensenrechten gestart.

Privacy

Dan privacy: De AVG en de UAVG verbieden verwerking van bijzondere persoonsgegevens zoals gegevens over ras of etnische afkomst, gezondheid en biometrische gegevens, tenzij daarvoor een wettelijke uitzondering bestaat. Hier moeten werkgevers dus rekening mee houden bij de implementatie van AI-tools. Daarnaast bestaat er een breed scala aan regelgeving over de inzet van monitoring bij sollicitanten. Monitoring is breder dan AI en ziet op de inzet van digitale systemen die gedrag en functioneren van sollicitanten monitort. Europese mensenrechtenbeschermingswetgeving, onze grondwet en de AVG en UAVG bevatten regelgeving over de inzet van monitoring evenals de Wet op de Ondernemingsraden, die verplicht om bij een voorgenomen besluit om een personeelsvolgsysteem te implementeren, instemming van de ondernemingsraad te vragen. In de praktijk zien we dat rechters steeds strenger toetsen op de inzet van monitoring als de resultaten van monitoring worden gebruikt om een ontslagzaak te onderbouwen en dat bij onrechtmatige inzet van monitoring met enige regelmaat een billijke vergoeding wordt opgelegd of bewijs zelfs aan de kant wordt geschoven. Dat rechters eenzelfde kritische houding zullen hebben tegenover beslissingen op basis van AI, is te verwachten.

Wet toezicht gelijke kansen werving en selectie

Op AI vlak is het interessant dat de Wet toezicht gelijke kansen bij werving en selectie in maart 2024 door de Eerste Kamer (met een kleine meerderheid) is verworpen. Deze wet bevatte specifieke verplichtingen voor werkgevers die AI inzetten bij werving en selectie, zoals het invoeren van antidiscriminatiebeleid, de verplichting om bij AI-systemen te verifiëren dat zij geen discriminatie veroorzaken en een documentatieplicht. De Arbeidsinspectie zou verantwoordelijk worden voor handhaving hetgeen zou betekenen dat schending niet alleen tot aansprakelijkheid en hoge ontslagvergoedingen, maar ook tot boetes voor werkgevers zou kunnen leiden. Het is gelet op de huidige regering niet te verwachten dat een dergelijke wet alsnog op korte termijn wordt geïntroduceerd.

AI-verordening

Soortgelijke verplichtingen vinden we wel terug in de AI-verordening. Deze is van toepassing bij de inzet van hoog risico AI-systemen. AI-systemen die bedoeld zijn voor werving of selectie van kandidaten, met name voor het bekendmaken van vacatures, het screenen of filteren van sollicitaties en de evaluatie van kandidaten tijdens interview of tests, worden gekwalificeerd als hoog risico AI-systemen. Het voert voor nu te ver om op alle verplichtingen uit de verordening voor werkgevers in te gaan, maar de volgende regels zijn in elk geval belangrijk om te weten:

(i) werkgevers moeten zich houden aan de gebruiksaanwijzingen van de AI software. De gebruiksaanwijzingen moeten menselijk toezicht bevatten;

(ii) De input data moet relevant zijn voor het beoogde doel;

(iii) bij een verhoogd risico moet er worden gemeld door de werkgever bij de AP; (iv) er geldt een verplichting om een DPIA uit te voeren; en

(v) een informatieverplichting jegens werknemers is vereist.


Het niet voldoen aan de verplichtingen uit de verordening kent een potentieel hoge sanctie voor werkgevers: een maximale boete van EUR 15 miljoen of 3% van de totale jaarlijkse omzet.

Conclusie

Ondanks dat we in Nederland al wetgeving kennen lijkt de AI verordening welkom voor de bescherming van werknemers. De gemene deler van de verplichtingen is het vergroten van transparantie over het gebruik en de gevolgen van AI-systemen. Daar kunnen werkgevers dus al mee aan de slag.

Over de auteurs

Gerelateerd nieuws

Surveillancewet stuit op massale kritiek: Experts, bedrijven en oppositie roepen kabinet op tot verzet

Verschillende experts, bedrijven en politieke partijen, waaronder GroenLinks-PvdA, D66, en SP hebben felle kritiek geuit op de voorgestelde Europese CSAM-verordening, ook wel bekend als de surveillancewet. De wet, een initiatief van de Hongaarse regering, is bedoeld om online kindermisbruik te bestrijden, maar volgens de critici schiet de verordening op alle fronten tekort en brengt het de privacy en veiligheid van alle Europeanen in gevaar.

Governanceweb

Bescherm uw online content tegen web scraping door AI aanbieders

Wereldwijd lopen er momenteel rechtszaken tegen aanbieders en ontwikkelaars van (veelal general purpose) AI-tools die hun systemen hebben getraind met grote hoeveelheden data waarop auteursrechten of databankrechten van derden rusten.

Data & Privacy

De privacy-aspecten van het regeerakkoord

Deze Prinsjesdag presenteerde het kabinet-Schoof de begroting voor het aankomende jaar. Hierbij gaf het kabinet ook inzicht in de wetten waar de Tweede Kamer het aankomende jaar op zal stemmen. De overheid werd afgelopen weken bekritiseerd door verschillende experts; met een aantal nieuwe wetten zou de overheid verstrekkende bevoegdheden voor zichzelf creëren. Deze datahonger staat haaks op de privacybelangen van de burger. In dit artikel zetten we de aankomende wetgeving kort uiteen.

Data & Privacy

Cybersecurity: Het begint met inzicht

Elke verbetering begint met het verkrijgen van inzicht. Inzicht in de huidige situatie en in het doel, ofwel: de gewenste situatie. Inzicht is het begin van doelgerichte verbeteringen. Het identificeren van knelpunten, kwetsbaarheden en vooral ook niet-geadresseerde risico’s vormen het startpunt voor de verbeteringen op weg naar een doelbewust gekozen hoger niveau van cybersecurity binnen uw organisatie.

Data & Privacy