Werkgevers maken steeds vaker gebruik van AI bij werving en selectie. Denk aan de tool die Cv’s van kandidaten screent en naar mate van geschiktheid op volgorde zet, automatische video gesprekken waarbij de lichaamstaal of gezichtsuitdrukking van de kandidaat worden geanalyseerd of Unilever die Pymetrics toepast: een programma dat online sollicitanten beoordeelt op grond van een uur spelletjes spelen en op basis van getoonde karaktereigenschappen zoals nieuwsgierigheid, aanpassingsvermogen en risico’s nemen. Vaak maakt de inzet van AI het mogelijk voor werkgevers om kostenefficiënt te werken.

Regelgeving over AI

Mogelijk valt de inzet van dergelijke systemen onder de nieuwe AI-verordening. Daarover hieronder meer. Er is namelijk al veel regelgeving in Nederland die de inzet van AI door werkgevers momenteel regelt. AI-systemen maken gebruik van een enorme hoeveelheid data, verwerken deze data real time en nemen op basis daarvan beslissingen in de vorm van aanbevelingen of voorspellingen. Bij werving en selectie brengt dit risico’s met zich mee op het gebied van privacy en ongelijke behandeling (discriminatie).

Anti-discriminatie

Zo kunnen de oorspronkelijke (trainings)data van het algoritme aanleiding geven tot discriminerende bias, bijvoorbeeld als het AI-systeem een niet representatieve dataset gebruikt. Denk aan de sollicitatie tool van Amazon die automatisch CV’s van vele kandidaten kon analyseren. Later bleek echter dat de tool onderscheid maakte tussen mannen en vrouwen bij de selectie van kandidaten. De tool had namelijk geleerd welke kandidaten deze moest selecteren door alle CV's die het bedrijf sinds 2004 had gekregen te analyseren. De meeste daarvan kwamen van mannen, waardoor de sollicitatierobot leerde dat mannen de voorkeur zouden moeten krijgen. CV's met daarin het woord 'vrouwen' en ook afgestudeerden aan scholen speciaal voor vrouwen of CV’s met typisch vrouwelijke eigenschappen zoals perfectionisme, empathie en behulpzaamheid, werden daardoor benadeeld.

Discriminatie op grond van geslacht is verboden in Nederland. Ook indirecte discriminatie is verboden; ongelijke behandeling wat op zichzelf niet discriminerend is (bijvoorbeeld het criterium ‘aansluitend dienstverband’ is op zichzelf niet discriminerend) maar wel een specifieke groep meer raakt dan de andere groep. In dit geval vrouwen.

Dit risico speelt niet alleen bij discriminatie op grond van geslacht maar ook op grond van migratieachtergrond en handicap. Zoals hiervoor genoemd, speelt bij AI - anders dan bij andere selectiemethoden - dat niet alleen de zoekcriteria indirect discriminerend kunnen zijn, maar ook de data waarmee de gezochte informatie wordt vergeleken. Denk aan het bestaande mannelijke personeelsbestand bij Amazon. Dit zou voorkomen kunnen worden als de output van AI-tools constant kan worden getoetst zodat de tools kunnen worden verbeterd. Maar daar schort het nu juist vaak aan in de praktijk. Enerzijds omdat daar geen prioriteit ligt en anderzijds omdat privacywetgeving de verwerking van bepaalde data (en dus controle van systemen) verbiedt. Denk aan bijzondere persoonsgegevens zoals raciale gegevens of gegevens over de gezondheid van de sollicitant. Dat betekent dus dat een werkgever vaak niet eens weet en kan weten of een kandidaat een migratieachtergrond heeft en of er opvallend weinig kandidaten met een migratieachtergrond door de selectie zijn gekomen, terwijl het systeem deze groep wel indirect heeft gediscrimineerd.

Mogelijkheden voor sollicitanten en werknemers

Schending van anti-discriminatie regelgeving bij de inzet van AI kan leiden tot aansprakelijkheidsclaims van kandidaten en hogere ontslagvergoedingen in ontslagprocedures. Vaak kloppen kandidaten eerst aan bij het College voor de Rechten van de Mens, die vervolgens een uitspraak doet. Met die uitspraak in de hand kunnen kandidaten gemakkelijker een schadevergoeding vorderen. Het College heeft op basis van haar uitspraken richtlijnen ontwikkeld voor de inzet van AI bij werving en selectie, waaraan het College toetst. Belangrijkste punt daarbij is dat werkgevers moeten kunnen uitleggen op welke manieren de algoritmes werken en een eventuele objectieve rechtvaardiging voor indirecte discriminatie kunnen uitleggen. De selectieprocedures moeten inzichtelijk, controleerbaar en systematisch zijn en werkgevers zijn juridisch verantwoordelijk voor de AI-tools (en niet de provider van de software). Krijg je als werkgever te maken met een klacht van een werknemer bij het College, zorg dan dus dat je niet alleen in lijn met anti-discriminatiewetgeving handelt maar ook rekening houdt met de specifieke richtlijnen van het College.

Het College voor de rechten van de mens bevordert en beschermt de naleving van mensenrechten in Nederland door voorlichting, onderzoek, advies, samenwerking en toezicht op gelijkebehandelingsvraagstukken. Digitalisering biedt kansen voor betere bescherming van mensenrechten, zoals toegang tot informatie en zorg, maar brengt ook risico's zoals discriminatie door geautomatiseerde processen en onherleidbare beslissingen door algoritmes. Daarom is het College in 2020 het strategische programma Digitalisering en Mensenrechten gestart.

Privacy

Dan privacy: De AVG en de UAVG verbieden verwerking van bijzondere persoonsgegevens zoals gegevens over ras of etnische afkomst, gezondheid en biometrische gegevens, tenzij daarvoor een wettelijke uitzondering bestaat. Hier moeten werkgevers dus rekening mee houden bij de implementatie van AI-tools. Daarnaast bestaat er een breed scala aan regelgeving over de inzet van monitoring bij sollicitanten. Monitoring is breder dan AI en ziet op de inzet van digitale systemen die gedrag en functioneren van sollicitanten monitort. Europese mensenrechtenbeschermingswetgeving, onze grondwet en de AVG en UAVG bevatten regelgeving over de inzet van monitoring evenals de Wet op de Ondernemingsraden, die verplicht om bij een voorgenomen besluit om een personeelsvolgsysteem te implementeren, instemming van de ondernemingsraad te vragen. In de praktijk zien we dat rechters steeds strenger toetsen op de inzet van monitoring als de resultaten van monitoring worden gebruikt om een ontslagzaak te onderbouwen en dat bij onrechtmatige inzet van monitoring met enige regelmaat een billijke vergoeding wordt opgelegd of bewijs zelfs aan de kant wordt geschoven. Dat rechters eenzelfde kritische houding zullen hebben tegenover beslissingen op basis van AI, is te verwachten.

Wet toezicht gelijke kansen werving en selectie

Op AI vlak is het interessant dat de Wet toezicht gelijke kansen bij werving en selectie in maart 2024 door de Eerste Kamer (met een kleine meerderheid) is verworpen. Deze wet bevatte specifieke verplichtingen voor werkgevers die AI inzetten bij werving en selectie, zoals het invoeren van antidiscriminatiebeleid, de verplichting om bij AI-systemen te verifiëren dat zij geen discriminatie veroorzaken en een documentatieplicht. De Arbeidsinspectie zou verantwoordelijk worden voor handhaving hetgeen zou betekenen dat schending niet alleen tot aansprakelijkheid en hoge ontslagvergoedingen, maar ook tot boetes voor werkgevers zou kunnen leiden. Het is gelet op de huidige regering niet te verwachten dat een dergelijke wet alsnog op korte termijn wordt geïntroduceerd.

AI-verordening

Soortgelijke verplichtingen vinden we wel terug in de AI-verordening. Deze is van toepassing bij de inzet van hoog risico AI-systemen. AI-systemen die bedoeld zijn voor werving of selectie van kandidaten, met name voor het bekendmaken van vacatures, het screenen of filteren van sollicitaties en de evaluatie van kandidaten tijdens interview of tests, worden gekwalificeerd als hoog risico AI-systemen. Het voert voor nu te ver om op alle verplichtingen uit de verordening voor werkgevers in te gaan, maar de volgende regels zijn in elk geval belangrijk om te weten:

(i) werkgevers moeten zich houden aan de gebruiksaanwijzingen van de AI software. De gebruiksaanwijzingen moeten menselijk toezicht bevatten;

(ii) De input data moet relevant zijn voor het beoogde doel;

(iii) bij een verhoogd risico moet er worden gemeld door de werkgever bij de AP; (iv) er geldt een verplichting om een DPIA uit te voeren; en

(v) een informatieverplichting jegens werknemers is vereist.


Het niet voldoen aan de verplichtingen uit de verordening kent een potentieel hoge sanctie voor werkgevers: een maximale boete van EUR 15 miljoen of 3% van de totale jaarlijkse omzet.

Conclusie

Ondanks dat we in Nederland al wetgeving kennen lijkt de AI verordening welkom voor de bescherming van werknemers. De gemene deler van de verplichtingen is het vergroten van transparantie over het gebruik en de gevolgen van AI-systemen. Daar kunnen werkgevers dus al mee aan de slag.

Over de auteurs

Gerelateerd nieuws

Omstreden Chat Control-wet wederom op agenda Raad van Europa

De controversiële chat control-wetgeving staat weer op de agenda van de Raad van Europa. Onder het Hongaarse voorzitterschap wordt op 4 september 2024 gewerkt aan uitwerking van de wetstekst. De wetgeving, die voorziet in de massale controle en scanning van privécommunicatie, wordt door veel privacy- en mensenrechtenorganisaties als een bedreiging gezien voor de fundamentele rechten van burgers. Eerder dit jaar werd het wetsvoorstel, mogelijk na aanleiding van hevige kritiek plots van de agenda afgehaald. De Raad werkt nu aan een herziene versie, maar experts blijven kritisch.

Data & Privacy

Meta op het matje geroepen voor informatie over betaalde accounts

Meta werd deze zomer aangesproken door de Europese consumententoezichthouders, waar ook onze ACM deel van uit maakt. De reden is dat Meta onduidelijke en onvolledige informatie verstrekt over het aangaan van een betaald of ‘gratis’ account. Zo kan een gebruiker de gevolgen van die keuze niet goed beoordelen. Ook wordt druk uitgeoefend om een keuze te maken. Hier wordt Meta dus niet aangesproken op een schending van privacy, maar op een oneerlijke handelspraktijk uit het consumentenrecht.

Data & Privacy

Hoe ga je als privacy professional om met risico’s?

In de vakantie had ik de gelegenheid om het boek De Privacy Paradox te lezen. Het boek houdt de privacy professional een kritische spiegel voor over de wijze waarop de AVG wordt uitgevoerd en hoe met privacyrisico’s wordt omgegaan. Vanuit een andere invalshoek liet Martin van Staveren in een essay in het FD zijn licht schijnen op de wijze waarop in de maatschappij met risico’s wordt om gegaan.

Data & Privacy

AP legt Uber boete op van 290 miljoen euro om doorgifte data chauffeurs naar VS

De Autoriteit Persoonsgegevens (AP) legt Uber een boete op van 290 miljoen euro. De AP heeft geconstateerd dat Uber persoonsgegevens van Europese taxichauffeurs heeft doorgegeven naar de Verenigde Staten (VS) en dat Uber daarbij de gegevens onvoldoende heeft beschermd. Dit is volgens de AP een ernstige overtreding van de Algemene verordening gegevensbescherming (AVG). Inmiddels heeft Uber de overtreding beëindigd.

Data & Privacy