Meta Ierland is verantwoordelijk voor het aanbieden van Facebook in Europa. Het bedrijf verdient geld door gepersonaliseerde advertenties te verkopen, waaronder vacatureadvertenties. Een algoritme bepaalt welke advertentie aan welke gebruiker wordt getoond.  

Geslacht onderdeel van algoritme

Het algoritme van Meta leert aan de hand van het klik-gedrag van de Facebookgebruikers. Hierdoor kan een eenzijdig beeld ontstaan van die gebruiker. Dit kan ervoor zorgen dat het algoritme stereotypering bevordert als het niet gemonitord wordt. Meta erkent dat ‘geslacht’ als datapunt onderdeel is van het algoritme en ontkracht niet dat stereotypering via het algoritme kan plaatsvinden. 

Uit onderzoek van Global Witness blijkt dat de vacature voor de functie van receptionist voor 96% (2022) en 97% (2023) aan vrouwelijke Facebookgebruikers werd getoond. De vacature van monteur is voor 96% (2022 en 2023) aan mannelijke Facebookgebruikers getoond.

Indirecte discriminatie

Het College oordeelt dat er sprake is van indirect onderscheid op grond van geslacht. Bij indirect onderscheid lijkt een handelwijze of bepaling neutraal, maar raakt het mensen met een bepaald geslacht toch in het bijzonder. Indirect onderscheid is verboden, tenzij er een goede reden voor is (objectieve rechtvaardiging). Deze rechtvaardiging hangt af van het doel dat met het onderscheid wordt nagestreefd en het middel dat daarvoor wordt ingezet. Het doel moet legitiem zijn en het ingezette middel moet passend en noodzakelijk zijn. 

Legitiem doel?

Meta geeft aan adverteerders de beste service en waar voor hun geld te willen bieden. Dit doen zij door de vacatureadvertenties op zo’n manier te publiceren dat de adverteerder zijn doelstellingen bereikt. Ook wil Meta Facebookgebruikers de beste ervaring bieden, door hen advertenties te tonen die hen hoogstwaarschijnlijk interesseren. Het College oordeelt dat dat een legitiem doel is. 
Maar is het middel wel noodzakelijk om deze doelen te bereiken? Hiervoor moet het middel aan twee vereisten voldoen:

  • Proportionaliteit: staat het belang in verhouding tot de inbreuk? 

  • Subsidiariteit: is er een minder ingrijpend middel mogelijk waarmee je het doel kan bereiken?

Middel te zwaar

Het College oordeelt dat het middel niet aan de twee vereisten voldoet. Als social media-platform heeft Meta de verantwoordelijkheid om de werking van het algoritme goed te monitoren. Ook moet er onderzoek worden gedaan naar de vraag of en hoe er stereotypering optreedt in het advertentiealgoritme. Met welke data worden de algoritmes getraind? En hoe pakken de algoritmeselecties uit voor verschillende groepen mensen? Als het nodig is, moet Meta maatregelen treffen om de stereotypering versterkende werking te neutraliseren. 

Conclusie

Het College heeft niet kunnen vaststellen dat Meta de benodigde actie onderneemt en concludeert dat het indirecte onderscheid niet noodzakelijk is. Het advertentiealgoritme van Meta discrimineert daarom op grond van geslacht. 

Lees het hele oordeel 2025-17.

Gerelateerd nieuws

Algoritmeregistratie in Nederland moet beter

Overheden en organisaties boeken te weinig voortgang met de registratie van de algoritme- en AI-systemen die zij gebruiken. Hierdoor is het voor burgers en klanten vaak niet duidelijk waarvoor en hoe overheden en organisaties AI en algoritmes gebruiken. Een compleet algoritmeregister is de basis voor transparantie, bescherming van grondrechten, uitlegbaarheid en controleerbaarheid bij de inzet van algoritmes en AI.

Data & Privacy

Hoe AI de structuur van organisaties hervormt

Kunstmatige intelligentie (AI) is al lang niet meer iets voor enkel de IT-afdeling binnen een organisatie: meer dan de helft van werkend Nederland zet AI in om hun eigen productiviteit te verhogen, zo blijkt uit een wereldwijd onderzoek van het Amerikaanse softwarebedrijf Freshworks.

Digitale soevereiniteit is een politieke keuze

Onze samenleving digitaliseert in razend tempo. Van zorg en onderwijs tot belastingaangifte en communicatie: vrijwel alles verloopt tegenwoordig (deels) digitaal. Tegelijkertijd verliezen we als samenleving de grip op de technologie die dit mogelijk maakt.

Data & Privacy

Waarom je als General Counsel nú werk moet maken van een Fundamental Rights Impact Assessment (FRIA)

Welke ethische afwegingen maak je als General Counsel bij de inzet van AI? De FRIA (Fundamental Rights Impact Assessment) helpt om risico’s voor grondrechten vroegtijdig te signaleren. Lees waarom dit essentieel is en hoe het bijdraagt aan compliance, transparantie en vertrouwen.