In de onderwijspraktijk worden algoritmen vooral gebruikt in adaptieve leersystemen, automatische nakijkprogramma’s en leerlingvolgsystemen. In het middelbaar beroepsonderwijs en hoger onderwijs worden daarnaast ook 'learning analytics' ingezet om de studievoortgang en onderwijskwaliteit te monitoren. Deze technologieën kunnen, mits correct ingezet, onderwijsinstellingen ondersteunen bij het identificeren van studenten die mogelijk extra hulp nodig hebben. 

Het rapport wijst echter ook op significante risico's zoals bias in algoritmen, veroorzaakt door selectief datagebruik of bepaalde programmeringsmethoden. Dergelijke bias kan leiden tot kansenongelijkheid. Algoritmen kunnen bijvoorbeeld onbedoeld minderheidsgroepen of leerlingen met leeruitdagingen zoals dyslexie benadelen. 

Daarnaast zijn er zorgen over de privacy van studenten en leerlingen. Vaak is onduidelijk wie de eigenaar is van de verzamelde data en hoe deze wordt gebruikt. 

Toezicht 

Het college stelt in haar aanbevelingen dat het Ministerie van Onderwijs meer eisen moet stellen aan toepassingen om discriminatie door algoritmen te voorkomen. Ook experts pleiten voor een nationaal beleid dat voorwaarden stelt aan het gebruik van algoritmen in het onderwijs, met bijzondere aandacht voor het testen van deze systemen op discriminatoire uitkomsten. 

“Toepassingen met algoritmen moeten zeer uitgebreid worden getest op mogelijke negatieve uitwerking voor bepaalde groepen. Dat moet allereerst door de softwareontwikkelaar worden gedaan. Vervolgens moet op landelijk niveau worden getest of systemen aan de voorwaarden voldoen. Als dat het geval is, zou er een keurmerk voor kunnen worden afgegeven.” 

Een keurmerk afgegeven door een bevoegde instantie zou onderwijsinstellingen behoeden voor het onwetend afnemen van onderwijstoepassingen die discriminatoire beslissingen nemen. “Scholen missen de expertise om uitgebreid te testen en hebben onvoldoende invloed bij de leveranciers van toepassingen. Onderwijsgevenden zouden beter moeten worden geschoold in het werken met technologie in het onderwijs. Ook zouden zij meer bewust moeten worden gemaakt van potentiële risico’s van algoritmen en manieren om die te ondervangen”, aldus het College. 

 

Onderzoek Algoritmen in het onderwijs: https://publicaties.mensenrechten.nl/publicatie/dcc74e47-c151-47fc-ab85-ed2c80d2c13f 

 

Over de auteurs

  • Christian Cordoba Lenis

    Christian Cordoba Lenis is nieuwsredacteur voor PONT | Data & Privacy. Cordoba Lenis is geïntrigeerd door het raakvlak tussen technologie en recht. Cordoba Lenis heeft zowel een juridische als een technische achtergrond en waagt zich nu aan het journalistieke vak.

    PONT | Data & Privacy

Gerelateerd nieuws

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.

AI en Auteursrecht: waarom een uitspraak uit München alles verandert

Op 11 november 2025 deed het Landesgericht München uitspraak in een zaak die de juridische wereld én de techsector op scherp zet: GEMA tegen OpenAI (zaaknummer 42 O 14139/24). Het ging om de vraag of het gebruik van auteursrechtelijk beschermde songteksten door generatieve AI-modellen zoals ChatGPT in strijd is met het auteursrecht. Het antwoord van de rechtbank? Ja. En dat is best baanbrekend.

Topbestuurders zien AI als oplossing voor klimaatambities, niet als bedreiging

Topbestuurders zien Kunstmatige Intelligentie (AI) als belangrijk hulpmiddel voor het behalen van klimaatdoelen. Dat blijkt uit een wereldwijd onderzoek van KPMG onder ruim 1.200 CEO’s en bestuursvoorzitters in twintig landen. De meeste ondervraagde topbestuurders (87 procent) geven aan dat AI-toepassingen bijdragen aan het realiseren van net-zero-doelen. Hoewel slechts 30 procent van de organisaties op korte termijn prioriteit geeft aan het verbeteren van het energieverbruik door AI, is 96 procent ervan overtuigd dat er in de toekomst voldoende duurzame energie beschikbaar zal zijn om aan de energievraag van AI te voldoen.