In de onderwijspraktijk worden algoritmen vooral gebruikt in adaptieve leersystemen, automatische nakijkprogramma’s en leerlingvolgsystemen. In het middelbaar beroepsonderwijs en hoger onderwijs worden daarnaast ook 'learning analytics' ingezet om de studievoortgang en onderwijskwaliteit te monitoren. Deze technologieën kunnen, mits correct ingezet, onderwijsinstellingen ondersteunen bij het identificeren van studenten die mogelijk extra hulp nodig hebben. 

Het rapport wijst echter ook op significante risico's zoals bias in algoritmen, veroorzaakt door selectief datagebruik of bepaalde programmeringsmethoden. Dergelijke bias kan leiden tot kansenongelijkheid. Algoritmen kunnen bijvoorbeeld onbedoeld minderheidsgroepen of leerlingen met leeruitdagingen zoals dyslexie benadelen. 

Daarnaast zijn er zorgen over de privacy van studenten en leerlingen. Vaak is onduidelijk wie de eigenaar is van de verzamelde data en hoe deze wordt gebruikt. 

Toezicht 

Het college stelt in haar aanbevelingen dat het Ministerie van Onderwijs meer eisen moet stellen aan toepassingen om discriminatie door algoritmen te voorkomen. Ook experts pleiten voor een nationaal beleid dat voorwaarden stelt aan het gebruik van algoritmen in het onderwijs, met bijzondere aandacht voor het testen van deze systemen op discriminatoire uitkomsten. 

“Toepassingen met algoritmen moeten zeer uitgebreid worden getest op mogelijke negatieve uitwerking voor bepaalde groepen. Dat moet allereerst door de softwareontwikkelaar worden gedaan. Vervolgens moet op landelijk niveau worden getest of systemen aan de voorwaarden voldoen. Als dat het geval is, zou er een keurmerk voor kunnen worden afgegeven.” 

Een keurmerk afgegeven door een bevoegde instantie zou onderwijsinstellingen behoeden voor het onwetend afnemen van onderwijstoepassingen die discriminatoire beslissingen nemen. “Scholen missen de expertise om uitgebreid te testen en hebben onvoldoende invloed bij de leveranciers van toepassingen. Onderwijsgevenden zouden beter moeten worden geschoold in het werken met technologie in het onderwijs. Ook zouden zij meer bewust moeten worden gemaakt van potentiële risico’s van algoritmen en manieren om die te ondervangen”, aldus het College. 

 

Onderzoek Algoritmen in het onderwijs: https://publicaties.mensenrechten.nl/publicatie/dcc74e47-c151-47fc-ab85-ed2c80d2c13f 

 

Over de auteurs

  • Christian Cordoba Lenis

    Christian Cordoba Lenis is nieuwsredacteur voor PONT | Data & Privacy. Cordoba Lenis is geïntrigeerd door het raakvlak tussen technologie en recht. Cordoba Lenis heeft zowel een juridische als een technische achtergrond en waagt zich nu aan het journalistieke vak.

    PONT | Data & Privacy

Gerelateerd nieuws

Inzichten en succesfactoren van proeftuinen met het Digitaal Meedoen Pakket

Onderzoekers van het Centrum voor Digitale Inclusie hebben onderzocht hoe financieel kwetsbare mensen in Nederland meer kunnen deelnemen aan de digitale samenleving. Door middel van een proeftuin onder 100 deelnemers is gekeken naar toegang tot de digitale wereld voor groepen die geen of beperkt internet hebben. Het onderzoeksrapport laat de noodzaak zien van toegang tot het internet en digitale middelen om aangesloten te blijven bij de maatschappij. De resultaten bieden concrete aanbevelingen voor overheden, beleidsmakers en organisaties om toegang tot de digitale wereld in Nederland verder te verbeteren.

Zorg & Sociaal

Naast kansen ook veel risico’s bij AI op het gebied van corruptie

Artificiële Intelligence (AI) wordt met de dag slimmer, en de afgelopen jaren wordt AI dan ook steeds meer gebruikt. Hiermee groeien echter ook de risico’s op misbruik en corruptie. Experts van Transparency International waarschuwen dat AI op verschillende manieren voor corruptie gebruikt kan worden. Daarnaast zouden sommige eigenschappen van AI corruptie ook nog eens aanlokkelijker maken. Wetgeving om misbruik tegen te gaan en corruptie te voorkomen is dan ook hard nodig.

Overheid laat burger verdwalen in de jungle van gegevensverwerking

Wat kun je als burger doen wanneer de overheid je persoonsgegevens gebruikt en daarmee besluiten neemt waar je het niet mee eens bent? Fatma Çapkurt promoveerde op een onderzoek hiernaar. Burgers moeten verwerking van hun gegevens beter kunnen beoordelen.

'Als we zo doorgaan, gaat de datacenter-sector de duurzaamheidsdoelstelling voor 2030 niet halen'

De groeiende afhankelijkheid van onze samenleving van digitale technologieën zoals AI veroorzaakt een steeds grotere ecologische voetafdruk. Kristina Irion, universitair hoofddocent aan het Instituut voor Informatierecht, onderzoekt de wetgeving en het beleid van de Europese Unie rondom datacenters. In een recent artikel leggen zij en co-auteur Jessica Commins uit waarom, ondanks maatregelen om de energie-efficiëntie en het verbruik van hernieuwbare energie te verhogen, de ongebreidelde groei van de datacentersector het bereiken van de duurzaamheidsdoelstelling voor 2030 in gevaar brengt.