In de onderwijspraktijk worden algoritmen vooral gebruikt in adaptieve leersystemen, automatische nakijkprogramma’s en leerlingvolgsystemen. In het middelbaar beroepsonderwijs en hoger onderwijs worden daarnaast ook 'learning analytics' ingezet om de studievoortgang en onderwijskwaliteit te monitoren. Deze technologieën kunnen, mits correct ingezet, onderwijsinstellingen ondersteunen bij het identificeren van studenten die mogelijk extra hulp nodig hebben. 

Het rapport wijst echter ook op significante risico's zoals bias in algoritmen, veroorzaakt door selectief datagebruik of bepaalde programmeringsmethoden. Dergelijke bias kan leiden tot kansenongelijkheid. Algoritmen kunnen bijvoorbeeld onbedoeld minderheidsgroepen of leerlingen met leeruitdagingen zoals dyslexie benadelen. 

Daarnaast zijn er zorgen over de privacy van studenten en leerlingen. Vaak is onduidelijk wie de eigenaar is van de verzamelde data en hoe deze wordt gebruikt. 

Toezicht 

Het college stelt in haar aanbevelingen dat het Ministerie van Onderwijs meer eisen moet stellen aan toepassingen om discriminatie door algoritmen te voorkomen. Ook experts pleiten voor een nationaal beleid dat voorwaarden stelt aan het gebruik van algoritmen in het onderwijs, met bijzondere aandacht voor het testen van deze systemen op discriminatoire uitkomsten. 

“Toepassingen met algoritmen moeten zeer uitgebreid worden getest op mogelijke negatieve uitwerking voor bepaalde groepen. Dat moet allereerst door de softwareontwikkelaar worden gedaan. Vervolgens moet op landelijk niveau worden getest of systemen aan de voorwaarden voldoen. Als dat het geval is, zou er een keurmerk voor kunnen worden afgegeven.” 

Een keurmerk afgegeven door een bevoegde instantie zou onderwijsinstellingen behoeden voor het onwetend afnemen van onderwijstoepassingen die discriminatoire beslissingen nemen. “Scholen missen de expertise om uitgebreid te testen en hebben onvoldoende invloed bij de leveranciers van toepassingen. Onderwijsgevenden zouden beter moeten worden geschoold in het werken met technologie in het onderwijs. Ook zouden zij meer bewust moeten worden gemaakt van potentiële risico’s van algoritmen en manieren om die te ondervangen”, aldus het College. 

 

Onderzoek Algoritmen in het onderwijs: https://publicaties.mensenrechten.nl/publicatie/dcc74e47-c151-47fc-ab85-ed2c80d2c13f 

 

Over de auteurs

  • Christian Cordoba Lenis

    Christian Cordoba Lenis is nieuwsredacteur voor PONT | Data & Privacy. Cordoba Lenis is geïntrigeerd door het raakvlak tussen technologie en recht. Cordoba Lenis heeft zowel een juridische als een technische achtergrond en waagt zich nu aan het journalistieke vak.

    PONT | Data & Privacy

Gerelateerd nieuws

Digitalisering en AI: wat zijn de kansen en risico's?

Digitalisering en kunstmatige intelligentie (AI) veranderen de bouw ingrijpend. Wat kun je ermee in je eigen organisatie, welke risico's moet je in het oog houden en hoe krijg je medewerkers mee? We spreken met Patrick van Dongen van Bouwbedrijf Maas-Jacobs, strategisch AI-marketeer Bert Schonewille en 'baaningenieur' Luc Dorenbosch over de inzichten uit onderzoek en praktijk.

Omgeving

Nieuwe Defensiewet: klaar voor de strijd, maar tegen welke prijs?

De geopolitieke spanning aan de grenzen van Europa neemt toe. Sinds de Russische inval in Oekraïne is veiligheid geen abstract begrip meer, maar een concrete opgave. Binnen Nederland groeit het besef dat de krijgsmacht beter voorbereid moet zijn op crisissituaties en militaire dreiging. Met de Wet op de defensiegereedheid (Wodg) wil het kabinet Defensie in staat stellen sneller te schakelen van vredesorganisatie naar krijgsmacht die direct inzetbaar is bij grootschalige operaties.

De grens tussen hulpmiddel en AI in besluitvorming

Steeds vaker duikt kunstmatige intelligentie (AI) op in bestuurlijke besluitvorming, van vergunningsaanvragen tot asielprocedures. De vraag is dan wanneer een digitaal hulpmiddel als AI wordt beschouwd. En welke verantwoordelijkheden daaruit volgen voor transparantie, toetsing en documentatie.

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.