Deze publicaties en het boek “Co-intelligentie” van Ethan Mollick gebruikte ik als inspiratie voor de 5 tips.

Wat is AI-geletterdheid?

Maar eerst even: wat verstaan we onder AI geletterdheid? AI-geletterdheid betekent dat medewerkers een basiskennis hebben van wat AI is, hoe het werkt en welke toepassingen relevant zijn voor hun werk. AI geletterdheid vraagt ook dat medewerkers zich de risico’s van het gebruik realiseren. Risico’s voor de privacy, het voordoen van vertekeningen in de output en de noodzaak om transparant te zijn over het gebruik.

Tip 1: AI geletterdheid geldt ook voor organisaties die AI alleen maar gebruiken

Een misverstand dat ik in de praktijk nogal eens tegenkom: wij ontwikkelen of bieden geen AI aan. We gebruiken het alleen op zeer beperkte schaal. Daarom hebben we niets te maken met de AI Verordening en de eis van AI-geletterdheid. Niet is minder waar. De AI Act en daarmee de eis van AI-geletterdheid geldt ook als jouw organisatie alleen gebruik maakt van AI. Artikel 4 uit de AI Verordening heeft het over “gebruikersverantwoordelijken” en maakt daarmee dat het gebruik van AI onder de verordening valt.

Dus als je Copilot van Microsoft of Chatgpt in je organisatie gebruikt, ben je al gebruikersverantwoordelijke en moet je aan AI geletterdheid werken.

Tip 2: Maak een plan van aanpak

Dat klinkt misschien als een open deur, maar al te vaak kom ik nog tegen dat een organisatie enthousiast aan de slag gaat met AI. Pilots worden gestart en het gebruik aangemoedigd. Op zich een goede zaak (zie Tip 5), maar voor verantwoord gebruik van AI is meer nodig. Learning by doing is een prima manier om met AI aan de slag te gaan. Maar een toekomstbestendige aanpak vraagt om een meerjaren actieplan. Daarmee wordt draagvlak bij het bestuur gecreëerd, verantwoordelijkheden vastgelegd, budgetten bepaald en de ontwikkeling van medewerkers, de AI geletterdheid, gefaciliteerd.

Tip 3: Helaas, er is geen “one size fits all” aanpak

Een algemene aanpak om voor AI geletterdheid kan ik je helaas niet geven. Wat voor jouw organisatie een geschikte aanpak is, is afhankelijk van een aantal factoren.

Allereerst spelen de risico’s van de AI systemen die worden ingezet een rol. De AI Verordening onderscheidt 4 risico classificaties van “verboden” tot “minimaal of geen risico”. Hoe hoger het risico niveau van de AI systemen, des te hoger de eisen aan de AI geletterdheid.

Een tweede factor is het de rol die de medewerker binnen de organisatie heeft. Van bijvoorbeeld beleidsmakers, bestuurders en toezichthouders wordt een hoger kennisniveau verwacht. Zij moeten immers de juiste beleidskeuzes kunnen maken.

Als laatste is de context waarin het AI-systeem wordt ingezet ook van invloed op het benodigde niveau van AI geletterdheid. Of een systeem wordt ingezet om bijvoorbeeld lesmateriaal voor een cursus te ontwikkelen of voor assessments bij nieuwe medewerkers, maakt nogal een verschil.

Tip 4: Het gaat niet alleen om de techniek

Bij AI-geletterdheid gaat het niet alleen over de technische werking van AI-systemen, maar misschien nog wel veel meer over de sociale, ethische en praktische aspecten van het gebruik. Medewerkers moeten de output van het AI-systeem kunnen interpreteren. Ze moeten kritisch naar de output van het systeem kunnen kijken. Zich realiseren welke invloed een beslissing van een AI-systeem heeft op de mensen waarover het systeem beslist.

Kortom pas op voor het effect van de “computer says no” uit Little Britain.

Tip 5: Ga met AI aan de slag

De ontwikkelingen rondom AI gaan razendsnel en zijn onomkeerbaar. Zoals Mollick het in zijn boek stelt: dit is waarschijnlijk de slechtste AI waarmee we ooit werken. Tegelijkertijd boekt hij opvallende resultaten door AI in te zetten in zijn colleges en het zijn studenten te laten gebruiken.

Ik weet dit staat haaks op het advies van Surf, de ICT samenwerkingsorganisatie voor het onderwijs. Zij raden het gebruik van Microsoft’s Copilot af gezien de privacy risico’s. Goed dat de organisatie in gesprek hierover gaat met Microsoft, maar wachten op de uitkomst heeft het risico om achterop te raken.

En ja, er zijn nog veel vragen en onzekerheden met betrekking tot de AI Verordening die nog om verdere uitwerking vragen. Wees je bewust van deze risico’s en onzekerheden, maar ga in ieder geval al vast een aantal vingeroefeningen doen met AI-systemen en werk ook zo aan de AI-geletterdheid van je organisatie.

Over de auteurs

  • Nico Mookhoek

    Nico Mookhoek is gecertificeerd privacy professional (CIPP/E) en privacyjurist die kennis van privacy (GDPR/AVG) combineert met inzicht en ervaring met bedrijfsprocessen. Hij is bovendien gastdocent bij de Master Legal Management van de Hogeschool van Amsterdam.

Gerelateerd nieuws

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.

AI en Auteursrecht: waarom een uitspraak uit München alles verandert

Op 11 november 2025 deed het Landesgericht München uitspraak in een zaak die de juridische wereld én de techsector op scherp zet: GEMA tegen OpenAI (zaaknummer 42 O 14139/24). Het ging om de vraag of het gebruik van auteursrechtelijk beschermde songteksten door generatieve AI-modellen zoals ChatGPT in strijd is met het auteursrecht. Het antwoord van de rechtbank? Ja. En dat is best baanbrekend.

Topbestuurders zien AI als oplossing voor klimaatambities, niet als bedreiging

Topbestuurders zien Kunstmatige Intelligentie (AI) als belangrijk hulpmiddel voor het behalen van klimaatdoelen. Dat blijkt uit een wereldwijd onderzoek van KPMG onder ruim 1.200 CEO’s en bestuursvoorzitters in twintig landen. De meeste ondervraagde topbestuurders (87 procent) geven aan dat AI-toepassingen bijdragen aan het realiseren van net-zero-doelen. Hoewel slechts 30 procent van de organisaties op korte termijn prioriteit geeft aan het verbeteren van het energieverbruik door AI, is 96 procent ervan overtuigd dat er in de toekomst voldoende duurzame energie beschikbaar zal zijn om aan de energievraag van AI te voldoen.