Deze publicaties en het boek “Co-intelligentie” van Ethan Mollick gebruikte ik als inspiratie voor de 5 tips.

Wat is AI-geletterdheid?

Maar eerst even: wat verstaan we onder AI geletterdheid? AI-geletterdheid betekent dat medewerkers een basiskennis hebben van wat AI is, hoe het werkt en welke toepassingen relevant zijn voor hun werk. AI geletterdheid vraagt ook dat medewerkers zich de risico’s van het gebruik realiseren. Risico’s voor de privacy, het voordoen van vertekeningen in de output en de noodzaak om transparant te zijn over het gebruik.

Tip 1: AI geletterdheid geldt ook voor organisaties die AI alleen maar gebruiken

Een misverstand dat ik in de praktijk nogal eens tegenkom: wij ontwikkelen of bieden geen AI aan. We gebruiken het alleen op zeer beperkte schaal. Daarom hebben we niets te maken met de AI Verordening en de eis van AI-geletterdheid. Niet is minder waar. De AI Act en daarmee de eis van AI-geletterdheid geldt ook als jouw organisatie alleen gebruik maakt van AI. Artikel 4 uit de AI Verordening heeft het over “gebruikersverantwoordelijken” en maakt daarmee dat het gebruik van AI onder de verordening valt.

Dus als je Copilot van Microsoft of Chatgpt in je organisatie gebruikt, ben je al gebruikersverantwoordelijke en moet je aan AI geletterdheid werken.

Tip 2: Maak een plan van aanpak

Dat klinkt misschien als een open deur, maar al te vaak kom ik nog tegen dat een organisatie enthousiast aan de slag gaat met AI. Pilots worden gestart en het gebruik aangemoedigd. Op zich een goede zaak (zie Tip 5), maar voor verantwoord gebruik van AI is meer nodig. Learning by doing is een prima manier om met AI aan de slag te gaan. Maar een toekomstbestendige aanpak vraagt om een meerjaren actieplan. Daarmee wordt draagvlak bij het bestuur gecreëerd, verantwoordelijkheden vastgelegd, budgetten bepaald en de ontwikkeling van medewerkers, de AI geletterdheid, gefaciliteerd.

Tip 3: Helaas, er is geen “one size fits all” aanpak

Een algemene aanpak om voor AI geletterdheid kan ik je helaas niet geven. Wat voor jouw organisatie een geschikte aanpak is, is afhankelijk van een aantal factoren.

Allereerst spelen de risico’s van de AI systemen die worden ingezet een rol. De AI Verordening onderscheidt 4 risico classificaties van “verboden” tot “minimaal of geen risico”. Hoe hoger het risico niveau van de AI systemen, des te hoger de eisen aan de AI geletterdheid.

Een tweede factor is het de rol die de medewerker binnen de organisatie heeft. Van bijvoorbeeld beleidsmakers, bestuurders en toezichthouders wordt een hoger kennisniveau verwacht. Zij moeten immers de juiste beleidskeuzes kunnen maken.

Als laatste is de context waarin het AI-systeem wordt ingezet ook van invloed op het benodigde niveau van AI geletterdheid. Of een systeem wordt ingezet om bijvoorbeeld lesmateriaal voor een cursus te ontwikkelen of voor assessments bij nieuwe medewerkers, maakt nogal een verschil.

Tip 4: Het gaat niet alleen om de techniek

Bij AI-geletterdheid gaat het niet alleen over de technische werking van AI-systemen, maar misschien nog wel veel meer over de sociale, ethische en praktische aspecten van het gebruik. Medewerkers moeten de output van het AI-systeem kunnen interpreteren. Ze moeten kritisch naar de output van het systeem kunnen kijken. Zich realiseren welke invloed een beslissing van een AI-systeem heeft op de mensen waarover het systeem beslist.

Kortom pas op voor het effect van de “computer says no” uit Little Britain.

Tip 5: Ga met AI aan de slag

De ontwikkelingen rondom AI gaan razendsnel en zijn onomkeerbaar. Zoals Mollick het in zijn boek stelt: dit is waarschijnlijk de slechtste AI waarmee we ooit werken. Tegelijkertijd boekt hij opvallende resultaten door AI in te zetten in zijn colleges en het zijn studenten te laten gebruiken.

Ik weet dit staat haaks op het advies van Surf, de ICT samenwerkingsorganisatie voor het onderwijs. Zij raden het gebruik van Microsoft’s Copilot af gezien de privacy risico’s. Goed dat de organisatie in gesprek hierover gaat met Microsoft, maar wachten op de uitkomst heeft het risico om achterop te raken.

En ja, er zijn nog veel vragen en onzekerheden met betrekking tot de AI Verordening die nog om verdere uitwerking vragen. Wees je bewust van deze risico’s en onzekerheden, maar ga in ieder geval al vast een aantal vingeroefeningen doen met AI-systemen en werk ook zo aan de AI-geletterdheid van je organisatie.

Over de auteurs

  • Nico Mookhoek

    Nico Mookhoek is gecertificeerd privacy professional (CIPP/E) en privacyjurist die kennis van privacy (GDPR/AVG) combineert met inzicht en ervaring met bedrijfsprocessen. Hij is bovendien gastdocent bij de Master Legal Management van de Hogeschool van Amsterdam.

Gerelateerd nieuws

Vertrouwen krijgen in data en datakwaliteit door middel van data lineage

Data wordt in grote hoeveelheden en soorten aangemaakt, geanalyseerd, rondgestuurd en gebruikt voor uiteenlopende doeleinden. Denk hierbij aan foto’s delen op social media, maar ook aan registratie van persoonsgegevens door overheidsinstanties. Bij gebruik van data is de oorsprong en kwaliteit hiervan niet altijd bekend. Maar ook wanneer data aangemaakt wordt, is er niet altijd zicht op hoe deze data gebruikt gaat worden. Voor een digitaler wordende rechtsstaat is het noodzakelijk om als maatschappij en overheid vertrouwen te kunnen hebben in data en de kwaliteit ervan—data lineage kan daaraan bijdragen, aldus een nieuw WODC-rapport.

Data & Privacy

Hoe ‘Big Tech’ onze democratie ondermijnt

Techgiganten zoals Google, Apple en Microsoft bepalen steeds meer de digitale wereld waarin we leven. Reijer Passchier waarschuwt: ‘Er zijn dringend maatregelen nodig om deze invloed in te perken.’

AI: kansen en keuzes

Digitalisering is een fundamentele transitie en artificiële intelligentie (AI) speelt daarin een hoofdrol. De manier waarop we werken, ondernemen, communiceren en samenleven is aan het veranderen. En dat gaan we de komende jaren merken. De vraag is niet of, maar hoe en waarvoor we AI inzetten en of dat de brede welvaart dient.

Yuri Bobbert wint prestigieuze leiderschapsprijs: ‘Europa moet innoveren, niet dereguleren’

Professor Dr. Yuri Bobbert won afgelopen maand de ISACA Leadership Award voor zijn “substantial impact as a serial entrepreneur, business executive and professor, excelling in both business and academia.” ISACA is wereldwijd de grootste gemeenschap van digitale specialisten en reikt de award jaarlijks uit aan leiders in dit digitale domein. Bobbert is de eerste Nederlander in ISACA’s 50 jarig bestaan die deze award in ontvangst mag nemen. Daarnaast is Bobbert professor aan de Antwerp Management School, waar hij studenten begeleidt om hun ideeën uit te werken naar tastbare oplossingen. PONT | Data & Privacy sprak hem over zijn nominatie, cybersecurity als maatschappelijke uitdaging en de regeldruk in Europa. Over dat laatste is de professor duidelijk, “Europa moet innoveren, niet dereguleren.”

Data & Privacy