Deze publicaties en het boek “Co-intelligentie” van Ethan Mollick gebruikte ik als inspiratie voor de 5 tips.

Wat is AI-geletterdheid?

Maar eerst even: wat verstaan we onder AI geletterdheid? AI-geletterdheid betekent dat medewerkers een basiskennis hebben van wat AI is, hoe het werkt en welke toepassingen relevant zijn voor hun werk. AI geletterdheid vraagt ook dat medewerkers zich de risico’s van het gebruik realiseren. Risico’s voor de privacy, het voordoen van vertekeningen in de output en de noodzaak om transparant te zijn over het gebruik.

Tip 1: AI geletterdheid geldt ook voor organisaties die AI alleen maar gebruiken

Een misverstand dat ik in de praktijk nogal eens tegenkom: wij ontwikkelen of bieden geen AI aan. We gebruiken het alleen op zeer beperkte schaal. Daarom hebben we niets te maken met de AI Verordening en de eis van AI-geletterdheid. Niet is minder waar. De AI Act en daarmee de eis van AI-geletterdheid geldt ook als jouw organisatie alleen gebruik maakt van AI. Artikel 4 uit de AI Verordening heeft het over “gebruikersverantwoordelijken” en maakt daarmee dat het gebruik van AI onder de verordening valt.

Dus als je Copilot van Microsoft of Chatgpt in je organisatie gebruikt, ben je al gebruikersverantwoordelijke en moet je aan AI geletterdheid werken.

Tip 2: Maak een plan van aanpak

Dat klinkt misschien als een open deur, maar al te vaak kom ik nog tegen dat een organisatie enthousiast aan de slag gaat met AI. Pilots worden gestart en het gebruik aangemoedigd. Op zich een goede zaak (zie Tip 5), maar voor verantwoord gebruik van AI is meer nodig. Learning by doing is een prima manier om met AI aan de slag te gaan. Maar een toekomstbestendige aanpak vraagt om een meerjaren actieplan. Daarmee wordt draagvlak bij het bestuur gecreëerd, verantwoordelijkheden vastgelegd, budgetten bepaald en de ontwikkeling van medewerkers, de AI geletterdheid, gefaciliteerd.

Tip 3: Helaas, er is geen “one size fits all” aanpak

Een algemene aanpak om voor AI geletterdheid kan ik je helaas niet geven. Wat voor jouw organisatie een geschikte aanpak is, is afhankelijk van een aantal factoren.

Allereerst spelen de risico’s van de AI systemen die worden ingezet een rol. De AI Verordening onderscheidt 4 risico classificaties van “verboden” tot “minimaal of geen risico”. Hoe hoger het risico niveau van de AI systemen, des te hoger de eisen aan de AI geletterdheid.

Een tweede factor is het de rol die de medewerker binnen de organisatie heeft. Van bijvoorbeeld beleidsmakers, bestuurders en toezichthouders wordt een hoger kennisniveau verwacht. Zij moeten immers de juiste beleidskeuzes kunnen maken.

Als laatste is de context waarin het AI-systeem wordt ingezet ook van invloed op het benodigde niveau van AI geletterdheid. Of een systeem wordt ingezet om bijvoorbeeld lesmateriaal voor een cursus te ontwikkelen of voor assessments bij nieuwe medewerkers, maakt nogal een verschil.

Tip 4: Het gaat niet alleen om de techniek

Bij AI-geletterdheid gaat het niet alleen over de technische werking van AI-systemen, maar misschien nog wel veel meer over de sociale, ethische en praktische aspecten van het gebruik. Medewerkers moeten de output van het AI-systeem kunnen interpreteren. Ze moeten kritisch naar de output van het systeem kunnen kijken. Zich realiseren welke invloed een beslissing van een AI-systeem heeft op de mensen waarover het systeem beslist.

Kortom pas op voor het effect van de “computer says no” uit Little Britain.

Tip 5: Ga met AI aan de slag

De ontwikkelingen rondom AI gaan razendsnel en zijn onomkeerbaar. Zoals Mollick het in zijn boek stelt: dit is waarschijnlijk de slechtste AI waarmee we ooit werken. Tegelijkertijd boekt hij opvallende resultaten door AI in te zetten in zijn colleges en het zijn studenten te laten gebruiken.

Ik weet dit staat haaks op het advies van Surf, de ICT samenwerkingsorganisatie voor het onderwijs. Zij raden het gebruik van Microsoft’s Copilot af gezien de privacy risico’s. Goed dat de organisatie in gesprek hierover gaat met Microsoft, maar wachten op de uitkomst heeft het risico om achterop te raken.

En ja, er zijn nog veel vragen en onzekerheden met betrekking tot de AI Verordening die nog om verdere uitwerking vragen. Wees je bewust van deze risico’s en onzekerheden, maar ga in ieder geval al vast een aantal vingeroefeningen doen met AI-systemen en werk ook zo aan de AI-geletterdheid van je organisatie.

Over de auteurs

  • Nico Mookhoek

    Nico Mookhoek is gecertificeerd privacy professional (CIPP/E) en privacyjurist die kennis van privacy (GDPR/AVG) combineert met inzicht en ervaring met bedrijfsprocessen. Hij is bovendien gastdocent bij de Master Legal Management van de Hogeschool van Amsterdam.

Gerelateerd nieuws

ChatGPT bij de bestuursrechter: hulpmiddel of hindernis?

AI-toepassingen zoals ChatGPT zijn de afgelopen jaren doorontwikkeld van een innovatie naar een gangbaar hulpmiddel. De technologie biedt ontelbare mogelijkheden. Een logisch gevolg daarvan is dat de technologie ook wordt toegepast door betrokkenen bij een juridische procedure. De Afdeling Bestuursrechtspraak van de Raad van State (hierna: Afdeling) heeft een uitspraak gedaan over het gebruik van ChatGPT als hulpmiddel. Anne de Jong (advocaat bij Poelmann van den Broek) legt in deze blog uit dat vertrouwen op ChatGPT voor een deskundigenoordeel (vooralsnog) niet mogelijk is.

AI hard op weg om grootste energieverbruiker te worden

Het wereldwijde gebruik van kunstmatige intelligentie groeit razendsnel. Toch blijft het energieverbruik dat daarmee gepaard gaat grotendeels onzichtbaar. Onderzoek van datawetenschapper Alex de Vries-Gao wijst uit dat AI op weg is een van de grootste energieverbruikers in de digitale wereld te worden. Aan toezicht en transparantie ontbreekt het.

Mag je een VOG bewaren? Dit zegt de AVG over het verwerken van Verklaringen Omtrent het Gedrag

Veel organisaties vragen een Verklaring Omtrent het Gedrag (VOG) van een sollicitant, werknemer of vrijwilliger. Maar mag je een VOG ook bewaren? Mike Tiernagan werkt bij adviesbureau L2P en geeft antwoorden op vragen over de verantwoorde omgang met een VOG.

‘Vrijheid van meningsuiting’ voor chatbots: een gevaarlijke ontwikkeling

Recent spande de moeder van een kwetsbare jongere in de Verenigde Staten een rechtszaak aan tegen Character.AI vanwege de rol die een van hun chatbots speelde in de suïcidale gedachten van hun zoon. Character.AI beroept zich op haar beurt op ‘vrijheid van meningsuiting’. Een zorgwekkend keerpunt in het debat over de verantwoordelijkheid van tech-bedrijven in het beschermen van het welzijn van zijn gebruikers. In deze blog vertelt Nastasia Griffioen, onderzoeker en coördinator van het Expertisecentrum Digitalisering en Welzijn, waarom.

Zorg & Sociaal