Op de laatste dagen van het oude jaar kwam er opvallend nieuws naar buiten over het gebruik van ChatGPT door ambtenaren bij gemeenten. Uit een rondgang door actualiteitenprogramma EenVandaag bleek dat 74 procent van hen gebruikmaakt van de AI-tool voor hun werk (1). Dat is saillant, omdat rijksambtenaren wordt afgeraden ermee te werken vanwege allerlei risico’s.

Informatievoorziening voor burgers

Die risico’s zijn tweeledig, aldus een expert data-ethiek tegenover EenVandaag. Enerzijds dat de output van ChatGPT wordt gebruikt voor de informatievoorziening voor burgers. Die output blijkt vaak onvolledig te zijn of gewoonweg niet te kloppen. Je moet die informatie goed controleren, maar door tijdgebrek – ambtenaren hebben veel taken op hun bordje – kan dat er wel eens bij inschieten.

En anderzijds – en dat is even belangrijk – de privacyrisico’s. Even snel een vertrouwelijk overheidsdocument door ChatGPT halen, betekent potentieel ook dat diezelfde gegevens door het AI-trainingsmodel worden afgeroomd en ergens worden opgeslagen. Met alle datalekrisico’s van dien. Demissionair staatssecretaris Alexandra van Huffelen (Digitalisering) stipte het onlangs nog eens aan: we weten eigenlijk niet wat er met de data gebeurt.

Niet te krampachtig doen

Desalniettemin hebben te maken met de realiteit. De ontwikkeling van AI kun je niet tegenhouden; hoogstens proberen te reguleren om het enigszins in toom te houden. We moeten ook niet te krampachtig doen over de opmars van kunstmatige intelligentie. Op veel terreinen kan het meerwaarde hebben, de klantenservice verbeteren en werknemers in staat stellen hun werk beter te doen. Het kan voor werkgevers ook een efficiëntieslag betekenen. Het probleem met AI is wél dat de ontwikkelingen zo razendsnel gaan dat werkgevers ook niet precies weten hoe ermee om te gaan.

In hetzelfde item van EenVandaag blijkt dat 39 procent van de werkgevers niet goed weet hoe hun werknemers een AI-programma als ChatGPT gebruiken. Dat geldt dan ook voor alle andere opkomende AI-tools waarvan werkgevers misschien niet eens op de hoogte zijn. De Vereniging Nederlandse Gemeenten staat op zich niet onwelwillend tegenover het gebruik van generatieve AI, bijvoorbeeld bij het voldoen aan WOO-verzoeken – een tijdrovende klus voor veel ambtenaren - maar wil wel weten welke leveranciers en toepassingen reeds voldoen aan de wet- en regelgeving.

Maar los daarvan moet er ook gewoon een debat op de werkvloer plaatsvinden over het gebruik van generatieve AI, zodat zowel de werknemer als de werkgever inzicht krijgt in allerlei ethische en juridische dilemma’s. Laat 2024 daarom het jaar zijn van een grondig en impactvol AI-debat, zowel op de werkvloer als ook breder maatschappelijk.

  1. https://eenvandaag.avrotros.nl/item/meerderheid-gemeenten-gebruikt-chatgpt-en-bijna-de-helft-weet-niet-wat-hun-medewerkers-ermee-doen/

Over de auteurs

Gerelateerd nieuws

Nieuwe Wet bevorderen samenwerking en rechtmatige zorg maakt aanpak zorgfraude makkelijker

Binnenkort treedt wetgeving in werking die de gegevensuitwisseling in het kader van de zorgfraude mogelijk maakt; de ‘Wet bevorderen samenwerking en rechtmatige zorg’. Privacyjurist Corrie Ebbers analyseert en duidt de wet.

Data & Privacy

Het IAB oordeel uiteengezet: Is IAB Europe verwerkingsverantwoordelijke? (2/2)

In het arrest van het Hof van Justitie van de Europese Unie (“het Hof”) in de zaak van IAB Europe tegen de Belgische Gegevensbeschermingsautoriteit (“GBA”) stonden twee prejudiciële vragen centraal (1). Over het antwoord van het Hof op de eerste prejudiciële vraag, of een Transparency and Consent String (“TC-string”) een persoonsgegeven is in de zin van de Algemene Verordening Gegevensbescherming (“AVG”), schreven wij een eerste blog . Het antwoord van het Hof op tweede prejudiciële vraag, of een normerende sectororganisatie als (gezamenlijk) verwerkingsverantwoordelijke moet worden gekwalificeerd, staat in dit blog centraal.

Data & Privacy

Denk mee over het ontwerp van de BIO2

Deel je feedback: het ministerie van BZK nodigt informatiebeveiligingsexperts uit om mee te denken over het ontwerp van de BIO2, ook wel Baseline Informatiebeveiliging Overheid. De BIO2 wordt het nieuwe kader voor de overheid rondom informatiebeveiliging.

Data & Privacy

College voor de Rechten van de Mens maakt zich zorgen over algoritmen in het onderwijs: ‘Stel strengere eisen’

In een verkennend onderzoek naar het gebruik van algoritmen in het Nederlands onderwijs zet van het College voor de Rechten van de Mens vraagtekens bij de inzet van bepaalde vormen van onderwijssoftware. In haar aanbevelingen stelt het College dat de overheid moet ingrijpen en landelijke eisen moet stellen aan onderwijstoepassingen, om te voorkomen dat mogelijk discriminatoire algoritmes worden ingezet.

Data & Privacy