Op de laatste dagen van het oude jaar kwam er opvallend nieuws naar buiten over het gebruik van ChatGPT door ambtenaren bij gemeenten. Uit een rondgang door actualiteitenprogramma EenVandaag bleek dat 74 procent van hen gebruikmaakt van de AI-tool voor hun werk (1). Dat is saillant, omdat rijksambtenaren wordt afgeraden ermee te werken vanwege allerlei risico’s.

Informatievoorziening voor burgers

Die risico’s zijn tweeledig, aldus een expert data-ethiek tegenover EenVandaag. Enerzijds dat de output van ChatGPT wordt gebruikt voor de informatievoorziening voor burgers. Die output blijkt vaak onvolledig te zijn of gewoonweg niet te kloppen. Je moet die informatie goed controleren, maar door tijdgebrek – ambtenaren hebben veel taken op hun bordje – kan dat er wel eens bij inschieten.

En anderzijds – en dat is even belangrijk – de privacyrisico’s. Even snel een vertrouwelijk overheidsdocument door ChatGPT halen, betekent potentieel ook dat diezelfde gegevens door het AI-trainingsmodel worden afgeroomd en ergens worden opgeslagen. Met alle datalekrisico’s van dien. Demissionair staatssecretaris Alexandra van Huffelen (Digitalisering) stipte het onlangs nog eens aan: we weten eigenlijk niet wat er met de data gebeurt.

Niet te krampachtig doen

Desalniettemin hebben te maken met de realiteit. De ontwikkeling van AI kun je niet tegenhouden; hoogstens proberen te reguleren om het enigszins in toom te houden. We moeten ook niet te krampachtig doen over de opmars van kunstmatige intelligentie. Op veel terreinen kan het meerwaarde hebben, de klantenservice verbeteren en werknemers in staat stellen hun werk beter te doen. Het kan voor werkgevers ook een efficiëntieslag betekenen. Het probleem met AI is wél dat de ontwikkelingen zo razendsnel gaan dat werkgevers ook niet precies weten hoe ermee om te gaan.

In hetzelfde item van EenVandaag blijkt dat 39 procent van de werkgevers niet goed weet hoe hun werknemers een AI-programma als ChatGPT gebruiken. Dat geldt dan ook voor alle andere opkomende AI-tools waarvan werkgevers misschien niet eens op de hoogte zijn. De Vereniging Nederlandse Gemeenten staat op zich niet onwelwillend tegenover het gebruik van generatieve AI, bijvoorbeeld bij het voldoen aan WOO-verzoeken – een tijdrovende klus voor veel ambtenaren - maar wil wel weten welke leveranciers en toepassingen reeds voldoen aan de wet- en regelgeving.

Maar los daarvan moet er ook gewoon een debat op de werkvloer plaatsvinden over het gebruik van generatieve AI, zodat zowel de werknemer als de werkgever inzicht krijgt in allerlei ethische en juridische dilemma’s. Laat 2024 daarom het jaar zijn van een grondig en impactvol AI-debat, zowel op de werkvloer als ook breder maatschappelijk.

  1. https://eenvandaag.avrotros.nl/item/meerderheid-gemeenten-gebruikt-chatgpt-en-bijna-de-helft-weet-niet-wat-hun-medewerkers-ermee-doen/

Over de auteurs

  • Tom Reijner

    Tom Reijner is Freelance journalist, onderzoeker en podcastmaker.

Gerelateerd nieuws

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.

AI en Auteursrecht: waarom een uitspraak uit München alles verandert

Op 11 november 2025 deed het Landesgericht München uitspraak in een zaak die de juridische wereld én de techsector op scherp zet: GEMA tegen OpenAI (zaaknummer 42 O 14139/24). Het ging om de vraag of het gebruik van auteursrechtelijk beschermde songteksten door generatieve AI-modellen zoals ChatGPT in strijd is met het auteursrecht. Het antwoord van de rechtbank? Ja. En dat is best baanbrekend.

Topbestuurders zien AI als oplossing voor klimaatambities, niet als bedreiging

Topbestuurders zien Kunstmatige Intelligentie (AI) als belangrijk hulpmiddel voor het behalen van klimaatdoelen. Dat blijkt uit een wereldwijd onderzoek van KPMG onder ruim 1.200 CEO’s en bestuursvoorzitters in twintig landen. De meeste ondervraagde topbestuurders (87 procent) geven aan dat AI-toepassingen bijdragen aan het realiseren van net-zero-doelen. Hoewel slechts 30 procent van de organisaties op korte termijn prioriteit geeft aan het verbeteren van het energieverbruik door AI, is 96 procent ervan overtuigd dat er in de toekomst voldoende duurzame energie beschikbaar zal zijn om aan de energievraag van AI te voldoen.