De AP ziet dat veel mensen op de werkvloer gebruikmaken van digitale assistenten, zoals ChatGPT en Copilot. Bijvoorbeeld om vragen van klanten te beantwoorden of om grote dossiers samen te vatten. Dat kan tijd schelen en werknemers minder leuk werk besparen, maar er kleven ook grote risico’s aan.

Bij een datalek gaat het om toegang tot persoonsgegevens zonder dat dit mag of zonder dat dit de bedoeling is. Vaak gebruiken medewerkers de chatbots op eigen initiatief en tegen de afspraken met de werkgever in: als daarbij persoonsgegevens zijn ingevoerd, dan is sprake van een datalek. Soms is het gebruik van AI-chatbots onderdeel van het beleid van organisaties: dan is het geen datalek, maar vaak niet wettelijk toegestaan. Organisaties moeten beide situaties voorkomen.

De meeste bedrijven achter chatbots slaan alle ingevoerde gegevens op. Die gegevens komen daardoor terecht op de servers van die techbedrijven, vaak zonder dat degene die de data invoerde zich dat realiseert. En zonder dat die precies weet wat dat bedrijf met die gegevens gaat doen. De persoon van wie de gegevens zijn, zal dat bovendien ook niet weten.

Medische gegevens en adressen van klanten

Bij een van de datalekken waarvan de AP een melding kreeg, had een medewerker van een huisartsenpraktijk – tegen de afspraken in – medische gegevens van patiënten ingevoerd in een AI-chatbot. Medische gegevens zijn zeer gevoelige gegevens en krijgen niet voor niets extra bescherming in de wet. Die gegevens zomaar delen met een techbedrijf is een grote schending van de privacy van de mensen om wie het gaat.

Ook kreeg de AP een melding binnen van een telecombedrijf, waar een medewerker een bestand met onder meer adressen van klanten had ingevoerd in een AI-chatbot.

Maak afspraken

Het is belangrijk dat organisaties met hun medewerkers duidelijke afspraken maken over de inzet van AI-chatbots. Mogen medewerkers chatbots gebruiken, of liever niet? En als organisaties het toestaan, moeten zij aan medewerkers duidelijk maken welke gegevens zij wel en niet mogen invoeren. Organisaties zouden ook met de aanbieder van een chatbot kunnen regelen dat die de ingevoerde gegevens niet opslaat.

Meld datalekken

Gaat het toch mis, en lekt een medewerker persoonsgegevens door tegen de gemaakte afspraken in een chatbot te gebruiken? Dan is een melding aan de AP en aan de slachtoffers in veel gevallen verplicht.

Gerelateerd nieuws

Waar eindigt de mens en begint de machine?

In deze zaak kreeg het Amtsgericht München de vraag voorgelegd hoe auteursrechtelijke bescherming moet worden toegepast op AI‑gegenereerde content. Waar mijn collega Luuk Jonker eerder schreef over AI‑gegenereerde songteksten, richt deze nieuwe zaak zich op iets visueels: drie door AI gemaakte logo’s.

Data & Privacy

AI onder de loep: de dunne lijn tussen innovatie en verboden praktijken

In april 2021 presenteerde de Europese Commissie het wetsvoorstel voor de AI-verordening. De noodzaak van deze regelgeving werd duidelijk door de snelle technologische ontwikkelingen en de risico’s die AI met zich meebrengt voor de veiligheid van producten en de grondrechten van EU-burgers. Toen het voorstel werd geïntroduceerd, kon niemand voorspellen hoe generatieve AI, zoals ChatGPT, in 2023 de wereld zou veranderen. Haast was dus geboden. Nu is haast in het juridische domein iets anders van aard dan in het IT-domein. Ruim drie jaar na indiening van het wetsvoorstel trad de AI-verordening in augustus 2024 in werking. De verboden uit de AI-verordening en de vereisten voor AI-geletterdheid zijn op dit moment al van toepassing, de vereisten voor hoog risico-systemen nog niet.

Online drogisterijen en webshops delen gevoelige gezondheidsdata met Big Tech

Dat blijkt uit onderzoek van Investico, in samenwerking met De Groene Amsterdammer en tv-programma Radar. Privacy First dringt aan op actie om deze praktijken te stoppen.

Nederland als privacygidsland: voorbij het DPIA-infuus

Tijdens de Nationale Privacy Conferentie op 28 januari 2026 opende Bart Schellekens met een prikkelende vraag: kan Nederland zich positioneren als privacygidsland? In zijn lezing – en in het gesprek dat PONT | Data & Privacy daarna met hem voerde – schetste hij een land dat op een kantelpunt staat. “Ik denk dat we het in Nederland heel goed doen. Een ruim voldoende is denk ik terecht”. Maar dat betekent niet dat er geen werk meer aan de winkel is.