Hoewel het nog niet vaststaat dat de Autoriteit Persoonsgegevens (AP) de officiële toezichthouder voor de AI Act wordt, schetst zij al wel kaders voor het gebruik van AI- toepassingen. Laan: “De AP is duidelijk aan het voorsorteren om de primaire lokale toezichthouder op het gebied van AI te worden.”

Maar niet alleen de AP bereidt zich voor op de nieuwe regulering. Ook functionarissen gegevensbescherming (FG’s) dienen zich in te lezen in de nieuwe regulering in het digitale domein. “De AP stuurt erop aan dat Privacy Officers en FG’s zich verdiepen en gaan nadenken over de AI act,” aldus Laan.

Privacy Officers en FG’s moeten dus zelf kijken naar de mogelijke impact die de AI Act op de informatiehuishouding van hun organisatie zal hebben. Vonne Laan: “Het is duidelijk dat de AP wil dat FG’s hier iets mee doen, de vraag is alleen wat. Neem je de AI Act alleen mee in je rol als interne toezichthouder voor zover er persoonsgegevens worden verwerkt bij AI? Of zeg je als FG: ik ga ook als interne AI-toezichthouder functioneren en in de breedte – dus ook buiten het perspectief van de AVG - kijken of die systemen compliant zijn, voorsorterend op de AI Act.” Aldus Laan. “Dat laatste zal ook impact hebben op het gehele privacyteam. Als de FG toezicht gaat houden op AI compliance, in hoeverre zal het privacyteam dan betrokken zijn bij het waarborgen van de compliance?”

Governance

Organisaties die gebruikmaken van AI en onder de AI Act vallen moeten dus beoordelen hoe ze de regelgeving organisatorisch willen inrichten. Laan stelt dat veel organisaties in het kader van de AVG nog moeten werken aan governance. “In het kader van het volwassen worden van de AVG en de governance binnen organisaties moet vaak nog wel wat gebeuren als het op de onafhankelijkheid van de FG aankomt. Het moet geen slager zijn die zijn eigen vlees keurt. De FG moet dus niet zelf het werk uitvoeren en naderhand zijn eigen werk nakijken. De scheidslijnen tussen de FG enerzijds en Privacy Officers anderzijds, kan vaak nog duidelijker worden ingekaderd. Bijvoorbeeld in een beleidsstuk. De onafhankelijkheid van de FG brengt mee dat zij alleen informeert, adviseert en controleert. Dat dient ook te blijken uit de vastlegging van de posities van degenen die intern zijn betrokken bij privacy compliance.”

Volgens Laan kunnen de nieuwe wetten afleiden van privacy-compliance. Want hoewel er een aantal jaar geleden voldoende budget was voor de implementatie van de privacy- regelgeving binnen organisaties, wijst Laan op het effect dat nieuwe wetgeving heeft op de rol van FG’s. “De AI Act en andere nieuwe Europese datawetten werken soms als bliksemafleiders waardoor de FG moeilijker budget loskrijgt voor privacy-compliance gerelateerde zaken.” Al met al staan Privacy Officers en FG’s dus voor aanzienlijke uitdagingen in dit nieuwe wetgevingslandschap.

Meer weten over de rol van Privacy Officers in dit nieuwe juridische landschap? Klik hier voor de opleiding “De Nieuwe Privacy Officer: ontwikkel jezelf tot een privacy professional.”

Gerelateerd nieuws

Laat gezonde bedrijfsvoering niet afhangen van Brusselse politici

Op donderdag 13 november heeft het Europees Parlement in een stemming aangegeven in meerderheid voorstander te zijn van een verdere afzwakking van duurzaamheidsrichtlijnen voor bedrijven. Zowel in het aantal bedrijven dat hierdoor geraakt gaat worden (- 90%), als in de detaillering van de verplichtingen stellen ze forse wijzigingen voor. Lees hieronder de bijdrage van Tjeerd Krumpelman en Brigitte de Graaff.

“Ja“ tegen een AZC? Hoe gemeenten weer verbinding kunnen maken in tijden van weerstand

Angst, boosheid en wantrouwen – wat is er aan de hand?

 Het viraal gaan van het lied “Nee, nee, nee tegen een AZC” laat zien dat de weerstand die in veel dorpen en steden leeft, niet zomaar een kwestie is van “niet in mijn achtertuin”. Achter de roep om “geen AZC” schuilen dieperliggende zorgen over identiteit, veiligheid en rechtvaardigheid. Wat je er ook van vindt, het lied verwoordt de emotie die bij veel mensen leeft zodra er sprake is van een nieuw asielzoekerscentrum. Mensen maken zich zorgen over in ieder geval drie thema’s.

Zorg & Sociaal

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.