Waar organisaties bij nieuwe technologieën vaak als eerste naar de nieuwste AI-tools kijken, ziet Ter Maten een verschuiving. De focus ligt niet meer uitsluitend op het ‘wat’, maar op het ‘waarom’ en ‘hoe’. AI wordt steeds vaker gezien als een kompas: het kan richting geven, maar de mens blijft verantwoordelijk voor de koers en eindbestemming.

Volgens Ter Maten is het essentieel dat organisaties niet starten met de vraag welke tool ze willen inzetten, maar met de vraag waarom ze AI überhaupt willen gebruiken. Welke problemen proberen ze op te lossen? Deze omkering in denken is volgens haar cruciaal voor succesvolle en ethisch verantwoorde toepassing van AI.

Van optimalisatie naar transformatie

Veel organisaties proberen AI toe te passen op bestaande processen, in de hoop dat deze efficiënter worden. Maar dat is volgens Ter Maten een gemiste kans. Technologieën als AI, cloud en blockchain bieden de mogelijkheid om processen fundamenteel opnieuw in te richten. Dat vereist loskomen van oude aannames en structuren, en vraagt om reflectie op het onderliggende doel van processen. “Je kunt bestaande processen niet simpelweg besprenkelen met AI, het vraagt om fundamenteel andere keuzes en het loslaten van oude denkkaders.”

De urgentie van AI ligt dan ook niet in de voordelen die het direct oplevert, maar in de risico’s van achterblijven. Wie te laat beweegt, loopt het risico irrelevant te worden, zoals eerder gebeurde met bedrijven die digitale transities niet op tijd doormaakten.

Governance als fundament

Een succesvolle inzet van AI vraagt om meer dan technologische kennis. Governance is de sleutel – het raamwerk van afspraken over datagebruik, verantwoordelijkheden en samenwerking. Ter Maten benadrukt dat AI niet alleen processen verandert, maar ook de onderliggende rollen en structuren binnen organisaties. Dat vraagt om herziening van wie toegang heeft tot welke data, welke partijen betrokken zijn en hoe verantwoording wordt afgelegd.

Daarbij komt dat AI ook nieuwe soorten data kan genereren, namelijk data die vooraf niet in beeld waren, maar wél beleidsmatige implicaties hebben. Zonder duidelijke governance ontstaan risico’s voor compliance, privacy en ethiek. AI is dan ook geen ICT-project, maar een strategisch organisatievraagstuk.

Bias en privacy: blinde vlekken in het AI-landschap

Een van de grootste risico’s bij het toepassen van AI in compliance is bias in de onderliggende data. Als een AI-systeem wordt getraind op bestaande gegevens waarin vooroordelen zitten – bewust of onbewust – kunnen deze worden gereproduceerd en zelfs versterkt. Dit kan leiden tot uitkomsten die discriminerend zijn of niet in lijn met wet- en regelgeving.

Ter Maten haalt een bekend voorbeeld uit de medische sector aan: een AI-model kon op basis van netvliesbeelden niet alleen diabetes voorspellen – iets wat artsen ook al konden – maar daarnaast ook het geslacht van een patiënt afleiden, iets wat menselijke onderzoekers niet uit die beelden kunnen halen. Dit illustreert hoe AI patronen en correlaties kan herkennen die voor mensen onzichtbaar zijn. Soms leidt dit tot ongewenste uitkomsten of false positives, maar het kan ook juist nieuwe inzichten en wetenschappelijke doorbraken opleveren.

Juist omdat AI anders ‘kijkt’ dan mensen, is het belangrijk om kritisch te blijven op de uitkomsten: zijn ze relevant, wenselijk en juridisch toelaatbaar? AI die wordt getraind op bestaande, mogelijk bevooroordeelde data, kan onbedoeld discriminatie in stand houden. Bovendien kunnen AI-systemen op basis van onschuldige of niet-identificeerbare gegevens tóch personen herleiden, doordat het verbanden legt tussen datasets. Daarmee komt ook de AVG-compliance in het geding.

Ze stelt: “De techniek is al ver, maar wij als mensen zijn nog niet zover. We blijven de zwakste schakel.” De samenwerking tussen compliance officers en AI-officers wordt daarmee cruciaal. Juridische kennis en technologische kennis moeten hand in hand gaan.

AI-geletterdheid: meer dan een cursus prompt engineering

AI-geletterdheid – het vermogen om AI te begrijpen zonder zelf heel technisch onderlegd te zijn – is essentieel voor organisaties die met AI willen werken. Dat betekent snappen hoe AI met data omgaat, waar bias kan ontstaan, en wat de implicaties zijn voor besluitvorming.

Volgens Ter Maten zoeken organisaties niet meer alleen naar snelle oplossingen of basiscursussen in prompt engineering. Ze willen weten hoe AI echt werkt, wat de risico’s zijn en hoe ze als organisatie wendbaar kunnen blijven. Daarbij is ook aandacht nodig voor diversiteit in perspectieven, om blinde vlekken in data en modellen te voorkomen.

Een bijzondere zorg die Ter Maten noemt, is het zogeheten “Chinese whisper effect”: AI-systemen die met elkaar communiceren zonder menselijke tussenkomst kunnen onbedoeld informatie vervormen. Menselijke controle en monitoring blijven dus noodzakelijk, ook als AI steeds autonomer wordt.

Van wetgeving naar werkelijkheid

Hoewel wetgeving zoals de NIS2-richtlijn en de EU AI Act richtinggevend zijn, loopt beleid vaak achter op de snelle ontwikkelingen in AI. Toch ziet Ter Maten in de AI Act aanknopingspunten voor organisaties om praktisch aan de slag te gaan. Een eerste stap is het vergroten van AI-geletterdheid, iets wat de EU inmiddels verplicht stelt.

Binnen overheden en publieke instellingen groeit de behoefte aan concrete handvatten voor het vormgeven van AI-beleid. Ter Maten merkt dit dagelijks in haar werk met uiteenlopende organisaties, van gemeenten en onderwijsinstellingen tot private partijen zoals KPN, BDO en verzekeraars. Ze begeleidt sessies voor onder meer de gemeenteraad van Blaricum, detacheringbureaus als Flexwise, compliance officers, juristen en overheidsinstanties zoals Defensie en de Belastingdienst.

De vraag waarmee deelnemers instappen is vaak praktisch: “Hoe maak ik een goede prompt in ChatGPT?” Maar gaandeweg verschuift het gesprek naar fundamentelere thema’s. Hoe gaan we als gemeente of instelling om met data? Wat betekent het als we beleid door AI laten analyseren en de burger dat straks ook doet?

Ook bij partijen als de Raad van State en de VNG is er interesse om deze vragen verder te verkennen. Ter Maten spreekt met hen over hoe AI-beleid niet abstract of juridisch moet blijven, maar juist praktisch en begrijpelijk moet zijn. “Geen dikke rapporten vol vage governance-taal, maar praktische inzichten die direct toepasbaar zijn in de dagelijkse beleidspraktijk.”

Gerelateerd nieuws

Huis voor Klokkenluiders eist ‘laatste hand’ aan Wet bescherming klokkenluiders

Het Huis voor Klokkenluiders vraagt informateur Sybrand van Haersma Buma en de formerende partijen om snel een aanvullende wetswijziging door te voeren, zodat het Huis daadwerkelijk toezicht kan houden op de naleving van de Wet bescherming klokkenluiders (Wbk) én sancties kan opleggen bij benadeling van melders. Zonder die stap blijft er volgens het Huis feitelijk straffeloosheid bestaan voor werkgevers die de wet overtreden en blijft de bescherming van klokkenluiders in Nederland “nog niet” af.

Ondernemingsraad en achterbanoverleg: toestaan of niet?

Wanneer een ondernemingsraad wordt betrokken bij een belangrijk voorgenomen besluit, wil de ondernemingsraad vaak weten wat leeft onder de werknemers. De ondernemer wil graag rust op de werkvloer en bescherming van vertrouwelijke informatie. De Wet op de ondernemingsraden (WOR) heeft geen duidelijke oplossing voor dit spanningsveld. Dit roept de vraag op wanneer de ondernemingsraad werknemers mag raadplegen, en wanneer niet?

Waarom de waakhonden van de rechtsstaat kwetsbaar zijn

Het Instituut voor de Publieke Economie heeft in opdracht van Stichting Weerbare Democratie een rapport over de kwetsbaarheden van rechtsstatelijke waakhonden in Nederland opgesteld. De onderzoekers namen 19 organisaties onder de loep die financieel voor 75% afhankelijk zijn van de overheid en analyseerde mogelijke kwetsbaarheden. De publicatie van het onderzoek was 12 november 2025 en Transparency International Nederland was aanwezig bij de lancering.

Vrouwelijke klokkenluiders lopen groter risico op benadeling na melden

In Ierland blijkt dat vrouwelijke klokkenluiders als gevolg van het melden van misstanden een groter risico lopen op benadeling dan mannen. Dat blijkt uit het Speak Up Report 2025 van Transparency International Ireland. Werknemers die misstanden aankaarten lopen nog altijd een aanzienlijk risico op nadelige gevolgen, maar voor vrouwen is dit duidelijk hoger. Bij Transparency International Nederland maken wij ons zorgen over de maatschappelijke gevolgen van deze trend.