Generatieve AI versterkt veel van de cybersecurityrisico’s waar organisaties al jaren mee te maken hebben, zoals social engineering, datalekken en hiaten in de regelgeving (governance gaps). Bijna de helft van de ondervraagde leiders geeft aan dat zorgen over de beveiliging van gegevens verdere investeringen in AI tegenhouden. De risico's zijn tastbaar. Zo leidde het schandaal rond de kinderopvangtoeslag in Nederland, veroorzaakt door een vroeg machine learning-algoritme, ertoe dat duizenden onschuldige gezinnen ten onrechte als frauduleus werden aangemerkt. De gevolgen waren financiële problemen, publieke verontwaardiging en zelfs verlies van mensenlevens. Dit voorbeeld benadrukt de reputatie, juridische en ethische risico's die ontstaan wanneer er geen goed toezicht is op AI-systemen.

Andere uitdagingen zijn onder meer een groeiend aanvalsoppervlak, ethische kwesties zoals bias en overautomatisering, en ontoereikende governance. Naarmate AI-technologieën zich verder ontwikkelen en vaak sneller gaan dan regelgeving, wordt wetgeving zoals de EU AI Act steeds belangrijker.

“Hoewel risico's rond data, privacy en vooringenomenheid van modellen (model bias) reëel zijn, moeten we ook rekening houden met de bredere impact op werkdynamiek, adoptie en mogelijke overafhankelijkheid van AI. Doordachte planning die technologie integreert met menselijk kapitaal en verandermanagement kan het rendement op AI-investeringen aanzienlijk versnellen.”

- Rocco Galletto, Nationale en Mondiale Cyberbeveiligingsleider, BDO Canada

Een samenhangende AI-governancestrategie opbouwen

Om gelijke tred te houden met technologische veranderingen en veranderende wetgeving, moeten organisaties AI-governancecommissies oprichten met vertegenwoordiging vanuit meerdere disciplines. Een samenhangende governanceaanpak omvat:

Het in kaart brengen van wereldwijde regelgeving en standaarden om naleving in verschillende rechtsgebieden te handhaven (zoals de EU AI Act, NIST AI 100-2 en ISO/IEC 42005:2025).

AI-initiatieven afstemmen op organisatiedoelen, zoals klantbeleving, operationele efficiëntie en innovatie.

Inzicht krijgen in de mogelijkheden voor strategische afstemming binnen de organisatie. Organisaties die AI integreren in bedrijfsbrede strategieën realiseren doorgaans een beter rendement op investeringen.

AI moet worden geïntegreerd in bestaande kaders voor risico's, compliance en governance, met waarborgen gedurende de hele levenscyclus.

“We raden aan om een AI-strategie te hebben, iemand die verantwoordelijk is voor AI en een AI-governancecommissie bestaande uit meerdere stakeholders. Dit zorgt ervoor dat het geen kwetsbare component is die het hele systeem kan stilleggen wanneer deze uitvalt.”

- Jason Gottschalk, Partner Cyberbeveiliging, BDO UK

Praktische stappen om vandaag al te nemen

Risico ontstaat vaak uit een gebrek aan inzicht. Door een cultuur van bewustzijn te stimuleren, kunnen organisaties onbekende risico's omzetten in beheersbare uitdagingen. Bijna de helft van de organisaties biedt al training aan medewerkers over veilig en ethisch AI-gebruik, en 46% zet AI-specifieke beveiligingstools in.

Om huidige risico’s aan te pakken, moeten organisaties:

  • Werknemers bewust maken van en vaardigheden ontwikkelen voor veilig en ethisch AI-gebruik.

  • Investeren in geavanceerde tools om AI-gerelateerde dreigingen, zoals datalekken en ongeautoriseerde toegang op te sporen en te beperken.

  • Blootstelling aan gevoelige informatie beperken door strengere toegangscontroles en beleidsregels.

  • AI-impactanalyses uitvoeren om potentiële risico's te identificeren en aan te pakken.

AI zal naar verwachting de grootste impact hebben op het gebied van cybersecurity (55%), monitoren van naleving (52%) supply chain management (50%). Het is nu tijd om actie te ondernemen.

Toekomstbestendigheid van AI-implementatie

Organisaties die een ‘fail fast, learn faster’-mentaliteit omarmen, zijn beter gepositioneerd voor succesvolle AI-integratie. AI-adoptie draait niet alleen om innovatie, maar ook om het opbouwen van veerkracht en flexibiliteit in een dynamische bedrijfsomgeving. Naarmate de technologie evolueert, is het essentieel om duidelijke doelen te stellen, AI-prestaties continu te monitoren, de belangrijkste risico-indicatoren bij te werken en veranderingen in regelgeving voor te staan. Deze aanpak stelt organisaties in staat om een veerkrachtige governance op te bouwen die meegroeit met AI, in plaats van zich te verzetten tegen verandering en het risico te lopen te worden blootgesteld aan opkomende dreigingen.

Tot slot

AI biedt enorme kansen, maar zonder een strategische aanpak brengt het ook aanzienlijke risico’s met zich mee. Door governance, risicobeheer en bewustwording centraal te stellen, kunnen organisaties AI veilig en verantwoord inzetten. Zo bouwt u niet alleen vertrouwen, maar versnelt u ook innovatie en rendement op uw AI-investeringen.

Benieuwd naar alle inzichten? Download het IDC-onderzoek en ontdek hoe organisaties AI integreren in hun strategie en tegelijkertijd risico’s beheersen.

Over de auteurs

Gerelateerd nieuws

Van Data tot Intelligence: cirkel van inzicht en actie

We leven in een tijd waarin data als het nieuwe goud wordt gezien. Iedere organisatie verzamelt, meet, modelleert en bewaart — alsof méér data vanzelf leidt tot méér kennis. Maar data is geen doel. Het is slechts de grondstof voor begrip. Pas wanneer we van data de creator kennen en het kunnen ordenen, duiden en plaatsen in context, ontstaat echte informatie. En wanneer die informatie voor de gebruiker betekenis krijgt, ontstaat intelligence — inzicht waarop je kunt handelen.

Clare’s Law tegen huiselijk geweld in Nederland: redmiddel of risico?

In het eerste halfjaar ontving Veilig Thuis ruim 66.000 meldingen van huiselijk geweld. Een stijging van 10 procent vergeleken met dezelfde periode in 2022. Terwijl deze cijfers toenemen, groeit ook de roep om slachtoffers beter te beschermen. Steeds vaker valt daarbij de naam Clare’s Law, een Britse wet waarmee politie-informatie over het geweldsverleden van (potentiële) partners kan worden gedeeld.

Zorg & Sociaal

EU-wetswijzingen 'digitale omnibus' zorgelijk voor grondrechten

Vandaag publiceert de Europese Commissie een voorstel om de digitale EU-regelgeving te versimpelen, de zogenaamde digitale omnibus. De verordeningen over AI en gegevensbescherming vormen daarin een belangrijk onderdeel. Het College voor de Rechten van de Mens signaleert een zorgwekkende afzwakking van de bescherming van grondrechten in het omnibusvoorstel.

NJCM waarschuwt dat Europese digitale ‘vereenvoudiging’ kan leiden tot aantasting mensenrechten

Onlangs zijn er voorstellen van de Europese Commissie om Europese digitale regels aan te passen uitgelekt (‘Digital Omnibus’). De Commissie beoogt met dit Omnibus-pakket een administratieve vereenvoudiging door middel van het wijzigen van bestaande wetgeving, waaronder de Algemene Verordening Gegevensbescherming (AVG), ePrivacy-richtlijn en de AI-Act.