Dit had overigens zomaar de openingszin kunnen zijn van een artikel dat ChatGPT zelf over AI schrijft.

Eerder werd al bericht dat een aanzienlijk deel van de medewerkers inmiddels generatieve AI inzet. Opvallend is niet alleen hoe snel die ontwikkeling is gegaan, maar ook hoe vanzelfsprekend het gebruik is geworden. Medewerkers experimenteren met tools als ChatGPT of Copilot om tijd te besparen, teksten te verbeteren of informatie samen te vatten. AI is daarmee geen toekomstmuziek meer, maar gereedschap — zoals ooit de spreadsheet of e-mail dat waren.

Onmisbaar, maar niet vrijblijvend

Die snelle opmars maakt AI praktisch onmisbaar. Organisaties die het niet gebruiken, lopen achterstand op in snelheid en productiviteit. Tegelijkertijd is het gebruik allang niet meer vrijblijvend. Sinds de inwerkingtreding van de Europese AI Act is er een juridisch kader dat organisaties dwingt na te denken over risico’s, transparantie en verantwoordelijkheid.

De AI Act werkt met een risicobenadering. Systemen met een hoog risico — bijvoorbeeld AI die wordt ingezet voor personeelsselectie, kredietbeoordeling of in de publieke sector voor besluitvorming — moeten voldoen aan strenge eisen. Denk aan verplichte risicobeoordelingen, documentatieverplichtingen, menselijke controle (“human oversight”) en eisen aan datakwaliteit om discriminatie te voorkomen. Organisaties moeten kunnen aantonen hoe hun systemen werken en welke maatregelen zijn genomen om schade te beperken.

Daarnaast gelden er transparantieverplichtingen. Gebruikers moeten weten wanneer zij met een AI-systeem te maken hebben en wanneer content door AI is gegenereerd. Dit raakt niet alleen overheden en bedrijven, maar ook de media en communicatieafdelingen. Wie AI inzet voor publieksinformatie, moet helder zijn over de rol van het systeem.

AI-geletterdheid als nieuwe basisvaardigheid

Een minder zichtbare, maar minstens zo belangrijke verplichting uit de AI Act is het bevorderen van AI-geletterdheid. Organisaties moeten ervoor zorgen dat medewerkers die met AI werken voldoende kennis hebben van de werking, beperkingen en risico’s van deze systemen. Dat betekent training, interne richtlijnen en duidelijke afspraken.

AI-geletterdheid gaat verder dan weten hoe je een goede prompt schrijft. Het vraagt inzicht in vragen als: welke data worden gebruikt? Kan het systeem fouten maken? Hoe herken je vooringenomenheid in een uitkomst? En wanneer moet een mens ingrijpen? Zonder deze kennis dreigt schijnzekerheid: teksten klinken overtuigend, analyses ogen professioneel, maar de onderliggende redenering kan ondeugdelijk zijn.

De Autoriteit Persoonsgegevens waarschuwde onlangs dat zonder duidelijke waarden en kaders een ‘Wilde Westen’ kan ontstaan rond generatieve AI. Organisaties moeten vooraf bepalen welke publieke en organisatorische waarden leidend zijn: privacy, gelijke behandeling, transparantie. Technologie mag geen doel op zich worden.

Wat doet AI met ons welzijn?

Naast juridische en organisatorische vragen is er een menselijke dimensie. Het Trimbos instituut stelde de vraag wat AI-tools op de werkvloer doen met ons welzijn. Het antwoord is dubbel. Enerzijds kan AI de werkdruk verlagen. Routinetaken verdwijnen naar de achtergrond, waardoor ruimte ontstaat voor inhoudelijker werk. Dat kan bijdragen aan meer werkplezier en creativiteit.

Anderzijds verandert AI de aard van werk. Als systemen analyses uitvoeren en teksten genereren, verschuift de rol van de professional naar controleur en beoordelaar. Dat kan leiden tot vervreemding: wie is nog eigenaar van het eindproduct? Bovendien ontstaat er druk om altijd sneller en efficiënter te werken, omdat “de tool het toch kan”. Wat tijdswinst oplevert, kan ook de norm verhogen.

Daarbij komt de zorg over afhankelijkheid. Wie gewend raakt aan AI als denkpartner, kan het vermogen verliezen om zelfstandig complexe analyses te maken. Dit raakt niet alleen individuele medewerkers, maar ook organisaties als geheel. Strategische kennis en kritisch vermogen mogen niet verschralen doordat te veel wordt uitbesteed aan algoritmen.

Strategisch omgaan met risico’s

Volgens BDO vraagt dit alles om een strategische aanpak van AI-risicobeheer. Dat betekent: inventariseren waar AI wordt gebruikt, risico’s systematisch in kaart brengen en verantwoordelijkheden beleggen. Niet ad hoc experimenteren, maar beleid ontwikkelen. De AI Act verplicht organisaties feitelijk om deze professionaliseringsslag te maken.

De kernvraag is niet of AI moet worden ingezet — die discussie is grotendeels voorbij. De vraag is hoe. Hoe zorg je dat innovatie hand in hand gaat met rechtsbescherming? Hoe combineer je efficiëntie met menselijke maat? En hoe voorkom je dat technologie besluitvorming ondoorzichtig maakt?

In 2026 is AI dus zowel onmisbaar als gereguleerd. Het is een instrument dat ons werk versnelt en verrijkt, maar ook een systeem dat grenzen nodig heeft. Wetgeving als de AI Act en investeringen in AI-geletterdheid zijn geen rem op vooruitgang, maar voorwaarden voor verantwoord gebruik.

En daarmee komen we terug bij het begin. Want als AI inmiddels zo diep verweven is met ons werk en denken, rijst vanzelf een laatste vraag: is dit artikel geschreven door ChatGPT of niet?

Gerelateerd nieuws

Controleren van je werknemers

Het komt vaak voor dat werkgevers vermoedens hebben van ongewenst gedrag bij werknemers, zoals diefstal bij cliënten, mishandeling, onrechtmatig delen van foto’s of structureel onvoldoende functioneren (vooral bij thuiswerken). Ingrijpen kan noodzakelijk lijken, maar het ontbreken van bewijs schept juridische risico’s.

De AP in 2026: focus op massasurveillance, AI en digitale weerbaarheid

De Autoriteit Persoonsgegevens (AP) stelt drie prioriteiten centraal voor de periode 2026-2028: massasurveillance, artificiële intelligentie (AI) en digitale weerbaarheid. Met deze prioriteiten wil de AP mensen nog beter beschermen in een verder digitaliserende wereld. Het jaarplan 2026 beschrijft welke stappen de AP dit jaar gaat zetten binnen deze prioriteiten.

Vitale infrastructuur op Amerikaanse servers: Solvinity en de grenzen van Nederlandse digitale autonomie

De mogelijke overname van de Nederlandse IT‑dienstverlener Solvinity door de Amerikaanse gigant Kyndryl zorgt voor grote onrust in de politiek en bij toezichthouders. Tijdens een rondetafelgesprek in de Tweede Kamer op 27 januari 2026 waarschuwden experts en belangenorganisaties dat de continuïteit van vitale digitale processen, waaronder DigiD, in gevaar komt door een te grote afhankelijkheid van buitenlandse spelers. De discussie raakt de kern van de Nederlandse digitale soevereiniteit: wie heeft feitelijk de regie over de infrastructuur waar burgers en overheid dagelijks op vertrouwen?

Cyberwet werkt in de rechtszaal, maar niet in de opsporing

De Wet Computercriminaliteit III (Wet CCIII), die op 1 maart 2019 in werking trad, heeft de mogelijkheden voor de opsporing en vervolging van digitale criminaliteit aanzienlijk verbreed. Uit een omvangrijke evaluatie van het WODC (wetenschappelijk Onderzoek- en Datacentrum) blijkt dat de nieuwe strafbaarstellingen en bevoegdheden in de praktijk veelvuldig worden benut, maar dat beperkte opsporingscapaciteit en internationale componenten de volledige potentie van de wet remmen.