Nu de EU AI Act langzaam maar zeker de triloogprocedure doorloopt, is er nog steeds een onderbelicht aspect van AI-systemen, namelijk hun impact op cybersecurity. In de meest recente Threat Landscape 2023 (1), gepubliceerd in oktober, concludeerde het Europees Agentschap voor Cyberbeveiliging (ENISA) dat AI-systemen bepaalde risico's kunnen opleveren met betrekking tot de authenticatie van gebruikers of de echtheid van inhoud of informatie. Bovendien kunnen AI-systemen die directe invloed hebben op mensen, zoals een systeem dat de levering van elektriciteitsvermogen of de werkroosters van een bedrijf beheert, worden gemanipuleerd, vergiftigd (2) of oneerlijk beïnvloed door bias-ingebakken vooroordelen.

Aandachtspunten

Volgens het agentschap kunnen "al deze bedreigingen worden gekoppeld aan meerdere kwetsbaarheden, zoals gebrek aan training ten gevolge van gerichte aanvallen, slechte controle over welke informatie door het model wordt opgehaald, gebrek aan voldoende gegevens om vergiftiging te weerstaan, slecht beheer van toegangsrechten, gebruik van kwetsbare componenten en ontbrekende integratie met een bredere cyberweerbaarheidsstrategie."

Het beoordelen van de bijbehorende cybersecurityrisico's van een AI-systeem is niet alleen een best practice, maar ook een wettelijke verplichting die wordt voorzien in bestaande en aankomende wetgeving, zoals de Machinery Regulation (3), het AI-Act voorstel, het voorstel voor een Cybersecurity Resilience Act, en, voor bepaalde sectoren, de NIS2-richtlijn.

Volgens een recente studie van het JRC (4), moeten bepaalde aspecten in het bijzonder in gedachten worden gehouden:

1. De focus van de AI-wet ligt op AI-systemen.

De structuur van AI-systemen omvat verschillende interne componenten, waarvan sommige een verband met AI hebben, terwijl andere niet. Hoewel AI-modellen essentiële componenten van AI-systemen zijn, vormen ze op zichzelf geen AI-systemen. De in de AI Act vastgelegd cybersecurityvereiste is van toepassing op het AI-systeem als geheel en niet direct op de interne componenten.

2. Naleving van de AI Act vereist noodzakelijkerwijs een beoordeling van het beveiligingsrisico.

Om te waarborgen dat een hoog-risico AI-systeem aan de AI Act voldoet, voorziet artikel 9 in de implementatie van een risicobeheersysteem. Overeenkomstig artikel 15 omvat deze vereiste ook een cybersecurityrisicobeoordeling van het systeem en de componenten ervan. Risicobeoordelingen moeten vooral rekening houden met beperkingen en kwetsbaarheden van AI-modellen in de context van hun interactie met andere niet-AI-componenten van het systeem. Deze risk-based benadering is cruciaal om de details van een cybersecurityoplossing voor individuele AI-systemen te bepalen. Dit sluit aan bij de gevestigde praktijk op het gebied van cybersecurity, waar risicobeoordelingen al een belangrijke rol spelen, met name in de meest gebruikte normen voor informatieveiligheid van de ISO 27000-serie (ISO/IEC JTC 1/SC 27 2022).

3. Het beveiligen van AI-systemen vereist een integrale en consistente benadering met gevestigde methoden en AI-specifieke controles.
Dit proces moet gebruikmaken van de huidige cybersecuritypraktijken en -procedures, waarbij bestaande controles voor softwaresystemen worden gecombineerd met maatregelen die specifiek zijn voor AI-modellen. AI-systemen bestaan uit de som van al hun componenten en hun interacties. Er moet een holistische benadering gehanteerd worden die de principes van security-in-depth en security-by-default volgt om ervoor te zorgen dat AI-systemen voldoen aan de cybersecurityvereisten van de AI Act.

4. Er zijn beperkingen in de stand van de techniek voor het beveiligen van AI-modellen.

In de huidige AI-markt is er een breed scala aan AI-technologieën met verschillende niveaus van volwassenheid. Niet alle AI-technologieën staan gereed voor gebruik in AI-systemen die zijn ontworpen voor inzet in hoogrisicoscenario's, tenzij hun cybersecuritybeperkingen adequaat worden aangepakt. In sommige gevallen, met name voor opkomende AI-technologieën, zijn er inherente beperkingen die niet uitsluitend op het niveau van het AI-model kunnen worden aangepakt. In dergelijke gevallen kan naleving van de cybersecurityvereisten van de AI Act alleen worden bereikt door de eerder beschreven holistische benadering.

Conclusie

Al met al is het cruciaal om AI verantwoord en veilig in te zetten. Organisaties moeten ervoor zorgen dat hun AI-systemen transparant, verklaarbaar en controleerbaar zijn. Ze moeten ook voldoende training bieden aan hun medewerkers om cybersecurityrisico's in verband met AI-systemen te identificeren en te beperken. Een uitgebreide beoordeling van het beveiligingsrisico voor een AI-systeem vereist aandacht voor de gehele levenscyclus van de ontwikkeling en implementatie van het systeem. Een te sterke focus op het beveiligen van machine learning-modellen door middel van academische ‘adversarial machine learning’ vereenvoudigt te veel het probleem in de praktijk. Dit betekent dat we om het AI-model echt veilig te stellen, rekening moeten houden met de beveiliging van de hele toeleveringsketen en het beheer van AI-systemen.

Bronnen

  1. https://www.enisa.europa.eu/publications/enisa-threat-landscape-2023;

  2. https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/amp/;

  3. The cybersecurity risk is recognised in Recital 25 Machinery Regulation, which requires “manufacturers to adopt proportionate measures for the protection of the safety of the product within the scope of this Regulation notwithstanding, the application of other Union legal acts specifically addressing cybersecurity aspects.”;

  4. https://publications.jrc.ec.europa.eu/repository/handle/JRC134461.

Over de auteurs

  • Giacomo Delinavelli

    Giacomo werkt als juridisch en beleidsadviseur bij Arthur's Legal in Amsterdam. Hij is betrokken bij verschillende door de EU gefinancierde projecten en behandelt zakelijke kwesties met betrekking tot AI, Data Governance en cybersecurity.

Gerelateerd nieuws

Persoonsgegevens of anonieme gegevens?

In een recente uitspraak van het Hof van Justitie van de Europese Unie (EDPS v GAR) is een belangrijke stap gezet in de discussie over pseudonieme, anonieme en persoonsgegevens. Het Hof bevestigt wat velen in het veld al langer betoogden: gepseudonimiseerde gegevens kunnen onder bepaalde omstandigheden wél persoonsgegevens zijn voor de verstrekker, maar géén persoonsgegevens zijn voor de ontvanger. De kwalificatie van gegevens hangt af van de concrete omstandigheden en de positie van de ontvanger. Deze benadering wordt ook wel aangeduid als de contextuele benadering en speelt een belangrijke rol bij de vraag: is de AVG van toepassing?

Data & Privacy

Ontslaat het pseudonimiseren van gegevens mijn onderneming van de verplichtingen op grond van de AVG?

Het blijft een uitdaging: welke gegevens worden aangemerkt als persoonsgegevens onder de Algemene Verordening Gegevensbescherming (AVG)? Onlangs boog de Rechtbank Midden-Nederland zich over dit vraagstuk, specifiek met betrekking tot de zogenoemde HoNOS+-gegevens. Deze gegevens zeggen iets over de geestelijke en sociale toestand van cliënten. Het oordeel van de rechtbank? Deze gegevens zijn géén persoonsgegevens, waarom niet? Lees hieronder de blog van advocaat bij Elferink & Kortier Advocaten, Tom Boitelle.

Data & Privacy

NIS2: risicoanalyse van eigen organisatie helpt om grip te krijgen op leveranciersmanagement

De Europese NIS2-richtlijn heeft als doel de digitale weerbaarheid van organisaties én hun toeleveranciers te versterken. Dat betekent dat bedrijven niet alleen hun eigen cyberrisico’s moeten begrijpen, maar ook die van hun toeleveranciers. Dit roept bij veel organisaties een belangrijke vraag op: wat betekent dit nu voor ons leveranciersmanagement?

Data & Privacy

Wetsvoorstel: meer bevoegdheden voor burgemeester bij online ordeverstoring

Op 4 juli is een wetsvoorstel in consultatie gebracht dat twee nieuwe bevoegdheden aan de burgemeesters toekent. Hiermee kan de politie onder zijn gezag persoonsgegevens uit publiek toegankelijke bronnen vergaren over de dreiging van een ernstige verstoring van de openbare orde. Het doel van het wetsvoorstel is dat de burgemeester en de politie meer zicht krijgen op ernstige verstoringen van de openbare orde en zij op basis daarvan adequater maatregelen kunnen treffen om deze te voorkomen, beletten of te beëindigen.

Data & Privacy