Lopende procedures

Zo startte The New York Times in december 2023 een procedure tegen OpenAI en zijn partner Microsoft omdat OpenAI zonder toestemming miljoenen nieuwsartikelen van The New York Times zou hebben gebruikt om haar AI-systeem te trainen. Ook over de concurrerende AI-tools van Google / Alphabet (Bard, Imagen, MusicLM, Duet AI & Gemini) loopt een vergelijkbare procedure.

Hoe voorkomt u dat uw online content – tegen uw wil in – gebruikt wordt voor AI-trainingsdoeleinden van derden? En mag dat zomaar?

Toepasselijke wetgeving

De nieuwe Europese AI-act benadrukt dat de AI-verordening geen afbreuk doet aan de handhaving van de auteursrechtregels krachtens het Unierecht (overweging 108). Op grond hiervan zou men kunnen denken dat auteursrechtelijk beschermde werken of databases – ook als die online zijn gepubliceerd – dus ook beschermd zijn tegen verveelvoudiging door AI-ontwikkelaars die content “scrapen” van het internet, zolang je als rechthebbende geen toestemming hebt gegeven (“licentie hebt verleend”) om die werken of databases te kopiëren als trainingsmateriaal voor AI-tools. Dit is echter een misvatting; in 2019 is in Europese regelgeving over auteursrechten en naburige rechten in de digitale eengemaakte markt een belangrijke uitzondering op dit oude principe uit het intellectuele eigendomsrecht (IE) gemaakt, namelijk dat (kort gezegd) tekst- en datamining van beschermd materiaal voor commerciële doeleinden is toegestaan, tenzij de rechthebbende op passende wijze een uitdrukkelijk voorbehoud daaromtrent heeft gemaakt. Machinaal leesbare middelen (bijvoorbeeld door voor scraping tools begrijpelijke regels in een robots.txt-bestand op te nemen) worden in dit verband “passend” geacht. Maakt u een dergelijk voorbehoud niet of niet op passende wijze, dan loopt u het risico niet succesvol te kunnen optreden tegen derden die rechtmatig toegang tot uw online content hebben en reproducties van uw content maken voor tekst- en datamining doeleinden.

Web scraping van (ook) persoonsgegevens?

Bij het trainen van AI-systemen is overigens niet alleen het IE-perspectief relevant, ook dient rekening te worden gehouden met privacyrechtelijke beperkingen. Als de betreffende online content tevens persoonsgegevens bevat, is web scraping ook vanuit dat perspectief vaak problematisch. Het is niet voor niets dat de Autoriteit Persoonsgegevens eerder dit jaar schreef dat scraping (lees: van persoonsgegevens) ‘bijna altijd illegaal’ is.

Over de auteurs

  • Lesley Broos

    Lesley Broos is advocaat en partner bij Kienhuis Legal. Zijn specialisme ligt in IT-recht, Cloud contracting, juridische bescherming van software, privacyrecht, SLA's.

Gerelateerd nieuws

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.

AI en Auteursrecht: waarom een uitspraak uit München alles verandert

Op 11 november 2025 deed het Landesgericht München uitspraak in een zaak die de juridische wereld én de techsector op scherp zet: GEMA tegen OpenAI (zaaknummer 42 O 14139/24). Het ging om de vraag of het gebruik van auteursrechtelijk beschermde songteksten door generatieve AI-modellen zoals ChatGPT in strijd is met het auteursrecht. Het antwoord van de rechtbank? Ja. En dat is best baanbrekend.

Topbestuurders zien AI als oplossing voor klimaatambities, niet als bedreiging

Topbestuurders zien Kunstmatige Intelligentie (AI) als belangrijk hulpmiddel voor het behalen van klimaatdoelen. Dat blijkt uit een wereldwijd onderzoek van KPMG onder ruim 1.200 CEO’s en bestuursvoorzitters in twintig landen. De meeste ondervraagde topbestuurders (87 procent) geven aan dat AI-toepassingen bijdragen aan het realiseren van net-zero-doelen. Hoewel slechts 30 procent van de organisaties op korte termijn prioriteit geeft aan het verbeteren van het energieverbruik door AI, is 96 procent ervan overtuigd dat er in de toekomst voldoende duurzame energie beschikbaar zal zijn om aan de energievraag van AI te voldoen.