Wie bepaalt wat jij ziet, beïnvloedt wat jij denkt. In een onlinewereld vol content bepalen algoritmes steeds vaker jouw visie op de werkelijkheid. In een eerder artikel “Door desinformatie naar dystopie” op deze website lieten wij zien hoe jouw werkelijkheid gevaarlijk wordt vervormd als verkeerde of misleidende informatie vrij spel krijgt. De Europese Unie zet nu stappen om daar paal en perk aan te stellen. Een voorbeeld hiervan is de ‘Strengthened Code of Practice on Disinformation’.[1] Deze Code is recentelijk in de Digital Services Act (DSA) geïntegreerd.

De integratie van de Code in de DSA betekent dat platforms niet langer vrijblijvend kunnen omgaan met desinformatie. De Code combineert zelfregulering met de harde kaders van de DSA. Die combinatie bevordert transparantie, keuzevrijheid en gebruikerscontrole. Vooral de nadruk op uitleg en alternatieven voor algoritmes geeft gebruikers meer grip. Ook educatie en samenwerking met factcheckers versterken mediawijsheid. In het geheel genomen biedt hoofdstuk V van de Code een concrete aanvulling op het DSA-kader.

Waar de DSA risico’s op platformniveau adresseert, maakt de Code duidelijk hoe die risico’s ook op gebruikersniveau kunnen worden ingeperkt. Dit gebeurt niet door middel van censuur, maar door autonomie en mediageletterdheid van gebruikers te vergroten. De maatregelen trachten onder andere het bewustzijn, de keuzevrijheid en de participatie van gebruikers te versterken.

Wat behandelt dit artikel?

Dit artikel biedt een overzicht van het juridische en beleidsmatige kader rond de aanpak van desinformatie. Het bespreekt wat de Code precies inhoudt, hoe deze is verbonden met de DSA, waarom er geen juridische definitie van desinformatie is opgenomen, en op welke wijze de Code dit opvangt met praktische maatregelen. Het laat zien hoe vrijwillige zelfregulering langzaam evolueert tot toetsbare digitale governance.

Wat is de Code of Practice on Disinformation?

De (oorspronkelijke) EU Code of Practice on Disinformation uit 2018 is een vorm van zelfregulering zonder bindende juridische status. Het document is het resultaat van een vrijwillige samenwerking tussen Techreuzen zoals Facebook, Google en X, het voormalige Twitter. Deze techreuzen beloofden meer transparantie over advertenties, samenwerking met factcheckers en het tegengaan van nepaccounts. X heeft zich in 2019 teruggetrokken uit de Code.[2] Het besluit om zich terug te trekken, benadrukte de vrijblijvendheid van de Code.
In 2022 is er een aangescherpte versie gepubliceerd: de Strengthened Code of Practice on Disinformation. Deze bevat uitgebreidere en concretere maatregelen, zoals betere moderatie van advertenties, toegang tot data voor onderzoekers en meer gebruikerscontrole over aanbevelingssystemen.

Integratie in de DSA

De DSA voorziet in de mogelijkheid om vrijwillige gedragscodes juridische betekenis te geven.[3] In februari 2025 heeft de Europese Commissie de versterkte Code erkend als officiële gedragscode.[4] Platforms die de Code hebben ondertekend, leggen niet alleen vast welke maatregelen zij nemen tegen desinformatie; toezichthouders zoals de Europese Commissie en nationale Digital Services Coördinatoren kunnen nagaan of de maatregelen ook daadwerkelijk worden nageleefd. Daarmee is de Code geen vrijblijvende gedragscode meer, maar een toetsbaar onderdeel van een breder governancekader.

De Commissie kan in het geval van structurele niet-naleving zelfs maatregelen voorstellen.[5] Belangrijk detail: de Code geldt alleen voor platforms die deze ondertekend hebben. Platforms die zich terugtrokken zoals X, zijn er formeel niet aan gebonden. Dit biedt de teruggetrokken platforms echter geen vrijbrief om onder andere DSA-verplichtingen uit te komen die de verspreiding van desinformatie bestrijden.[6]

Gebrek aan definitie van desinformatie

De DSA bevat geen juridische definitie van ‘desinformatie’. Dat is geen vergissing, maar een bewuste keuze. De kernreden hiervoor is het grondrechtelijke spanningsveld met de vrijheid van meningsuiting.[7] Een juridisch bindende definitie van desinformatie zou namelijk kunnen leiden tot overheidscontrole op waarheidsgetrouwheid. Dit kan problematisch zijn in democratische samenlevingen.[8] Desinformatie valt in bepaalde gevallen onder de vrijheid van meningsuiting.

De vrijheid van meningsuiting geldt namelijk niet alleen voor gunstige, niet-aanstootgevende of onverschillige informatie of ideeën. Vrijheid van meningsuiting geldt ook voor uitingen die beledigen, schokken of verstoren. Dat is één van de vereisten van het pluralisme,[9] de verdraagzaamheid en de ruimdenkendheid die essentieel zijn voor een democratische samenleving.[10]

Onjuiste of misleidende uitingen zijn daarom beschermd, zolang deze niet onrechtmatig zijn. Met name wanneer feitelijke claims verweven zijn met meningen of wereldbeelden, kan sprake zijn van informatie die ‘awful but lawful’ is. Het waarheidsgehalte van waardeoordelen, bijvoorbeeld in politieke context, valt niet te bewijzen. Het vereisen van bewijs hiervoor is in strijd met de vrijheid van meningsuiting.[11]

De Code bevestigt dat fundamentele rechten volledig moeten worden gerespecteerd bij alle genomen maatregelen om desinformatie te bestrijden: “The Signatories are mindful of the fundamental right to freedom of expression, freedom of information […], and of the delicate balance that must be struck between protecting fundamental rights and taking effective action to limit the spread and impact of otherwise lawful content”.[12]

Geen juridische definitie, wel praktische tegenmaatregelen

De code tracht het probleem dat er geen sluitende juridische definitie van desinformatie bestaat op te lossen, door zich niet te richten op een inhoudelijke beoordeling. In plaats daarvan focust de code zich op praktische maatregelen rondom verspreiding, zichtbaarheid en financiering. In plaats van te bepalen wat desinformatie is, richt de Code zich op hoe desinformatie zich verspreidt en welke systemen dit mogelijk maken. Dat gebeurt langs zes hoofdsporen:

  • Financiële prikkels wegnemen (demonetisation): voorkomen dat desinformatie inkomsten genereert via advertenties.[13]

  • Transparantie bij politieke advertenties: betere herkenning van politieke advertenties door vermelding van sponsor, looptijd en kosten.[14]

  • Integriteit van diensten: aanpak van manipulatieve technieken zoals nepaccounts, bots en deepfakes.[15]

  • Onderzoekers ondersteunen: betere toegang tot data voor onderzoek naar desinformatie, met aandacht voor privacy.[16]

  • Factcheckers versterken: grotere dekking in alle EU-landen en talen, eerlijke vergoeding en betere toegang tot relevante informatie.[17]

  • Gebruikers versterken: handvatten voor het herkennen en melden van desinformatie, betere toegang tot gezaghebbende bronnen en aandacht voor mediageletterdheid.[18]

Conclusie

De versterkte Code of Practice on Disinformation vormt een beleidsinstrument dat zich richt op het beperken van de verspreiding van desinformatie, zonder een inhoudelijke beoordeling van wat waar of onwaar is. In plaats daarvan ligt de nadruk op transparantie, beperking van financiële prikkels, samenwerking met externe partijen en de inrichting van digitale diensten. De juridische verankering in de DSA vergroot de mogelijkheden voor toezicht en handhaving, al blijft de toepassing beperkt tot ondertekenaars van de Code. Daarmee is het een hybride instrument dat elementen van zelfregulering combineert met publieke controle. De vraag in hoeverre dit model effectief is, hangt uiteindelijk af van de inzet van platformen om de Code na te leven. Dit zal in het volgende artikel besproken worden.

Lees hier deel 2 van de blogreeks van Tijn Iserief: 'Grip op de feed? Gedeelde verantwoordelijkheid, maar gebrekkige uitvoering: gebruikers staan er alleen voor'

[1] [1] The 2022 Code of Practice on Disinformation (hierna: de Code). Link: https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation.

[2] Francesca Gillett, ‘Twitter pulls out of voluntary EU disinformation code’, https://www.bbc.com/news/world-europe-65733969.

[3] Artikel 45 DSA, overweging 88 en 104 DSA.

[4] The Code of Conduct on Disinformation, European Commission, 13 februari 2025. Link: https://digital-strategy.ec.europa.eu/en/library/code-conduct-disinformation.

[5] Artikel 45 lid 4 DSA.

[6] Artikel 34 DSA, overweging 80, 83 en 84 DSA.

[7] Artikel 11 Handvest EU.

[8] Center for Democracy & Technology, ‘Chilling effects on Content Moderation Threaten Freedom of Expression for Everyone’. Link: https://cdt.org/insights/chilling-effects-on-content-moderation-threaten-freedom-of-expression-for-everyone/.

[9] Pluralisme is het erkennen en respecteren van diversiteit in opvattingen en groepen binnen een samenleving.

[10] Handyside t. Verenigd Koninkrijk, EHRM 7 december 1976, nr. 5493/72, §49.

[11] Lingens t. Oostenrijk, EHRM 8 juli 1986, nr. 9815/82, §46.

[12] The Code of Conduct on Disinformation, European Commission, 13 februari 2025. Link: https://digital-strategy.ec.europa.eu/en/library/code-conduct-disinformation.

[13] Hoofdstuk II Code of Conduct on Disinformation.

[14] Hoofdstuk III Code of Conduct on Disinformation.

[15] Hoofdstuk IV Code of Conduct on Disinformation.

[16] Hoofdstuk VI Code of Conduct on Disinformation.

[17] Hoofdstuk VII Code of Conduct on Disinformation.

[18] Hoofdstuk V Code of Conduct on Disinformation.

Over de auteurs

  • Tijn Iserief

    Tijn Iserief is privacy consultant bij Lex Digitalis en is onder andere gespecialiseerd in privacy, specifiek in de Algemene Verordening Gegevensbescherming en de naleving van de privacywetgeving.

Gerelateerd nieuws

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.

De cruciale rol van een veilige meldcultuur bij cybersecurity

Onlangs publiceerde de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV) het Cybersecuritybeeld Nederland (CSBN) 2025. Het rapport schetst een digitale dreigingsomgeving die steeds complexer, diverser en onvoorspelbaarder wordt. Terwijl de dreiging groeit, ligt de verdediging in het versterken van de digitale basishygiëne. Organisatiecultuur speelt hierbij een belangrijke rol in hoe incidenten worden herkend en gemeld. Het CSBN 2025 maakt duidelijk dat digitale veiligheid geen puur technologisch vraagstuk is, maar afhankelijk is van hoe mensen binnen organisaties handelen. Transparency International Nederland (TI-NL) benadrukt daarom de cruciale rol van menselijk gedrag en een veilige meldcultuur bij effectieve cybersecurity.

AI en Auteursrecht: waarom een uitspraak uit München alles verandert

Op 11 november 2025 deed het Landesgericht München uitspraak in een zaak die de juridische wereld én de techsector op scherp zet: GEMA tegen OpenAI (zaaknummer 42 O 14139/24). Het ging om de vraag of het gebruik van auteursrechtelijk beschermde songteksten door generatieve AI-modellen zoals ChatGPT in strijd is met het auteursrecht. Het antwoord van de rechtbank? Ja. En dat is best baanbrekend.

Topbestuurders zien AI als oplossing voor klimaatambities, niet als bedreiging

Topbestuurders zien Kunstmatige Intelligentie (AI) als belangrijk hulpmiddel voor het behalen van klimaatdoelen. Dat blijkt uit een wereldwijd onderzoek van KPMG onder ruim 1.200 CEO’s en bestuursvoorzitters in twintig landen. De meeste ondervraagde topbestuurders (87 procent) geven aan dat AI-toepassingen bijdragen aan het realiseren van net-zero-doelen. Hoewel slechts 30 procent van de organisaties op korte termijn prioriteit geeft aan het verbeteren van het energieverbruik door AI, is 96 procent ervan overtuigd dat er in de toekomst voldoende duurzame energie beschikbaar zal zijn om aan de energievraag van AI te voldoen.