Het doel van de centrale database is dat de Inspectie Leefomgeving en Transport (ILT) makkelijker kan controleren of taxichauffeurs zich aan de wet houden. Nu worden data over taxiritten alleen opgeslagen op de boordcomputer van de taxi’s. Inspecteurs van de ILT moeten de data in de taxi uitlezen. In het voorstel worden de gps-coördinaten van het vertrek- en eindpunt van elke rit naar de ILT verzonden. Daardoor ontstaat dus een database met álle taxiritten in Nederland.

‘Passagiers verdienen beter’

‘Wij snappen dat het kabinet het toezicht makkelijker wil maken’, zegt AP-bestuurslid Katja Mur. ‘Maar door zo nauwkeurig in één database de coördinaten van de vertrek- en eindpunten van elke taxirit op te slaan, stel je mensen die de taxi nemen onnodig bloot aan privacyrisico’s. Passagiers verdienen een betere bescherming.’

Met gps-coördinaten is vaak te achterhalen bij welke woning iemand is opgehaald, en wat de bestemming was. Mur: ‘Woon jij in een straat met weinig directe buren en gebruik jij een taxi? Dan zou iemand met toegang tot die database vrij eenvoudig kunnen achterhalen waar jij allemaal naartoe gaat. Dus ook als jij elke vrijdag de taxi pakt naar je therapeut. Of die keer dat je je laat afzetten bij een kliniek voor plastische chirurgie. Zaken waarbij je erop moet kunnen vertrouwen dat ze privé blijven.’

‘Datalek zit in klein hoekje’

En zodra zo’n centrale database bestaat, is er ook het risico dat het fout gaat, aldus Mur: ‘Een datalek zit vaak in een klein hoekje. Door een foutje, een kwaadwillende medewerker of een hacker. We hebben dit vaak genoeg fout zien gaan, ook bij overheidsinstellingen.’

Daarbij bestaat bij dit soort databases ook altijd het risico op ‘function creep’: dat de data uiteindelijk ook voor zaken gebruikt worden waar ze oorspronkelijk niet voor bedoeld zijn. Mur: ‘Misschien wil de politie wel toegang. Of vinden de Belastingdienst en de gemeente dat wel handig, om te controleren of mensen niet frauderen met toeslagen of uitkeringen. Door die data weer te koppelen aan andere data, kan de overheid mensen op de voet volgen. Dat moeten we niet willen.’

Risico’s wegnemen

De AP wijst het kabinet erop dat het de grote risico’s weg moet nemen in een nieuwe versie van het voorstel. Zo mag de ILT alleen locatiegegevens verzamelen als het kabinet goede redenen kan geven waarom dat per se moet. Die redenen geeft het kabinet nu niet.

Maar ook al kan het kabinet die redenen wel geven, dan nog zou het kabinet het waar nodig moeilijker moeten maken om de locatiegegevens te herleiden tot specifieke passagiers. Bijvoorbeeld door met simpele aanpassingen de locatie minder nauwkeurig te maken.

Bovendien is in het voorstel niet vastgelegd wanneer de ILT de gegevens verwijdert. Mur: ‘Daar moet een duidelijke grens komen: zodra de gegevens niet meer nodig zijn, moeten die vernietigd worden. Want: data die je niet hebt, kunnen ook niet lekken.’

Gerelateerd nieuws

Digitalisering en AI: wat zijn de kansen en risico's?

Digitalisering en kunstmatige intelligentie (AI) veranderen de bouw ingrijpend. Wat kun je ermee in je eigen organisatie, welke risico's moet je in het oog houden en hoe krijg je medewerkers mee? We spreken met Patrick van Dongen van Bouwbedrijf Maas-Jacobs, strategisch AI-marketeer Bert Schonewille en 'baaningenieur' Luc Dorenbosch over de inzichten uit onderzoek en praktijk.

Omgeving

Nieuwe Defensiewet: klaar voor de strijd, maar tegen welke prijs?

De geopolitieke spanning aan de grenzen van Europa neemt toe. Sinds de Russische inval in Oekraïne is veiligheid geen abstract begrip meer, maar een concrete opgave. Binnen Nederland groeit het besef dat de krijgsmacht beter voorbereid moet zijn op crisissituaties en militaire dreiging. Met de Wet op de defensiegereedheid (Wodg) wil het kabinet Defensie in staat stellen sneller te schakelen van vredesorganisatie naar krijgsmacht die direct inzetbaar is bij grootschalige operaties.

De grens tussen hulpmiddel en AI in besluitvorming

Steeds vaker duikt kunstmatige intelligentie (AI) op in bestuurlijke besluitvorming, van vergunningsaanvragen tot asielprocedures. De vraag is dan wanneer een digitaal hulpmiddel als AI wordt beschouwd. En welke verantwoordelijkheden daaruit volgen voor transparantie, toetsing en documentatie.

Europese waakhond: ‘AI‑systemen bedreigen grondrechten, menselijk toezicht onvoldoende’

De Europese grondrechtenwaakhond FRA (European Union Agency for Fundamental Rights) waarschuwt in een vorige week verschenen rapport dat organisaties slecht zijn voorbereid op het beoordelen en beperken van grondrechtenrisico’s bij het gebruik van hoog‑risico‑AI. Volgens de FRA dreigt daardoor een kloof tussen de ambities van de AI Act en de dagelijkse praktijk bij ontwikkelaars en gebruikers van AI‑systemen in onder meer asiel, onderwijs, werk, politie en sociale zekerheid. Die kloof raakt direct aan de manier waarop mensen en AI in de samenleving samen optrekken: als de menselijke kant van die samenwerking – kennis, reflectie en kritisch vermogen – tekortschiet, verliest AI haar grond voor vertrouwen.