Menu

Filter op
content
PONT Data&Privacy

0

Amnesty: ‘Overheid doet te weinig tegen etnisch profileren door algoritmes’

De Nederlandse regering doet te weinig om mensen in Nederland te beschermen tegen etnisch profileren door algoritmes. Diverse praktijkvoorbeelden tonen aan dat het om een ‘structureel en overheidsbreed probleem’ gaat. Het is de hoogste tijd dat het kabinet effectieve maatregelen neemt om etnisch profileren tegen te gaan.

VPNgids 21 maart 2024

Nieuws-persbericht

Nieuws-persbericht

Dat is de conclusie van Amnesty International(1) in het rapport ‘Etnisch profileren is een overheidsbreed probleem – Nederlandse overheid moet burgers beschermen tegen discriminerende controles’. Het rapport is vandaag gepubliceerd, op de Internationale Dag tegen Racisme en Discriminatie.

Etnisch profileren nog altijd een groot probleem in Nederland

Amnesty International verzet zich al jaren met hand en tand tegen etnisch profileren in Nederland. Verschillende overheidsorganisaties hebben weliswaar stappen gezet om burgers te beschermen tegen etnisch profileren, maar deze stappen zijn te vrijblijvend en maken geen echt verschil. “Burgers in Nederland zijn niet effectief beschermd tegen discriminatie door de overheid”, meent Gwen van Eijk, onderzoeker bij Amnesty International.

In het rapport beschrijft de mensenrechtenorganisatie dat de overheid weliswaar maatregelen neemt om etnisch profileren aan te pakken, maar dat de ‘reële risico’s op etnisch profileren’ blijven bestaan. Als voorbeeld worden de ‘discriminerende werkwijzen’ bij de politie, Koninklijke Marechaussee (KMar), Belastingdienst en Dienst Uitvoering Onderwijstaken (DUO) genoemd.

In al deze zaken werden Nederlanders met een migratieachtergrond extra gecontroleerd in vergelijking met autochtone Nederlanders. Dat is volgens Amnesty een duidelijk signaal dat de overheid bij controles zich baseert op risicoprofilering en risico-inschattingen, al dan niet gevoed door algoritmes.

‘Automation bias staat op gespannen voet met het zorgvuldigheidsbeginsel’

Burgers hebben recht op transparantie om grip te krijgen op de uitvoering van overheidsbeslissingen, zo betoogt Amnesty. Ze hebben immers het recht om te weten hoe een besluit over hen tot stand is gekomen. Zeker als er algoritmes in het spel zijn. “De inzet van algoritmen, en dan met name zelflerende algoritmes en black box-systemen, staat op gespannen voet met het beginsel van transparant overheidsoptreden”, zo schreef de mensenrechtenorganisatie in het rapport ‘Xenofobe machines’(2).

Amnesty staat nog altijd vierkant achter deze filosofie. “Overheidsorganisaties dienen zich bewust te zijn dat er bij het gebruik van algoritmen voor ondersteuning van beslissingen het risico bestaat op ‘automation bias’. Dat wil zeggen dat ambtenaren zich te veel laten leiden door de uitkomst van het algoritme, in dit geval de risicoscores en categorisering. Dit staat op zeer gespannen voet met het zorgvuldigheidsbeginsel”, zo schrijft de organisatie in haar rapport.

Dit zijn enkele aanbevelingen van Amnesty

Amnesty International vindt dat alle overheidsorganisaties zich moeten verantwoorden hoe ze burgers controleren en wat ze doen om etnisch profileren te voorkomen. Een belangrijke voorwaarde om daaraan te voldoen is dat toezichthouders als de Autoriteit Persoonsgegevens, de Nationale Ombudsman en het College voor de Rechten van de Mens voldoende middelen en capaciteit hebben om onderzoeken in te stellen en handhavend op te treden.

Het toezicht door deze instanties schiet echter tekort, zo meent Amnesty. Om te beginnen zijn de uitspraken van de toezichthouders niet bindend, wat de effectiviteit van extern toezicht aantast. Daardoor schiet de rechtsbescherming van burgers momenteel tekort: ze kunnen een klacht indienen over discriminatie of etnisch profileren, maar uiteindelijk staan ze vaak met lege handen. Amnesty wil dan ook dat de toezichthoudende instanties adequate (bindende) bevoegdheden krijgen en dat de klachtbehandeling sterk wordt verbeterd.

Amnesty is positief over de invoering van het algoritmeregister, dat eind 2022 werd ingevoerd. Het kabinet wil hiermee open en eerlijk zijn over welke overheidsorganisaties algoritmes gebruiken en welke data deze gebruiken. Toch constateert de mensenrechtenorganisatie dat het algoritmeregister drie tekortkomingen kent: het register is niet verplicht, de informatie in het register is incompleet en ontoereikend, en het kabinet wil een uitzondering opnemen voor veiligheidsdiensten die zich bezighouden met rechtshandhaving, opsporing, defensie en inlichtingenverzameling.

“Verplicht het algoritmeregister voor algoritmes die worden ingezet voor selectiebeslissingen en risicoprofilering bij criminaliteit en fraudebestrijding, en ter ondersteuning van migratie en antiterrorismebeleid”, zo adviseert Amnesty. Tot slot wil de organisatie dat zelflerende en black-box algoritmen voor selectiebeslissingen en risicoprofilering worden verboden.

  1. https://www.amnesty.nl/actueel/het-kabinet-moet-burgers-beschermen-tegen-etnisch-profileren

  2. Xenofobe machines: Discriminatie door ongereguleerd gebruik van algoritmen in het Nederlandse toeslagenschandaal

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.

KENNISPARTNER

Martin Hemmer