Menu

Filter op
content
PONT Data&Privacy

0

Commentaar: transparante AI, een beloftevol maar moeilijk verhaal

Na verschillende schandalen met algoritmen, met de kindertoeslagenaffaire als voorlopig dieptepunt, klinkt de roep om transparante kunstmatige intelligentie luider en luider. De wens tot transparantie is beloftevol, maar zonder wettelijke binding en een slagvaardige algoritmetoezichthouder, wordt het een lastig verhaal, schrijft PONT-redacteur Tom Reijner.

28 juli 2023

Aan Artificial Intelligence (AI) kleven nogal wat voordelen. Het zijn met name de deep and machine learning-varianten die bedrijven en organisaties veel werk uit handen kunnen nemen. Na jaren AI-gebruik wordt de overheid echter ook met de neus op de feiten gedrukt. Burgers ondervinden de negatieve gevolgen.

Risico-score voor bijstandsgerechtigden

Wat heet: het kindertoeslagenschandaal, waarbij met behulp van AI “fraudeurs” werden opgespoord – die dat helemaal niet bleken te zijn en waardoor duizenden mensen in diepe schulden raakten. Onlangs nog waren DUO en het UWV in het nieuws. De uitvoeringsorganisaties maakten gebruik van algoritmen met een mogelijk discriminerende uitwerking (DUO) en een die de privacy schendt (UWV). Radioprogramma Argos onthulde, samen met Follow The Money, Vers Beton en Lighthouse Reports, hoe de gemeente Rotterdam duizenden bijstandsgerechtigden een risico-score gaf met een inschatting hoe groot de kans is dat je met jouw achtergrond, eigenschappen en gedrag fraude zou plegen. En ja, dat gebeurde op basis van een algoritme (1).

Kunstmatige intelligentie wordt wel eens gezien als neutraal, maar blijkt in de praktijk behoorlijk bevooroordeeld te zijn – het zijn immers de mensen die data-input leveren en dat gaat gepaard met bias. Nog los van ingesloten fouten, onnauwkeurigheden en al te losse interpretaties van data. Hoe algoritmen en hun systemen precies zijn opgebouwd – transparantie aan de voorkant – weten we niet of nauwelijks.

Duidelijk is dat de affaires wel wat in gang hebben gezet.

Ethische en menswaardige AI

Staatssecretaris Alexandra van Huffelen – de eerste ooit voor digitalisering - ging voortvarend aan de slag met de ethische en menswaardige kant van AI. De overheid gaat maatregelen nemen om te voorkomen dat burgers in de problemen komen door kunstmatige intelligentie, zei zij in oktober vorig jaar in brief aan de Kamer. Voor Van Huffelen is het heel belangrijk dat algoritmes de rechten van mensen respecteren, vertelt ze waar mogelijk. Ze wil ervoor zorgen dat AI vooral wordt ingezet voor ‘de goede zaak’: “Dat er een algoritme komt dat mensen wijst op regelingen die ze mislopen waar ze wel recht op hebben. Ik laat nu uitzoeken hoe zoiets zou kunnen werken.”(2)

Zet dat eens af tegen pakweg vier jaar geleden. Toen D66-Kamerlid Kees Verhoeven in 2018 in een motie over transparantie van AI wilde afdwingen, kreeg hij een afwijkend antwoord van toenmalig minister Sander Dekker: transparantie zou ten koste kunnen gaan van de privacy en innovatie (3).

Het College voor de Rechten van de Mens kwam met misschien wel de scherpste aanbeveling. De organisatie pleit voor wettelijke verplichting tot transparantie, en dan vooral aan de voorkant, dus bij het bouwen van algoritmes. Het College vindt dat overheden algoritmegebruik bij besluiten die burgers rechtstreeks raken altijd moet melden in de besluitbrief, schreven ze eind juni: “Overheden moeten besluiten ook nu al toelichten ('motiveren'). Voor de helderheid wil het College dat die verplichting expliciet in de Algemene wet bestuursrecht wordt opgenomen.” (4)

Concrete actie

Er is inmiddels ook wel degelijk concrete actie ondernomen. Zo bestaat er sinds eind vorig jaar een Algoritmeregister, waarin is opgenomen welke algoritmes overheden gebruiken voor besluitvorming. En het inmiddels demissionaire kabinet heeft 1 miljoen euro vrijgemaakt voor algoritmetoezicht, dat valt onder de Autoriteit Persoonsgegevens. Als klap op de vuurpijl komt de EU AI Act eraan, waar het Europees Parlement nog niet zo lang geleden toestemming voor gaf.

Maar bij al die op zich positieve ontwikkelingen is meteen een forse kanttekening te plaatsen. Overheden vullen het Algoritmeregister nauwelijks in (5), die 1 miljoen voor toezicht is een druppel op de gloeiende plaat en het transparantiebeginsel in de EU AI Act geldt slechts voor AI-tools als ChatGPT en deepfakes en is in die zin nog niet erg vergaand.

Zonder bindende wetgeving en een toezichthouder met voldoende capaciteit en met veel geld worden transparante algoritmes een moeilijk verhaal.

  1. https://www.vpro.nl/argos/media/luister/argos-radio/onderwerpen/2023/hoe-rotterdam-haar-burgers-op-de-digitale-snijtafel-legt.html

  2. https://www.rijksoverheid.nl/actueel/nieuws/2022/10/07/overheid-gaat-meer-doen-om-problemen-algoritmen-te-voorkomen

  3. https://tijdschriften.boombestuurskunde.nl/tijdschrift/bk/2020/4/Bk_0927-3387_2020_029_004_001

  4. https://www.mensenrechten.nl/actueel/nieuws/2023/06/29/college-verplichte-melding-en-uitleg-bij-gebruik-algoritmes-door-overheid

  5. https://tweakers.net/nieuws/209908/nederlandse-overheden-voegden-slechts-acht-algoritmes-toe-aan-algoritmeregister.html

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.