Menu

Filter by
content
PONT Data&Privacy

0

AP: AI-Impactbarometer kleurt rood, actie is noodzakelijk

De Autoriteit Persoonsgegevens (AP) wil dat het nieuwe kabinet haast maakt met de uitvoering van de regelgeving voor artificiële intelligentie (AI) en het toezicht daarop. Ook organisaties die AI willen inzetten, hebben dringend behoefte aan helderheid over de regels voor AI. Die zijn al van kracht en worden steeds crucialer. De AP waarschuwt daarbij voor grote risico’s op onveilige en discriminerende algoritmes, waartegen nu niet handhavend kan worden opgetreden.

Autoriteit Persoonsgegevens 5 March 2026

News/press release

News/press release

Dit blijkt uit de zesde editie van de Rapportage AI & Algoritmes Nederland (RAN), die de AP twee keer per jaar publiceert.

Als coördinerend toezichthouder op algoritmes en AI analyseert de AP de belangrijkste risico’s en effecten hiervan. Vervolgens vertaalt de AP die naar 9 graadmeters in de AI-Impactbarometer. Deze toont een verslechterend beeld. In de vorige rapportage stegen al 2 van de 9 graadmeters naar rood. Nu is dat verdubbeld naar 4. 

De AP maakt zich zorgen over het gebrek aan voortgang bij de inrichting van toezicht, de 
ontwikkeling van standaarden, de registratie van algoritmes door de overheid en het zicht op 
incidenten. 

Aleid Wolfsen, voorzitter van de AP: 'Vijf jaar na het toeslagenschandaal zijn de lessen duidelijk, 
maar de opvolging blijft achter. Dat komt vooral doordat stevige regels voor algoritmes en AI en 
handhaving hiervan ontbreken. Nu de druk om AI te omarmen toeneemt, moeten we grondrechten 
beschermen. Wie een nieuw schandaal wil voorkomen, moet nú handelen.'

Ontwijken verantwoordelijkheid

De risico’s van AI nemen exponentieel toe. Nieuwe toepassingen, zoals ‘agentic AI’, vragen om snelle voorbereiding van organisaties en toezichthouders. Daarnaast proberen sommige organisaties onder de AI-verordening uit te komen door hun systemen als ‘gewone algoritmes’ te classificeren. Een voorbeeld is OxRec, dat door reclasseringsorganisaties wordt gebruikt om recidive te voorspellen. Dat was als algoritme geregistreerd, terwijl het een AI-systeem is, met alle risico’s van dien. 

Om mensen te beschermen, vallen juist dit soort systemen onder de strenge regels van de AI-verordening. Elke week ziet de AP nieuwe registraties van systemen als algoritme in het algoritmeregister, terwijl het om AI-systemen gaat. Daardoor nemen de risico’s voor mensen voortdurend toe. 

Ook commerciële organisaties proberen hun verantwoordelijkheden te ontlopen, ten koste van hun klanten of gebruikers. De voornaamste gevaren die in 2025 en 2026 naar voren zijn gekomen, zijn de oncontroleerbare toename van deepfakes, AI-gestuurde fraude, psychische schade door chatbots, en dat AI-beveiligingsmaatregelen steeds meer achterblijven bij de technologische ontwikkelingen. De AP wijst op recente incidenten met AI, zoals de wildgroei aan AI-stemwijzers en de problemen met Grok, waarmee niet van echt te onderscheiden naaktbeelden van ieder willekeurig persoon konden worden gemaakt. Dit brengt de bescherming van grondrechten en cyberveiligheid in gevaar.

Toename ernstige risico’s

De AP signaleert dat de risico’s van het inzetten van AI en algoritmes lang worden onderschat. Hierdoor kunnen mensen gediscrimineerd worden of ontstaat er zelfs gevaar voor de veiligheid in de samenleving. Dit blijkt ook uit verschillende kwesties in de RAN. De AP constateert dat veel werkgevers AI inzetten bij werving en selectie. Die inzet moet accuraat, niet-discriminerend en uitlegbaar zijn voor kandidaten.

Uit verkenningen en praktijktesten blijkt echter dat transparantie en uitlegbaarheid vaak tekortschieten, vooral bij online en game-based assessments. Deze worden gebruikt voor een eerste selectie, zonder dat duidelijk is hoe zij de geschiktheid van kandidaten voorspellen. Ook is vaak onduidelijk hoe een oordeel tot stand komt en hoe kandidaten dat kunnen betwisten. Daardoor krijgen sommige kandidaten vanaf het begin nauwelijks kans om geselecteerd te worden.

Volgens de Europese AI-verordening zijn AI-systemen voor werving en selectie hoogrisicosystemen en moeten ze vanaf augustus 2026 voldoen aan strenge eisen.

Dringende opdracht voor het nieuwe kabinet

Het doel van de AI-verordening is helder: betrouwbare AI in Europa bevorderen, met systemen die veilig zijn, grondrechten respecteren en tegelijkertijd innovatie mogelijk maken. De AP waarschuwt dat die doelen door besluiteloosheid niet gehaald worden en dat de invoering van AI-regels in gevaar komt. 

De AP wil dat het nieuwe kabinet snel werk maakt van de uitvoering van de AI-verordening. Dat betekent: de Nederlandse uitvoeringswet vaststellen, toezichthouders aanwijzen, financiering voor toezicht structureren en duidelijkheid scheppen over de toepassing van de regels. Daarnaast moet Nederland in Europa aandringen op snelle afronding van de discussies over uitstel en vereenvoudiging van de regelgeving, aldus de AP.

Share article

Comments

Leave a comment

You must be logged in to post a comment.

Learn more
-->