Menu

Filter op
content
PONT Data&Privacy

0

Hoe zit het met de AI Act? Europese Commissie geeft uitleg

De Europese Unie heeft met de AI-verordening (Verordening (EU) 2024/1689) ("AI Act") een wereldprimeur bereikt: het is het eerste uitgebreide wettelijke kader voor kunstmatige intelligentie ter wereld. Het doel is om betrouwbare AI in Europa te bevorderen, waarbij de regels zijn afgestemd op de risico's die AI-systemen met zich meebrengen.

Europese Commissie 13 May 2026

Nieuws/persbericht

Nieuws/persbericht
blue and white flags on pole

Waarom zijn regels nodig?

Hoewel de meeste AI-systemen weinig tot geen risico vormen en kunnen bijdragen aan het oplossen van maatschappelijke uitdagingen, brengen sommige systemen risico's met zich mee die om aanpak vragen. Zo is het vaak onduidelijk hoe een AI-systeem tot een bepaalde beslissing of voorspelling is gekomen. Daardoor kan het moeilijk worden om vast te stellen of iemand oneerlijk is benadeeld — bijvoorbeeld bij een sollicitatieprocedure of een aanvraag voor een publieke uitkering.

De AI-verordening maakt deel uit van een breder pakket aan beleidsmaatregelen, samen met onder meer het AI Continent Action Plan en het AI Innovation Package. Ter ondersteuning van de overgang naar het nieuwe regelgevingskader heeft de Europese Commissie ook het AI Pact gelanceerd: een vrijwillig initiatief waarbij AI-aanbieders en -gebruikers alvast aan de kernverplichtingen kunnen voldoen, nog vóór de wetgeving volledig van kracht is.

Een risicogebaseerde aanpak

De AI-verordening onderscheidt vier risiconiveaus:

Onaanvaardbaar risico — verboden

AI-systemen die een duidelijke bedreiging vormen voor de veiligheid, het levensonderhoud of de rechten van mensen, zijn verboden. Verboden praktijken zijn onder meer schadelijke manipulatie en misleiding via AI, sociale scoring, het voorspellen van individuele criminele risico's, het massaal verzamelen van gezichtsafbeeldingen via internet of bewakingscamera's, emotieherkenning op de werkvloer en in onderwijsinstellingen, en realtime biometrische identificatie op openbare plaatsen door wetshandhavingsinstanties. Deze verboden zijn sinds februari 2025 van kracht.

Hoog risico — strenge verplichtingen

AI-toepassingen die ernstige risico's kunnen opleveren voor gezondheid, veiligheid of grondrechten, worden als hoog-risico geclassificeerd. Denk aan AI in kritieke infrastructuur, AI-tools bij sollicitatieprocedures, kredietbeoordelingssystemen, AI in de rechtspraak of bij migratiebeheer, en AI-systemen voor biometrische identificatie. Voor deze systemen gelden verplichtingen zoals risicobeoordelingen, hoogwaardige datasets, menselijk toezicht en uitgebreide documentatie.

Transparantierisico — informatieplicht

Wanneer mensen omgaan met AI-systemen zoals chatbots, moeten zij weten dat zij met een machine communiceren. Aanbieders van generatieve AI zijn verplicht om door AI gegenereerde inhoud identificeerbaar te maken. Deepfakes en teksten bedoeld om het publiek te informeren over zaken van algemeen belang moeten duidelijk worden gelabeld. Deze transparantieregels treden in augustus 2026 in werking.

Minimaal of geen risico — geen extra regels

De grote meerderheid van de AI-systemen in de EU valt in deze categorie, zoals AI in videospellen of spamfilters. Voor deze toepassingen gelden geen aanvullende verplichtingen.

Regels voor algemene AI-modellen

Zogeheten General-Purpose AI (GPAI)-modellen — modellen die een breed scala aan taken kunnen uitvoeren — vormen steeds vaker de basis voor AI-systemen binnen de EU. Voor de aanbieders van dergelijke modellen gelden transparantie- en auteursrechtgerelateerde regels. Modellen met mogelijk systemische risico's moeten bovendien worden beoordeeld en die risico's moeten worden beperkt. De GPAI-regels zijn sinds augustus 2025 van kracht.

Toezicht en handhaving

Zodra een AI-systeem op de markt is, houden autoriteiten toezicht, zorgen gebruikers voor menselijk toezicht en monitoren aanbieders hun systemen actief. Ernstige incidenten en storingen moeten worden gemeld. Met dit kader wil Europa niet alleen veiligheid en grondrechten waarborgen, maar ook innovatie en investeringen in betrouwbare AI stimuleren.

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.

KENNISPARTNER

Meer informatie
-->