Menu

Filter op
content
PONT Data&Privacy

0

De opkomst van AI: kansen en risico’s

AI biedt veel mogelijkheden voor innovatie en de maatschappelijke impact ervan is groot. Steeds meer organisaties gebruiken AI om (big) data te analyseren en processen te verbeteren. Tegelijkertijd staat deze innovatie soms op gespannen voet met de bestaande wetgeving, zoals de Algemene Verordening Gegevensbescherming (AVG), die strenge eisen stelt aan de verwerking van persoonsgegevens en de transparantie van algoritmes. Handhaving en toepassing van de AVG liepen de afgelopen jaren vaak achter op de snelle ontwikkelingen van AI.

Naast juridische uitdagingen zorgt AI ook voor ethische dilemma’s. Algoritmes kunnen leiden tot discriminatie, bevooroordeelde informatievoorziening en misbruik van persoonlijke gegevens. De vraag hoe AI verantwoord kan worden ingezet om maatschappelijke meerwaarde te creëren, terwijl grondrechten en privacy worden beschermd, staat centraal in het Europese beleid.

Van strategie naar regelgeving: de Europese koers

De Europese Commissie heeft de afgelopen jaren stevig ingezet op betrouwbare en mensgerichte AI. Met strategieën, gecoördineerde plannen en ethische richtsnoeren legde zij de basis voor regelgeving. Deze weg heeft geleid tot de AI Act (AI-verordening): het eerste uitgebreide juridische kader voor kunstmatige intelligentie ter wereld.

De AI Act (AI-verordening)

De AI Act is in april 2024 definitief aangenomen en sinds februari 2025 gedeeltelijk van kracht. De verordening heeft als doel ervoor te zorgen dat AI-systemen veilig zijn, dat fundamentele rechten beschermd blijven en dat er toezicht en handhaving mogelijk is. Daarmee vormt zij het wereldwijde voorbeeld voor het reguleren van AI.

De AI-verordening werkt met een risicogebaseerde aanpak:

  • Onaanvaardbare risico’s: sommige toepassingen zijn verboden, zoals social scoring, manipulatieve AI-systemen en emotieherkenning op werk of school.

  • Hoge risico’s: systemen die bijvoorbeeld worden gebruikt in werving, rechtshandhaving of de zorg, moeten voldoen aan strikte eisen op het gebied van transparantie, datakwaliteit, logging en menselijk toezicht.

  • Beperkt risico: toepassingen moeten burgers informeren wanneer zij met AI te maken hebben (bijvoorbeeld bij AI-gegenereerde content).

De AI Act wordt gefaseerd ingevoerd en zal vanaf 2 augustus 2027 volledig van kracht zijn. Belangrijke tussenstappen:

  • Sinds 2 februari 2025: verbod op bepaalde AI-systemen (o.a. social scoring en manipulatieve AI).

  • Sinds 2 augustus 2025: regels voor aanbieders van general purpose AI-modellen (zoals taalmodellen voor chatbots).

  • Vanaf 2 augustus 2026: extra verplichtingen voor hoogrisico-systemen, zoals registratie in een Europese database en grondrechteneffectbeoordelingen bij gebruik door overheden.

De AI Office is opgericht om toezicht te houden op naleving van de regels, met nationale toezichthouders die aanvullend verantwoordelijk zijn. Overtredingen kunnen leiden tot forse boetes en het verplicht van de markt halen van systemen.

Relevantie voor organisaties

De AI Act geldt voor zowel aanbieders (ontwikkelaars) als gebruikers (toepassers) van AI. Van overheid en zorginstelling tot mkb: iedereen die AI inzet moet nagaan in welke risicocategorie een systeem valt. Organisaties zijn verplicht maatregelen te nemen, zoals:

  • het inrichten van menselijk toezicht,

  • zorgen voor representatieve trainingsdata,

  • documentatie en transparantie waarborgen,

  • incidenten melden bij aanbieders en toezichthouders.

Daarnaast geldt dat AI-geletterdheid van werknemers een wettelijke vereiste is: organisaties moeten hun personeel trainen om AI verantwoord te gebruiken.

KENNISPARTNER

Martin Hemmer