Op 1 augustus 2024 is de Europese AI-verordening in werking getreden. Deze wet heeft gevolgen voor hoe AI wordt ontwikkeld en gebruikt in de Europese Unie. In dit artikel lees je meer over de verplichtingen die vanaf augustus 2025 gelden voor AI-modellen voor algemene doeleinden. Ook staan we stil bij verschillende transparantieverplichtingen die gaan gelden vanaf augustus 2026. Dit is vooral belangrijk voor overheidsorganisaties.
AI-modellen voor algemene doeleinden zijn ontworpen om een breed scala aan taken uit te voeren. Ze worden getraind op enorme hoeveelheden data en zijn veelzijdig inzetbaar. Vanwege de brede toepasbaarheid van deze modellen, worden er veel AI-systemen op voortgebouwd. Bekende voorbeelden zijn modellen zoals GPT-4 en BERT. Deze modellen kunnen teksten, audio, video en zelfs computercode genereren. Dat maakt ze waardevol voor verschillende toepassingen.
Belangrijk om te weten is dat deze AI-modellen nog geen zelfstandige systemen zijn. Ze vormen de basis voor AI-systemen, maar zonder extra componenten zoals een gebruikersinterface zijn ze niet meer dan een krachtige tool. Voorbeelden van AI-systemen die gebruikmaken van deze modellen zijn ChatGPT, IBM Watsonx en Microsoft Copilot.
AI-modellen voor algemene doeleinden worden steeds belangrijker in de wereld van kunstmatige intelligentie. Hun brede toepasbaarheid maakt het mogelijk om nieuwe en innovatieve systemen te ontwikkelen. Maar deze ontwikkelingen brengen ook risico’s met zich mee. Ontwikkelaars weten vaak niet welke data is gebruikt of hoe het model precies is getraind. Bovendien is er veel data nodig, waarvan een deel beschermd kan zijn door auteursrecht.
Daarnaast kunnen deze modellen systeemrisico’s met zich meebrengen, zoals de verspreiding van ongepaste of zelfs gevaarlijke content. Dit kan invloed hebben op de volksgezondheid, de veiligheid en zelfs op democratische processen. Daarom is het belangrijk dat er duidelijke regels zijn voor de ontwikkeling en inzet van deze modellen.
Als je AI-modellen voor algemene doeleinden aanbiedt, moet je technische documentatie bijhouden. Deze documentatie moet informatie bevatten over het trainings- en testproces en de resultaten van evaluaties. Deze gegevens kan het AI-bureau opvragen.
Bovendien moeten aanbieders zorgen voor actuele informatie die toegankelijk is voor de aanbieders van systemen die het model gebruiken. Dit helpt hen om de mogelijkheden en beperkingen van het model te begrijpen en aan de wettelijke eisen te voldoen.
Voor modellen die systeemrisico’s met zich meebrengen, gelden extra verplichtingen. Je moet bijvoorbeeld regelmatige evaluaties uitvoeren om kwetsbaarheden te identificeren en incidenten documenteren. Ook moet je zorgen voor goede cyberbeveiliging.
De AI-verordening introduceert vanaf augustus 2026 ook transparantieverplichtingen voor bepaalde AI-systemen. Dit geldt vooral voor generatieve AI-systemen. Deze systemen moeten ervoor zorgen dat de output duidelijk gemarkeerd wordt als kunstmatig gegenereerde of gemanipuleerde content. Dit moet in een machine-leesbaar formaat zijn, zodat het gemakkelijk te detecteren is.
Deze verplichting heeft ook gevolgen voor overheidsorganisaties die AI-systemen gebruiken voor communicatie. Zelfs als je geen aanbieder bent, maar wel gebruik maakt van een dergelijk systeem, moet je duidelijk maken dat de inhoud gegenereerd of gemanipuleerd is. Dit kan bijvoorbeeld door in de bijschriften van afbeeldingen aan te geven dat ze door AI zijn gemaakt.
Ook voor AI-systemen die met mensen communiceren, zoals chatbots, gelden transparantieverplichtingen. Gebruikers moeten weten dat ze met een AI-systeem praten en niet met een mens. Dit is vooral relevant voor online diensten van overheidsorganisaties.