Menu

Filter op
content
PONT Data&Privacy

0

Zelfregulering van AI: wassen neus of eerste goede stap?

Sinds dat president Biden in het Witte Huis zit, is hij vastberaden om de enorme kansen van kunstmatige intelligentie (AI) maximaal te benutten, maar wel met oog voor de risico’s. Het beschermen en garanderen van de rechten van Amerikanen staat daarbij bovenaan. Echter zie je dat de lichtsnelheid waarmee de AI ontwikkeling gaat in schril contrast staat tot de stroperige totstandkoming van federale regels op dit gebied.

26 juli 2023

Amerika is al jaren bezig met federale wetgeving voor gegevensbescherming en nieuwe technologieën, maar de Big Tech-lobby is altijd zeer invloedrijk geweest. Nu lijkt er een kleine eerste stap te zijn gezet op het gebied van AI. In mijn ogen is dit een stap in de juiste richting, maar daarover later meer. Ik neem je graag eerst even mee wat er onlangs in Washington gebeurde.

President legt focus op verantwoorde AI-ontwikkeling

Als onderdeel van dit streven heeft Biden zeven toonaangevende techbedrijven op het Witte Huis bijeengeroepen om afspraken te maken over AI. Het gaat om Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI (die van ChatGPT). Het Witte Huis kreeg vrijwillige toezeggingen van deze bedrijven om te werken aan een veilige, beveiligde en transparante ontwikkeling van AI-technologie.

De toezeggingen, die de bedrijven onmiddellijk zijn aangegaan, onderstrepen drie principes die fundamenteel moeten zijn voor de toekomst van AI:

  • Veilige digitale producten;

  • Optimale digitale beveiliging;

  • Vertrouwen van het publiek

Biden ziet dit als een belangrijke stap naar verantwoorde AI-ontwikkeling. Dit is overigens slechts het begin, want er zou een executive order en wetgeving in de maak zijn om een leidende rol te spelen in verantwoorde innovatie. Wanneer dit soort wet- en regelgeving er komt, is nog zeer onduidelijk.

De toezeggingen

Als we dan kijken wat er wel is dan kun je de drie principes onder verdelen een aantal toezeggingen waar de AI-bedrijven zich aan gaan houden:

Veiligheid

  • Ervoor zorgen dat producten veilig zijn voordat ze aan het publiek worden gepresenteerd, door interne en externe beveiligingstests van hun AI-systemen uit te voeren, mede door onafhankelijke experts. Oftewel een veilig product voordat je het op de markt brengt. Klinkt heel logisch, maar ChatGPT voelde zeker in het begin echt als een experiment.

  • Het delen van informatie met de industrie, overheden, maatschappelijke organisaties en academici over het beheersen van AI-risico's. Hierdoor kunnen “best practices” ontstaan die ons allen helpen om AI-risico’s beter te beheren.

Beveiliging

  • Het bouwen van systemen waarbij veiligheid voorop staat, door te investeren in informatiebeveiliging en bescherming tegen interne dreigingen. AI-systemen die nog niet volledig uitontwikkeld zijn mogen nog niet worden vrijgegeven. Dat kan pas wanneer het hoogste niveau van digitale beveiliging is bereikt.

  • Controle door derden op mogelijke kwetsbaarheden in hun AI-systemen en daarover naar buiten toe rapporteren, zodat eventuele problemen snel kunnen worden opgespoord en opgelost.

Vertrouwen

  • Het verdienen van het vertrouwen van het publiek door robuuste technische mechanismen te ontwikkelen waarmee gebruikers weten wanneer content is gegenereerd door AI. Denk hierbij aan een watermerk “made by AI” of iets in die richting. Zo weten gebruikers ook wanneer iets gemaakt is door een mens of AI.

  • Het publiekelijk rapporteren van de mogelijkheden, beperkingen en gebieden van geschikt en ongeschikt gebruik van hun AI-systemen. Daarbij wordt niet alleen gekeken naar veiligheidsrisico’s maar ook naar maatschappelijke risico's. Denk hierbij aan oneerlijkheid, onrechtvaardigheid of vooringenomenheid van AI-systemen.

  • Het prioriteren van onderzoek naar de maatschappelijke risico's die AI-systemen kunnen vormen. Denk hierbij aan het vermijden van discriminatie en het beschermen van de privacy of tegengaan van desinformatie.

  • AI-systemen inzetten voor het algemeen belang. Zo wordt er gesproken over kankerpreventie tot aan het tegen gaan van klimaatverandering. Wanneer AI goed wordt gebruikt kan het enorm bijdragen aan de welvaart, gelijkheid en veiligheid van ons allen, aldus de Amerikanen.

Frontier Model Forum

Vandaag, woensdag 26 juli, kwam een gezamenlijk aankondiging van OpenAI, Anthropic, Google en Microsoft naar buiten over het Frontier Model Forum. Dit is een soort denktank voor bedrijven die werken aan veilige en verantwoordelijke AI-ontwikkeling. Daarbij beschrijven ze samen drie speerpunten:

  1. Bevorderen van onderzoek naar veilige AI

  2. Identificeren van best practices en standaarden

  3. Delen van kennis en informatie tussen beleidsmakers en de industrie. 

Je merkt dat de bedrijven bewust bezig zijn om het reguleren bij zichzelf te houden. Mede door druk van de Amerikaanse president, maar zeker ook de ontwikkelingen binnen de EU met de AI Act. Op dit moment zijn de vier genoemde bedrijven betrokken bij dit initiatief, maar ze staan open voor nieuwe deelnemers. Wellicht hebben we een trend te pakken.

Wassen neus of goede eerste stap?

Toen ik dit bericht zag van het Witte Huis was ik behoorlijk sceptisch. Net als jij waarschijnlijk. Techbedrijven die zichzelf gaan reguleren en vervolgens met “vrijwillige” afspraken komen - dat klinkt niet echt als een recept voor succes. Toch wil ik het wel positief insteken mede gelet op het bericht van vandaag.

We zitten niet op hetzelfde punt als toen Facebook, Google en Amazon zo’n twintig jaar geleden begonnen met hun digitale diensten. Je merkt dat men tegenwoordig echt wel kritiek heeft op AI. In sommige gevallen bestaat er zelfs vrees. Dat weten deze bedrijven ook. Gebruik van ChatGPT is de laatste tijd sterk verminderd. Er zijn AI-modellen die het daglicht niet zien, omdat de makers het ook niet volledig kunnen uitleggen. We hebben nu een tsunami aan digitale wetten, met de EU als internationale aanjager. En tot slot zien we dat het vertrouwen in algoritmes daalt naar mate men er meer van afweet. Dat blijkt uit een recent rapport van de nieuwe directie Coördinatie Algoritmes van de Autoriteit Persoonsgegevens.

Kortom: deze bedrijven liggen meer dan ooit onder een vergrootglas en de publieke opinie is een stuk kritischer dan twintig jaar geleden. Dat in combinatie met de doortastendheid van diverse landen en ook een Amerikaanse president die zich hier op wil profileren geeft mij de hoop dat we op het juiste spoor zitten. Hopelijk zijn we nog niet te laat.

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.

KENNISPARTNER

Martin Hemmer