Steeds vaker gebruiken organisaties artificiële intelligentie (AI) om emoties bij mensen te herkennen. Emotieherkenning gaat echter uit van omstreden aannames over emoties en de meetbaarheid daarvan. Als het toch wordt ingezet, brengt dit risico’s en ethische vragen met zich mee. Dat concludeert de Autoriteit Persoonsgegevens (AP) in de nieuwe Rapportage AI & Algoritmes Nederland (RAN).
Je stem die wordt gebruikt om ‘je emotionele toestand’ te analyseren tijdens een gesprek met een klantenservice. Je smartwatch die meet of je stress hebt. Of een chatbot die je emoties herkent en daardoor empathischer kan reageren. Steeds meer organisaties gebruiken emotieherkenning met AI, omdat ze daarmee producten en diensten denken te kunnen verbeteren. Bijvoorbeeld bij marketing of klantcontact, maar ook in de openbare ruimte en de gezondheidszorg.
De AP bekeek de inzet van emotieherkenning met AI door klantenservices, in wearables (zoals een smartwatch) en in taalmodellen. Hieruit bleek dat niet altijd duidelijk is hoe AI-systemen emoties herkennen, en of de uitkomsten betrouwbaar zijn. Ondanks de groei van deze toepassingen, weten mensen ook niet altijd dat emotieherkenning wordt ingezet. En op basis van welke data dat gebeurt.
De AP concludeert dat er zeer voorzichtig moet worden omgegaan met dit soort toepassingen. Anders is er risico op discriminatie en inperking van de menselijke autonomie en waardigheid.
‘Emoties raken sterk aan je menselijke autonomie. Als je emoties wilt herkennen, moet dat dan ook zeer zorgvuldig en op basis van betrouwbare technologie gebeuren. Daar is nu vaak geen sprake van,’ zegt Aleid Wolfsen, voorzitter van de AP.
Veel AI-systemen die zeggen emoties te kunnen herkennen, zijn gebouwd op omstreden aannames. Daardoor worden biometrische kenmerken – zoals stem, gezichtsuitdrukking of hartritme – ongenuanceerd vertaald naar emoties.
‘Het idee dat een emotie door iedereen op dezelfde manier wordt ervaren, klopt niet. Laat staan dat die emoties meetbaar zijn aan de hand van biometrie,’ aldus Wolfsen. ‘Tussen culturen kunnen er grote verschillen zijn in hoe mensen emoties ervaren, uiten en benoemen. Ook tussen individuen kunnen verschillen bestaan, bijvoorbeeld door leeftijd. Verder kun je emoties niet altijd een-op-een vertalen. Een hoge hartslag is immers niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede.’
Verschillende toepassingen van stemherkenning vallen straks onder specifieke AI-regelgeving en moeten nu al voldoen aan privacywetgeving, zoals de Algemene verordening gegevensbescherming (AVG). In het onderwijs en op de werkvloer is de inzet van AI-systemen voor emotieherkenning al verboden volgens de Europese AI-verordening.
Of deze technologie überhaupt wenselijk is, is een andere vraag. ‘Het is een ethisch vraagstuk of je als maatschappij het herkennen van emoties met AI toelaatbaar vindt,’ zegt Wolfsen. ‘Daarvoor is een maatschappelijke en democratische afweging nodig: of je deze systemen wilt gebruiken en zo ja, in welke vorm en waarvoor.’