Organisaties die in hun dienstverlening chatbots gebruiken, moeten mensen altijd de mogelijkheid bieden om met een medewerker te spreken. Ook moeten organisaties duidelijk maken wanneer je met een chatbot te maken hebt en erop toezien dat de chatbot geen onjuiste, ontwijkende of misleidende informatie geeft.
De Autoriteit Persoonsgegevens (AP) en de Autoriteit Consument & Markt (ACM) roepen organisaties op om hun verantwoordelijkheid te nemen als zij ervoor kiezen om chatbots in te zetten. De toezichthouders besteden hier de komende tijd extra aandacht aan.
Het consumentenrecht verplicht bedrijven nu al tot rechtstreekse, effectieve en juiste communicatie met hun klanten. Toch blijkt dit voor veel bedrijven nu niet duidelijk genoeg te zijn. Deze duidelijkheid bestaat dankzij de digitaledienstenverordening (DSA) al wel voor zogenoemde ‘tussenhandeldiensten’ zoals sociale media, marktplaatsen en online platforms. In de DSA staat dat mensen de mogelijkheid moeten hebben om een communicatiemiddel te kiezen dat niet volledig geautomatiseerd is. De Europese Commissie bereidt op dit moment aanpassingen in de consumentenwetgeving voor, waardoor die dankzij de ‘Digital Fairness Act’ straks ook meer duidelijkheid moet geven voor andere bedrijven.
Daarnaast gelden in de EU vanaf 2 augustus 2026 nieuwe verplichtingen uit de AI-verordening voor transparantie bij de inzet van AI-chatbots. Bedrijven moeten gebruikers dan onder meer informeren dat zij met een geautomatiseerd systeem communiceren.
De toezichthouders vragen de Commissie de transparantieverplichtingen aan te vullen met duidelijke regels voor het ontwerp van AI-chatbots. Deze moeten eerlijk, herkenbaar en toegankelijk zijn. En mensen mogen niet op het verkeerde been gezet worden.
De AP (coördinerend toezichthouder op algoritmes en AI) en de ACM (toezichthouder op de consumentenrechten) zien dat de meldingen over problemen met chatbots snel toenemen. Uit recent consumentenonderzoek door de ACM blijkt dat het ontbreken van menselijk contact bij een klantenservice een van de grootste ergernissen is.
Ook blijkt dat chatbots soms slechte of zelfs onjuiste antwoorden geven, of mensen naar de mond praten zonder het probleem echt op te lossen. Verder is het voor mensen vaak onduidelijk of ze contact hebben met een chatbot of een medewerker. En ze slagen er niet altijd in om contact te krijgen met een medewerker als ze dat willen.
Meer toezicht op het gebruik van chatbots is ook nodig vanwege risico’s op het gebied van informatiebeveiliging en privacy. Chatbots zijn een vorm van generatieve AI, die wordt getraind met grote hoeveelheden informatie en gegevens. Daar kunnen ook vertrouwelijke gegevens en documenten bij zitten. Dit kan het – bijvoorbeeld voor kwaadwillenden – mogelijk maken om de chatbot meer informatie te laten geven dan nodig is voor het beantwoorden van ‘gewone’ klantvragen, en deze vertrouwelijke informatie te ontfutselen. Dit brengt dataveiligheid in gevaar en kan zelfs tot datalekken leiden.