De AP onderzocht in het kader van haar jaarlijkse rapportage ‘AI & Algoritmes Nederland’ onder meer systemen die emoties zouden kunnen afleiden uit gezichtsuitdrukkingen of stemgeluid. Zulke toepassingen worden onder meer gebruikt in klantenservices en de zorg. Maar volgens de toezichthouder is het vaak onduidelijk hoe deze systemen tot hun conclusies komen. Een voorbeeld: als iemand snel en luid spreekt, kan de AI dat interpreteren als boosheid – een aanname die lang niet altijd klopt.
“De technologie gaat uit van een uniforme indeling van emoties, terwijl die per cultuur en individu sterk kunnen verschillen,” zegt AI-inspecteur Ruth Ruskamp. Mensen met autisme reageren bijvoorbeeld anders dan verwacht, en ook huidskleur kan invloed hebben op de interpretatie van gezichtsuitdrukkingen. Bovendien is een glimlach niet per definitie een teken van blijdschap.
Transparantie
De AP roept organisaties op om kritisch te kijken naar het gebruik van emotieherkenning. Transparantie over de inzet van deze technologie is essentieel, evenals het erkennen van de beperkingen ervan.
Ook wearables zoals smartwatches kwamen in het onderzoek aan bod. Deze apparaten meten bijvoorbeeld stressniveaus, wat nuttig kan zijn, maar volgens de AP schetsen ze een te simplistisch beeld. “Stress wordt weergegeven in overzichtelijke diagrammen en scores, wat een objectieve indruk wekt. Maar stress is ook een subjectieve ervaring, en die kant blijft onderbelicht,” aldus de toezichthouder.
Incidenten
De AP onderzocht daarnaast hoe de overheid AI inzet. Op het gebied van het vergroten van vertrouwen en kennis over algoritmes onder burgers boekt de overheid vooruitgang. Toch blijft de registratie van incidenten achter. “Incidenten zijn onvermijdelijk, maar we moeten ervan leren en die lessen delen,” zegt coördinerend AI-inspecteur Gerald Hopster. Ook pleit de AP voor betere documentatie van welke algoritmes overheden en organisaties gebruiken. (ANP)
