“Nu de druk om AI te omarmen toeneemt, moeten we grondrechten beschermen”, zegt AP-voorzitter Aleid Wolfsen in toelichting op het meest recente Rapportage AI & Algoritmes Nederland. Het gevaar van zogeheten systeemrisico’s, waarbij problemen ontstaan door uitval of gedrag van AI-systemen, kan gevolgen hebben voor grote groepen mensen of vitale maatschappelijke functies. Als voorbeeld noemt de AP expliciet de zorgsector.
Transparantie en uitlegbaarheid van AI-systemen schiet tekort, oordeelt de privacy-waakhond. Bovendien blijft de doorbereiding op de Europese AI-verordening achter, “terwijl versnelling nodig is”.
Impact op (mentale) gezondheid
Daarnaast wijzen de opstellers van het rapport op de negatieve impact van chatbots en de soms verkeerde adviezen die daaruit voortkomen. Dat zou met name een gevaar zijn voor jongeren met mentale problemen. Ter illustratie wijst de AP naar een rechtszaak in de Verenigde Staten waar ouders van een tiener OpenAI aanklaagden na de zelfdoding van hun zoon. “Ook het aantal incidenten van psychoses in relatie tot AI-chatbots nam toe”, valt te lezen in het rapport. “Het werkelijke aantal incidenten met impact op mentale gezondheid en veiligheid ligt naar verwachting hoger, omdat een deel ervan niet of minder zichtbaar is.”
Aanpassing na zelfdoding
In sommige gevallen passen ontwikkelaars zelf hun product aan. Zo werd ChatGPT aangepast na kritiek op het toegenomen gebruik voor therapie, waar de chatbot niet geschikt voor is. OpenAI lanceerde recent in de Verenigde Staten ChatGPT Health, specifiek gericht op de gezondheidszorg. Techbedrijf Anthropic richt zich eveneens op de gezondheidszorg.
Haast met toezicht
Europese regelgeving staat voorlopig introductie van deze diensten in Nederland in de weg. In eigen land hamert de AP op haast met betere uitvoering van de regelgeving voor AI, meer verduidelijking daarvan en meer toezicht daarop. De organisatie roept het nieuwe kabinet op hier vaart mee te maken.
