Beeld: Canva
“Generatieve AI voorziet in een behoefte aan continuïteit en nabijheid die de reguliere zorg – mede door wachttijden en beperkte contactmomenten – vaak niet kan bieden”, valt te lezen in het rapport van MIND. Een deel van de mensen die AI inzet om over psychische klachten te praten, staat dan ook op een wachtlijst. Verder zijn jongeren veelal geneigd gebruik te maken van de technologie, net als mensen die in behandeling zijn en een chatbot zien als aanvulling. Tegelijkertijd geeft 13 procent van de AI-gebruikers aan de software in te zetten om reguliere zorg te vervangen.
Gratis versie, goede adviezen
De meeste ondervraagden die generatieve AI inzetten (84 procent) heeft de gratis versie van het bekende ChatGPT gebruikt, gevolgd door de betaalde versie (15 procent). De gratis variant van Google Gemini volgt op afstand met iets meer dan 9 procent. Wat opvalt in de cijfers is dat de overgrote meerderheid (93 procent) aangeeft dat inzet van de chatbot in zekere mate helpend is. Voordelen van de digitale gesprekspartner is dat deze altijd beschikbaar en laagdrempelig is en niet oordeelt. Daar komt bij dat de dienst gratis beschikbaar en gebruikers de adviezen vaak als goed beoordelen en het prettig vinden dat ze op deze manier niet het gevoel hebben hun naasten tot last te zijn. “Het voorziet mensen in een luisterend oor, hulp bij het ordenen, in kaart brengen en begrijpen van gedachten en informatie over (het omgaan met) psychische klachten”, schrijft MIND.
Oog voor risico’s
Ondanks de overwegend positieve ervaringen geeft de meerderheid (59 procent) de voorkeur aan praten met een naaste of een professionele hulpverlener. Zowel gebruikers als niet-gebruikers zien risico’s in het gebruik van de chatbot. Zo kunnen de antwoorden volgens deelnemers te algemeen, kan het taalmodel de neiging hebben om mee te gaan in bepaalde gedachten in plaats van deze tegen te spreken en wordt de vraag of situatie soms niet goed begrepen. Ook zijn er zorgen over de privacy en de betrouwbaarheid van de informatie. In sommige gevallen versterkt het gevoelens van eenzaamheid. “AI kent niet mijn geschiedenis, mijn crisisplan, mijn diagnoses, mijn thuissituatie. Dan kunnen gegokte
antwoorden van AI zeer gevaarlijke gevolgen hebben”, laat een deelnemer aan het onderzoek weten. Een ander zegt: “Ik wil niet dat mijn meest persoonlijke gedachten die ik aan zo’n chatbot zou vertellen op straat komen te liggen.”
Kaders en richtlijnen
MIND stelt dat de chatbots voorzien in een behoefte en pleit voor kaders en richtlijnen. Toetsing en toezicht moeten zorgen voor voldoende veiligheid, kwaliteit en ethiek. “Er moeten strenge eisen worden gesteld aan privacy en dataveiligheid en taalmodellen moeten worden getraind op actuele en betrouwbare informatie”, staat in het rapport. “Daarnaast is het belangrijk dat er in co-creatie met ervaringsdeskundigen veilige AI-toepassingen worden ontwikkeld, specifiek voor het bespreken van psychische klachten.” Ook wil de belangenorganisatie goede voorlichting over de mogelijkheden, beperkingen en risico’s van generatieve AI en onderzoek naar de kwaliteit van verschillende toepassingen.

