Tech

Is de patiënt klant of product?

Nederland loopt voorop in het toepassen van big data in de zorg. Een mooi voorbeeld is het initiatief van neuroloog Bas Bloem waarbij met en door parkinsonpatiënten, gedurende twee jaar onder meer hart- en hersenactiviteiten worden bijgehouden. Doel is om meer inzicht te krijgen in welke therapie werkt bij de parkinsonpatiënt.

Big data-toepassingen zoals deze kunnen leiden tot betere zorg waar parkinsonpatiënten duidelijk baat bij hebben. Ze kunnen patiënten echter ook kwetsbaar maken. Want als patiënten veel gegevens van zichzelf vrijgeven, vergroot dit hun kwetsbaarheid voor misbruik van die gegevens.

Om misbruik te voorkomen heeft Bloem samenwerking gezocht met Bart Jacobs, hoogleraar computerbeveiliging en bekend omdat hij regelmatig in de media waarschuwt voor beveiligingsproblemen van databanken. Samen hebben ze een technologie ontwikkeld om de gegevens zo te versleutelen - op basis van polymorfe pseudoniemen - dat ze alleen met toestemming van de patiënt gebruikt kunnen worden. De data zijn bovendien ondergebracht in een aparte stichting met een eigen bestuur. Ondanks de samenwerking met Google-zusterorganisatie Verily is gewaarborgd dat de gegevens niet gedeeld worden met Google.

Heeft de computer altijd gelijk?

Een ander risico is dat big data-uitkomsten niet vanzelfsprekend juist zijn. We weten wel dat big data-computers als Watson van IBM beter dan dokters in staat zijn grote volumes wetenschappelijke informatie tot zich te nemen, en daardoor tot meer accurate diagnoses kunnen komen dan dokters. Maar of de uitkomsten van big data-toepassingen het juiste advies voor goede zorg geven, hangt af van de kwaliteit van de data waarop zij zich baseren.

Als de dataset belangrijke data mist, of wanneer data op verschillende manieren geïnterpreteerd kunnen worden, kunnen statistische relaties en patronen geen betekenis hebben, of tenminste een heel andere betekenis dan je op het eerste gezicht zou denken. Het is niet voor niets dat partijen als Google, IBM en Apple geïnteresseerd zijn in uniforme codering van medische termen (SNOMED).

Maar ook door de manier waarop algoritmen zijn geprogrammeerd kunnen fouten ontstaan. Waar decision support-systemen vroeger uitgingen van transparante 'beslisbomen', is nu sprake van zelflerende algoritmen die voor zorgprofessionals niet te doorzien zijn, waardoor fouten niet worden herkend. Dit soort fouten kunnen grote gevolgen hebben voor individuele patiënten. Bijvoorbeeld als een patiënt daardoor ten onrechte zorg wordt onthouden of als therapieën toch niet blijken te werken.

Big data alleen voor onderzoek?

De risico’s van big data zijn kleiner bij toepassing op grotere groepen, zoals in gezondheidsonderzoek. Eventuele fouten op het niveau van individuen middelen, doordat naar grote aantallen wordt gekeken. Het is echter een illusie te denken dat big data ook dan geen betekenis krijgt voor het individu.

Het is bijvoorbeeld niet te vermijden dat ook commerciële partijen toegang hebben tot die data en dat commerciële toepassingen zich richten op het individu. Hoewel het mogelijk is om met onomkeerbare anonimiseringstechnieken privacy ook in commerciële toepassingen te waarborgen, moeten we constateren dat dat nu niet altijd gebeurt. Het is dus zaak te zorgen dat dit wel gebeurt, om de privacy van patiënten goed te beschermen.

Patiënt als klant en product?

Juridisch wordt de patiënt of persoon op grond van de Wet bescherming persoonsgegevens en vanaf 25 mei 2018 in de Algemene Verordening Gegevensbescherming beschermd tegen behandeling als product. Vanwege de fundamentele waarde en het fundamentele recht van de menselijke waardigheid mogen - bijvoorbeeld via profilering met behulp van big data - geen besluiten met rechtsgevolg worden genomen zonder menselijke tussenkomst. Dat is mogelijk met zelflerende algoritmen en big data, maar mag dus niet.

Tegelijkertijd is het een gegeven dat patiëntdata commerciële waarde hebben en dat dus de patiënt op een bepaalde manier ook als 'een product' wordt gezien. Dat is op zich niet erg, als het gebruik van die data tot betere zorg leidt, zoals bij de eerdergenoemde parkinsonpatiënten. Én mits is gewaarborgd dat de patiëntdata niet worden gebruikt op een manier waar de patiënt schade van ondervindt. Schade als gevolg van privacyschendingen, maar ook schade wanneer big data-toepassingen tot onjuiste beslissingen leiden.

Meer instrumenten nodig

De huidige wetgeving biedt patiënten onvoldoende bescherming tegen risico’s van big data. Zeker, er is veel aandacht voor het beschermen van persoonsgegevens en met de nieuwe Europese verordening is ook meer mogelijk om internationale bedrijven daarop aan te spreken. Die wetten beschermen echter niet tegen stigmatisering van groepen. Bovendien kan de eenzijdige nadruk op bescherming van persoonsgegevens  de volledigheid en ook de kwaliteit van data beperken en vergroot daardoor het risico dat big data leidt tot fouten.

Het is belangrijk om instrumenten te ontwikkelen die naast privacybescherming ook de kwaliteit van dig-data toepassingen bevorderen. Dat vraagt niet alleen om ethische en juridische expertise, maar vooral ook om inbreng vanuit zorgprofessionals, patiënten én leveranciers. Om te bevorderen dat ook zelflerende algoritmen transparanter zijn en om te zorgen dat commerciële partijen maar ook overheden verantwoord met big data zullen omgaan.

Want zelfs als mensen (dokters én patiënten) het laatste woord hebben, is het voor hen best lastig om big data-adviezen goed te duiden. Wie weet wordt algoritmist een nieuw beroep in de gezondheidszorg? 

Theo Hooghiemstra en Lies van Gennip

Theo Hooghiemstra is Principal Consultant en adviesmanager bij PBLQ

Lies van Gennip is directeur van Nictiz

Lies van Gennip_Theo Hooghiemstra

3 Reacties

om een reactie achter te laten

Monique van Doorn

17 juli 2017

Interessant. Hoe zouden zorgprofessionals hier inbreng kunnen hebben? Wat is daar voor nodig? Kan ons kennisplatform daar een rol bij spelen?

Lies van Gennip

17 juli 2017

Om de kwaliteit van big-data toepassingen te bevorderen is het vanzelfsprekend belangrijk om op vele plekken de discussie op gang te brengen. Als u dit kunt doen vanuit uw kennisplatform voor zorgprofessionals, juichen wij dit toe.

Pieter Pekelharing

23 juli 2017

Ik kan 2 vectoren zien waarlangs je aan big data kunt bouwen. Dat is, zoals het EPD dat probeerde, vanuit de overheid, of vanuit het ziekenhuis, apple Google of een andere partij die dat over het hoofd van de patiënt probeert te doen. De andere vector is vanuit een een organisatie waar de patiënt in de lead zit. Een coöperatie waar de leden de mensen zijn die hun data in dat systeem inbrengen. Zo ligt de governance bij de mensen over wie die data gaan en verdwijnen er heel veel ethische issues. Ik denk dat het de beste manier is om tot de omslag te komen die de ontwikkeling naar big data mogelijk maakt.

Top