In mijn vorige blog heb ik een eerste tip van de sluier opgelicht over de mogelijkheden van Data Science in de zorg. Om mee te kunnen praten en te oordelen over nieuwe ontwikkelingen en spannende innovaties in de zorg, zijn er een aantal zaken die u eigenlijk moet weten. Ben jij al helemaal ingelezen als het gaat om termen als Machine Learning en aanverwante zaken? Als je nu volmondig ja zegt, zou ik snel door scrollen naar een interessantere tekst. Voor wie meer wil weten over hoe Machine Learning werkt en vooral wat dit soort technieken met de zorg te maken heeft, lees nog even door. Ik ga er in dit tweede deel verder op in.

De afgelopen jaren heeft de digitalisering in de zorg geleid tot grote hoeveelheden waardevolle (medische) data. Niet dat het bewaren van medische data op zich nieuw is; denk bijvoorbeeld aan consultaantekeningen en onderzoeksverslagen, data die al sinds jaar en dag door medische professionals worden opgeslagen. Al die medische data verdubbelt op dit moment grofweg elk jaar. Eind 2020 zal er naar verwachting 2341 exabyte aan medische data zijn (waarbij een exabyte ongeveer gelijk is aan 1 miljard gigabytes). Er is inmiddels zoveel data, dat het nauwelijks te bevatten is voor een mens. En dat terwijl er enorm veel informatie ligt verborgen in al deze data. Informatie waarmee grote gezondheidswinst behaald kan worden en waardoor zorgkosten naar beneden kunnen. Jammer genoeg is al die zorgdata opgeslagen in verschillende silo’s die nog niet of nauwelijks ontsloten en al helemaal niet verbonden zijn met elkaar.

Patronen en betekenis
Afbeelding: Salomon Tetelepta

Pas als het lukt om die data te koppelen en er patronen in te herkennen, wordt de data echt waardevol.

Neem het voorbeeld hierboven; in eerste instantie lijken al deze punten een verzameling stippen. Wie iets meer weet, ziet dat het een verzameling sterren is. Zodra je betekenis gaat geven aan de verschillende datapunten en verbindingen gaat leggen, kan je patronen ontdekken. Maar het wordt pas echt interessant en krijgt pas echt waarde als je de informatie kan toepassen. Vooral als je die kan toepassen op de mens als individu.

Wist u dat zelfs bij de best werkende medicatie maar één op de 16 mensen volledig baat heeft van het gebruik van zijn medicatie? De rest van de gebruikers heeft geen of verminderde werking en in veel gevallen wél bijwerkingen. Dat komt omdat er bij de ontwikkeling van medicijnen altijd is gekeken naar de beste werking voor een hele grote homegene groep patiënten. Zonder er rekening mee te houden dat elke mens anders in elkaar zit en een andere levensstijl heeft. Pas als we – met behulp van data wetenschap – de individuele biomarkers gaan meenemen in de berekening, kunnen we diagnose, prognose en behandeling volledig op maat maken.

Medische data

Wat het analyseren van medische data (los van de verdeelde bronnen) lastig maakt, is dat 80% ongestructureerd is (dus bijvoorbeeld tekst, spraak, video, medische beelden, ecg’s). De overige 20% is wel gestructureerd, in die zin dat we het dan hebben over getallen (NAW gegevens, geneticagegevens en bijvoorbeeld spreadsheets). Toch kunnen data wetenschappers met technieken als Machine Learning ook deze data verwerken, koppelen en met deze gegevens op basis van ontdekte patronen voorspellingen gaan doen.
Machine Learning is overigens niet nieuw. Al in de jaren ’50 van de vorige eeuw ontwikkelde Arthur Samuels van IBM de voorloper van een Machine Learning programma, dat later uitmondde in Deep Blue, de eerste schaakcomputer die van een mens (Kasparov) wist te winnen. De ontwikkeling van het vak is de afgelopen jaren enorm versneld door het ontstaan van steeds grote hoeveelheden verzamelde digitale data, maar ook door de sterke ontwikkeling van steeds snellere processoren met steeds hogere rekenkracht. Bovendien hebben slimme ontwikkelaars steeds meer toegang tot nieuwe en verbeterde algoritmiek en wordt programmeren steeds toegankelijker door bijvoorbeeld API’s en opensource mogelijkheden.

Trainen

Op basis van historische data is het in principe mogelijk om een voorspelling te doen voor de toekomst, maar dat blijft een beetje koffiedik kijken, omdat er geen enkele rekening gehouden wordt met veranderende omstandigheden. Door 24/7 te monitoren en die gegevens mee te nemen in de berekeningen, is het dankzij Machine Learning mogelijk om bijna on the spot voorspellingen aan te passen. Data wetenschappers maken daarvoor gebruik van verschillende Machine Learning modellen, computerprogramma’s of algoritmen die ze trainen om bijvoorbeeld bepaalde beelden te herkennen. Mooi voorbeeld is het algoritme van de Momala App, dat heeft geleerd om malariaparasieten te herkennen in een bloedplaatje. Hoe meer data zo’n algoritme te verwerken krijgt, hoe nauwkeurig het wordt. De Momala app herkent inmiddels meerdere soorten malaria parasieten en de nauwkeurigheid ligt op dit moment op net zo hoog als de best opgeleide laboranten. En de snelheid een stuk hoger.

Meten wat je meten wil

Machine Learning technieken vragen niet alleen om goed opgeleide data wetenschappers, maar ook om de juiste data set om de algoritmes te laten leren. Ik gaf het al aan: hoe meer data om te leren, hoe beter. Vandaar dat de opkomst van gigantische data bestanden (Big Data) heeft bijgedragen aan de opkomst van Machine Learning. Maar grote bestanden vervuilen snel. Dat betekent in veel gevallen dat de data eerst moet worden opgeschoond en opnieuw geclusterd voor het bruikbaar wordt.

In de praktijk betekent dit, bijvoorbeeld voor een opdracht in de langdurige zorg naar het voorspellen van incidenten, dat we in de conceptfase eerst gaan kijken welke databronnen er allemaal al zijn, hoe de data er uit ziet en hoe we die kunnen inzetten om het gewenste doel te bereiken. En wat we nog meer moeten meten voor een compleet beeld. In de tweede fase gaan we meten of de gekozen variabelen ook echt leiden tot de inzichten die we willen. Soms betekent dat bijstellen van de meetmethoden, bijvoorbeeld door andere sensoren te kiezen. In deze fase trainen we het algoritme voor zijn taak. Als het allemaal klopt, maken we een ‘proof of concept’ en gaan daar wat langer data mee verzamelen, zodat we de techniek nauwkeurig kunnen maken en kunnen valideren. Uiteindelijk is de bedoeling om tot een product te komen waar op meerdere plaatsen in de zorg mee gewerkt kan worden.

Validatie onderzoek

Uiteraard moet elke medische innovatie voldoen aan de nodige eisen op gebied van privacy en security, maar ook medisch inhoudelijk uitgebreid onderzocht zijn. Zo zijn we druk bezig om samen met het VUmc een onderzoek op te zetten naar de werking van MS sherpa, een app die mensen met Multiple Sclerosis helpt om hun aandoening 24/7 te monitoren en te managen, in directe samenspraak met de neuroloog. Want laten we wel zijn, hoe fantastisch de mogelijkheden ook zijn voor snellere en nauwkeurige diagnostiek, die rol van de arts blijft onbetwist van groot belang, en de techniek is er alleen om arts en patiënt te ondersteunen.

Interesse in meer achtergronden over data science of artikelen om je verder te verdiepen? Je kunt Marieke mailen via marieke@orikami.nl of neem contact op met Mobile Doctors.