Se arkivet med udgivelser af Medicoteknik her
TechMedias mange andre fagblade kan læses her
Tema: Kunstig intelligens »Explainable AI«: Kunstig intelligens, der forklarer sig Beslutningsstøtteredskaber baseret på kunstig intelligens bør være forståelige, når det handler om noget så vigtigt som menneskers helbred. Af Simon Lebech Cichosz, adjunkt, ph.d. (foto), Morten Hasselstrøm Jensen, adjunkt, ph.d., Flemming Udsen, adjunkt, ph.d. og Ole Hejlesen, professor, ph.d. - Institut for Medicin og Sundhedsteknologi, Aalborg Universitet Kunstig intelligens (AI), herunder maskinlæring, er basalt set en række algoritmer eller analytiske metoder, der giver computere mulighed for at lære af eksisterende kendte data eller ekspertviden - og på denne baggrund komme med diagnoser eller forudsigelser i nye, ukendte data. Man kan for eksempel præsentere en computer for tusindvis af scanningsbilleder, hvor man med høj sikkerhed ved, hvilke billeder der indeholder en kræftsvulst, og hvilke der ikke gør. På denne måde træner man computeren til at finde karakteristika, der kan afgøre, om billedet indeholder en kræftsvulst eller ej. Når computeren er blevet trænet, kan den bruges til automatisk at afgøre, om et nyt, ukendt scanningsbillede indeholder en kræftsvulst. I nogle tilfælde har det vist sig, at en computer med kunstig intelligens faktisk er bedre til, ud fra scanningsbilleder, at diagnosticere visse former for kræft end en trænet speciallæge. Faldgruber i kunstig intelligens Algoritmerne er her allerede, og de bliver i stigende grad brugt i sundhedsvæsenet. Det er derfor vigtigt, at man også kender til teknologiens begrænsninger. For selv om det er banebrydende, at man kan bruge kunstig intelligens til at stille en sygdomsdiagnose, eller komme med Den principielle arkitektur for et system til klinisk beslutningsstøtte ud fra data, opsamlet i hjemmet hos patienter med kronisk sygdom. en forudsigelse om for eksempel en nært forestående farlig sygdomsepisode, så er der også faldgruber. Man har demonstreret, hvordan kunstig intelligens let kan snydes eller manipuleres til at komme frem til helt forkerte diagnoser eller forudsigelser. Et eksempel på dette er »Google Flu Trend«, der med start i 2008 var en tjeneste, der leverede forudsigelser af stigninger i antallet af influenzaudbrud i 25 lande. Forudsigelserne baserede sig på folks søgehistorik og søgeadfærd i Google, og i første omgang var de ganske præcise. I 2012 begyndte algoritmen dog pludselig at give helt forkerte forudsigelser. Det viste sig senere, at folk havde ændret deres søgeadfærd, og derved ændredes det grundlag, algoritmen baserede sine forudsigelser på. Andre eksempler inkluderer kunstig intelligens, der læser vejskilte forkert, hvis der er placeret mindre klistermærker på skiltene. Og ansigtsgenkendelsessystemer, der kan narres ved at klæbe et trykt mønster på brillen eller hatten. Behov for forståelige algoritmer De sidste eksempler illustrerer situationer, hvor man bevidst har manipuleret med datainput for at teste robustheden af diagnoser eller forudsigelser. Men hvad nu hvis man ikke ved, hvornår data kan snyde en algoritme? Det vil naturligvis være et mindre problem, hvis det handler om at give personlige forslag til den næste film i Netflix. Det er straks værre, når det handler om beslutningsstøtte inden for sundhedsområdet. 24 | Februar 2020 |
En måde at gøre algoritmen forståelig for brugeren på er at vise lægen eller sygeplejersken, hvordan computeren er nået frem til en given diagnose eller forudsigelse. Hermed får brugeren mulighed for at forstå - og kritisk vurdere - om det, computeren nu er nået frem til, faktisk giver mening. »Black box AI« og »explainable AI« Den seneste generation af algoritmer inden for kunstig intelligens bruger såkaldt deep learning (dyb læring) med neurale netværk, hvilket i mange tilfælde har vist at kunne give høj præcision. Anvendelsen af kunstige neurale netværk er oftest synonym med en black box (sort boks)-tilgang, hvor man ved træning af algoritmen på baggrund af eksisterende kendte data ønsker at komme med diagnoser eller forudsigelser i nye ukendte data - uden ønske om at forstå de underliggende sammenhænge. Logikken kan være, at computeren, meget bedre end vi mennesker, er i stand til at opdage underliggende sammenhænge i store mængder af komplekse data. Computeren overgår jo mennesket i både regnekraft og lagerkapacitet. Træning af deep learning-algoritmer involverer millioner af matematiske operationer, og klinikeren (eller programmøren) har ingen chance for at følge den nøjagtige kortlægning af, hvilke karakteristika fra data computeren bruger. Under træningen af deep learning-algoritmerne er det ikke muligt at få indblik i, hvordan resultaterne genereres. Det er heller ikke muligt for brugeren, for eksempel lægen eller sygeplejersken, at forstå baggrunden for et givent resultat, hvilket naturligvis ikke gør det lettere at En simpel oversigt over centrale begreber inden for kunstig intelligens. overbevise vedkommende om det fornuftige i at bruge systemet. Ofte kan man komme næsten lige så langt med præcisionen af diagnoser og forudsigelser ved at benytte sig af mere enkle, forståelige og kendte modeller, hvor de karakteristika og modeller, der bruges til at beregne resultaterne, er synlige. Brugen af algoritmer på denne måde går ofte under samlebetegnelsen »Explainable AI«. Ved at evaluere de nu synlige - karakteristika og modeller, der bruges til at beregne resultaterne, kan man i udviklingsprocessen i højere grad vurdere, om det fundne giver fysiologisk og klinisk mening, og dermed undgå faldgruber. Samtidig vil det være nemmere at overbevise lægen eller sygeplejersken om fordelen ved at bruge systemet. »Explainable AI« på Aalborg Universitet På Institut for Medicin og Sundhedsteknologi på Aalborg Universitet arbejder vi med »Explainable AI«. En stor del af arbejdet har fokus på de store kroniske sygdomme. Tanken er ikke at udvikle kunstig intelligens, der træffer beslutninger for de sundhedsprofessionelle. I stedet vil vi udvikle algoritmer, der kan hjælpe med til at forstå sundhedsdata og støtte klinikerens beslutninger på et oplyst grundlag. Med finansloven for 2020 er der, som en del af den nationale strategi for kunstig intelligens, bevilget midler til et signaturprojekt, hvor Aalborg Universitet i samarbejde med nordjyske regionale og kommunale aktører de næste tre år skal arbejde med kunstig intelligens og telemedicin. I projektet skal det afprøves, hvordan telemedicinske data fra hjertesvigts- og KOL-patienter kan bruges til at forudsige truende indlæggelser i en tidlig fase. Målet er, at man på denne måde kan igangsætte en præventiv behandling og dermed forhindre, eller mindske risikoen for, at patienternes tilstand forværres. Videnskabelige studier har vist, at forværringerne, selv om de sker langsomt og gradvist, ofte bliver opdaget alt for sent i forløbet. Studier på Aalborg Universitet har vist, hvordan måling af data opsamlet i eget hjem via telemedicin indeholder vigtig information, der ved hjælp at kunstig intelligens kan advare om de truende sygdomsforværringer. Studierne har også vist, hvordan kunstig intelligens kan se igennem den »støj«, der findes i de telemedicinske data, som kan gøre det svært for det menneskelige øje at se forandringerne. | Februar 2020 | 25