Radiograf Rådet
H.C Ørstedsvej 70, 2.tv
Telefon: 35374339
Fax: 35 37 43 42
Email: kontakt@radiograf.dk
Kunstig intelligens (KI) var et af de store emner under ECR 2019. Til kongressen var der adskillige foredrag omkring KI parallelt med et stort antal fremmødte firmaer, som er vokset i skyggen af KI. Firmaerne havde på en mindre del af kongressen fået tildelt et område hvor man kunne besøge dem og få et indblik i, hvad de kan tilbyde.
Ud fra min generelle interesse i KI og deltagelse ved ECR 2019 vil jeg give mit perspektiv på den nye teknologi.
Før alt andet, er det interessant at vise, hvor i udviklingen eksperterne mener vi befinder os. KI er under rivende udvikling og forventningerne er blevet hypet inden for dette årti. Start-up firmaer verden over har valgt at tage teknologien til sig og begyndt at udvikle den på forskellige modaliteter, eksempler er set inden for mammografien, CT og konventionel røntgen.
Dr. Hugh Harvey, MD, Clinical Director ved Kheiron Medical udtaler at ”AI er ved sin spæde start, men har et stort potentiale i at bruge algoritmer bl.a. inden for flere modaliteter til at forbedre den diagnostiske nøjagtighed, nedbringe MR-optagelsestid og mindske dosis ved CT-optagelser.”
Prof. Bram van Ginneken, Physicist, Professor of Medical Imaging Analysis udtaler at “Der hvor vi er nu, er at vi kan bygge algoritmer, som kan analysere billeder på samme niveau som radiologer.”
Under kongressen har der været adskillige firmaer som har vist potentiale i at tage KI i brug, her findes bl.a. Canon, Sectra og Subtle Imaging. Andre nævneværdige firmaer er Kheiron, Incepto, BioMind og InferVision. Firmaer som ikke var til stede, som stadig er nævneværdige er Qure.ai og Lunit. Adskillige start-ups er begyndt at udvikle teknologien, og en del er spået til at falde fra, da de ikke kan levere, hvad de har lovet. Om de overlever eller ej, så er der stadig andre problemstillinger, som firmaerne skal udenom. Teknologien skal kunne tages i brug, klinisk valideres og kunne passe ind i det kliniske miljø. Dr. Hugh Harvey udtaler: ”KI skal klinisk valideres og kunne implementeres i det kliniske miljø. Det kræver store prospektive studier som er dyre og tager lang tid. Det er for dyrt for de fleste start-ups at kunne udføre studierne.” Derfor vil vi kun se de stærkeste firmaer overleve. Desuden er der blevet stillet spørgsmål til om start-ups firmaerne rent faktisk bruger KI, machine learning og deep learning teknologi? Hvert firma havde lov til at pitche deres produkt i cirka otte minutter, med opfølgende spørgsmål. Adskillige spørgsmål handlede om hvordan teknologien virker? Et entydigt svar lød på “We have the input, then the ’Black box’, followed by the output”. Black box er blevet et nyt buzzword, til at beskrive hvad teknologien gør. Firmaerne er ikke helt klar over hvordan teknologien bruges, men her var det specielt den nyere deep learning teknologi.
Et andet nævneværdigt firma er Nvidia, som sad på et af de større pladser i KI-området. Man kan undre sig over hvad et computerspilsfirma laver ved en radiologikongress, men det er der gode grunde til. Den første gode grund er pga. den store mængde data som skal behandles når man arbejder med KI. Vi kan udtrække adskillige data fra vores billeder, så meget data at en normal computer ikke kan beregne dem eller bruger alt for lang tid. Nvidia har været et dominede grafikkortsfirma på computerspilsmarkedet. Grafikkortet de udvikler kan bruges til at beregne de store mængder data som skal bruges i machine learning og deep learning. Normalt er der ét enkelt grafikkort i en stationær hjemme-computer, men et firma viste deres nye beregningscomputer og havde installeret otte nye high-end Nvidia grafikkort. Et andet område Nvidia bidrager med er ved at ændre på sygehusenes infrastruktur, hvor de ønsker at centralisere computersystemerne. Dette betyder at hver enkelt station, scanner etc. ikke har sin egen beregningscomputer, men at de bliver samlet i ”én stor computer”.
Jonny Hancox, Deep Learning Solution Architect hos Nvidia udtaler: “Vi har en vision ved Nvidia, som er kaldet projekt Clara. Ideén bag er at centralizere miljøet og producere en platform hvor andre kan komme med deres egne innovationer. Brugeren er ikke nødt til at være eksperten, men kan bruge de bedste KI applikationer som findes.”
Da Nvidia er en potentiel vigtig spiller i vores univers, oplever vi nu at de kendte firmaer som f.eks. Canon går fra et mere vertikalt firma til et horizontalt firma. Ved vertikale firmaer udvikler hvert enkelt firma deres egne teknologier, og ved horizontale firmaer har man en flad struktur hvor man kan dele teknologier imellem sig. Nvidia har valgt at indtage vores speciale, og må derfor have spottet en god forretningsmodel – derfor tænker jeg om andre har set samme potentiale og snart følger trop.
KI er en gren af computervidenskaben som kan analysere komplekse medicinske data. Teknikken har potentiale til at blive anvendt på næsten alle områder af medicin (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1964229/). KI er blevet defineret som ’Et felt inden for videnskab og teknik, der beskæftiger sig med den beregningsmæssige forståelse af, hvad der almindeligvis kaldes intelligent opførsel, og med skabelsen af genstande, der udviser sådan adfærd (https://www.amazon.com/Encyclopedia-Artificial-Intelligence-Stuart-Shapiro/dp/0471807486).
https://developer.nvidia.com/deep-learning
Machine learning er en sub-gren af KI, og deep learning er en sub-gren af machine learning. Machine learning har været her længere, men da deep learning blev introduceret tog den over de fleste applikationer fra machine learning.
Billedet herunder er en skematisk oversigt over de to forskellige KI’er. Begge metoder klassificerer et mistænktsomt objekt som enten benignt eller malignt.
a) Den første metode bygger på data udtrukket fra et ROI (Region of Interest), som er kaldet Features. Eksempler på dataene er cancer-karakteristikken inkl. volume, form, struktur, intensitet og lokalition. De mest robuste data er valgt og brugt til Machine Learning Classifieren, som kan forudsige om objektet er benignt eller malignt.
b) Den anden metode bruger deep learning og bruger ikke Features – her er lokalisationen for det meste rigeligt. Efter input i deep learning går billedet igennem en masse hidden layers. Igennem lagene bliver dataene udtrukket, valgt og til sidst klassificeret, parallelt med at teknologien bliver trænet. Lagene kan lære af hinanden imens processen foregår. Nogle af de lag som ligger først kan f.eks. lære linjer og skygger, imens senere lag kan lære hele organer eller objekter. Jo flere lag processen går igennem, des mere lærer de sidste lag i processen.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4654704/
I sådan en situation kan man bruge en model til hjælp. Et studie er blevet lavet i 2013, som udregner sandsynligheden for om der er cancer i en noduli scannet af CT. Modellen er en meget simpelt machine learning-model baseret på en ’Multi variable logistic regression model’. Modellen er trænet på data fra et canadisk screeningsforsøg https://www.nejm.org/doi/pdf/10.1056/NEJMoa1214726
https://www.nejm.org/doi/pdf/10.1056/NEJMoa1214726
Ved hjælp af modellen ovenover kan man udtrække forskellige data fra lungenodulien. Det er ikke kun direkte mål fra nodulien, men nogle af dataene er også relateret til alder, køn og familiehistorie. Kombineret med disse data måler man f.eks. også størelsen, typen og lokationen på nodulien. Radiologen kan derefter score parametere og har en mængde tal som udbytte. Ved at bruge tallene kan man udregne sandsynligheden for om denne noduli er benign eller malign. Forskerne har trænet denne model via det canadiske screeningsforsøg, som har givet den bedste funktion til at beregne om en lungenoduli er benign eller malign. Dette er en simplere version af machine learning. Hvis man ikke vil have en radiolog til at bestemme parametrerne på en model, kan man bruge noget af den nyeste machine learning teknologi, som anvender en computer til dette. Computeren skal stadig have lidt hjælp, og her kan man f.eks. bruge segmentering. Man kan segmentere nodulien i f.eks. den solide del og den ikkesolide del. Segmenteringen foregår i mange forskellige planer.
Segmentering af lunge noduli i forskellige planer.
https://www.ncbi.nlm.nih.gov/pubmed/25478740
Selve scanningen er lavet i 3D, og man kan derfor segmentere i mange forskellige niveauer og planer. Segmenteringen giver en masse nye forskellige data, som kan bruges i en Classifier. Classifieren kan forudsige typen af nodulien, om denne er benign eller malign. Dette er nyere machine learning.
Ved deep learning er delen med Features sprunget over, og billederne bliver derfor analyseret direkte, samt der bliver beregnet en sandsynlighed.
Verdens første deep learning system var trænet af Yann LeCun i 1988 https://yann.lecun.com/exdb/lenet/
I denne tid blev der brugt billeder på 32x32, hvilket ikke er særlig stort. Teknologien er dog basis for hvad den nye deep learningkan i dag. Billedet er selve inputtet i systemet, lagene lærer selv af billedet, og billedet går igennem lagene hvorefter outputtet er en sandsynlighed eller klassificering.
I 2012 kunne to ph.d.-studerende fra University of Toronto lave en større version af det samme netværk.
https://papers.nips.cc/paper/4824-imagenet-classificationwith-deep-convolutional-neural-networks.pdf
Før var billederne på 32x32, hvor de i dag kan være meget større. De to ph.d.-studerende trænede netværket ImageNet succesfuldt og outperformed alle machine learning metoder. I dag findes der mange forskellige arkitekturer af deep learning modeller. Modellerne kan downloades, og de kan bruges til at træne på egne data.
Et eksempel fra 2016, viser et deep learning algoritme som prøver at finde noduli i CT-scanninger (https://www.ncbi.nlm.nih.gov/pubmed/26955024).
https://www.ncbi.nlm.nih.gov/pubmed/26955024
a) I forsøget har de fundet kandidater med forskellige noduli. Derefter lavede de forskellige Patches (2D-planer) igennem noduli fra mange forskellige vinkler.
b) Alle 2D-planerne blev puttet ind i deres deep learning netværk.
c) Til sidst er alle planerne fusioneret og klassificeret. Studiet viste at deep learning netværket outperformede de klassiske machine learning metoder, bl.a. på hastigheden. Yderligere lavede de sammenligning af to forskellige deep learning netværk, et machine learning netværk og 11 radiologer. Netværkene og radiologerne skulle hver især angive om en række noduli var maligne eller ikke. De nye deep learning netværk blev trænet på data fra et amerikansk screeningsforsøg og data fra et dansk lungecancer screeningsforsøg. I alt var der 62 lungecancere og 29 benigne noduli.
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0185032
Resultatet viste at netværkene kan performe ligeså godt som de 11 radiologer. På grafen er radiologerne vist som grå streger og netværkene er de forskellige PanCan models. Studiet viser at netværkene kan trænes til at performe bedre end nogle radiologer, på fod med andre, men også ringere.
Deep learning er stadig i sin spæde start, og der er nogle problemstillinger som stadig skal adresseres. Inden for den nære fremtid skal forskerne forsøge at træne netværkene endnu bedre, men også validere dem til klinisk brug.
I det store perspektiv er udviklingen af KI svær at følge, og teknologien bag er kompliceret. Jeg vil dog belyse eksempler på, hvad teknologien allerede kan gøre for os i dag. Et af problemstillingerne i dag er, hvordan vi får integreret teknologien.
Prof. Greg Zaharchuk, MD/PhD, Co-founder of Subtle Medical udtaler: “Fra radiologernes perspektiv, har mange erfarne og dygtige radiologer ikke lyst til at ændre deres workflow. Men vi er nødt til at kigge på hvordan vi integrere teknologien ind i vores PACS-systemer, fordi hvis det er en stand-alone arbejdsstation, kommer der modstand, det kan jeg garantere.”
I praksis kan en radiolog ikke sidde og beskrive en scanning i sit RIS/PACS-system, og samtidigt jonglere med fem ekstra eksterne softwarealgoritmer ved siden af. Desuden skal radiologen til at sætte sig ind i hver enkelt algoritme, samt starte dem op hver gang der skal beskrives.
Jonny Hancox udtaler: “Der er mange udfordringer med integrationen. I et mere ekstremt tilfælde har jeg set et hospital med 500 forskellige systemer med kliniske data og at skulle connecte alle disse systemer er uigennemførligt. Der er nødt til at være en struktur af datasystemerne. Nvidia prøver at få dataene til at flyde bedre igennem systemerne og forbedre workflowet.”
Antoine Jomier, CEO and Founder at Incepto Medical udtaler: “Ved Incepto prøver vi ikke at udvikle et nyt standalone system. Men der skal arbejdes rigtig meget med PACS og informationssystemerne. Start-up firmaerne er nødt til at integrere deres software i PACS, som også skaber en helt ny forretningsmodel. Fordi når PACS er udbyderen, så vil de ikke integrere software, hvis de ikke er interesseret i det. Desuden skal vi også kunne forstå den kliniske værdi af de her redskaber.”
P.t er der to svar på integreringen. 1) Enten skal der laves en software-platform som indeholder alle mulige algoritmer som er anvendeligt (En platform hvor man kan opdatere eksisterende algoritmer og nye kan komme til) eller 2) At algoritmerne bliver integreret i RIS/PACS-systemet. En radiolog skal ikke bebyrdes med flere klik og mere software i sin travle hverdag.
Indtil videre kan de forskellige algoritmer kun analysere meget specifikke diagnoser og der findes ikke en samlet pakkeløsning.
Prof. Bram van Ginneken, Physicist, Professor of Medical Imaging Analysis udtaler, at ”Vores algoritmer kan kun analysere meget specifikke problemer, men jeg forventer at inden for de næste ti år kommer der mange flere algoritmer på markedet samt at radiologerne skal integrere dem ind i deres workflow.”
Integreringen af algoritmer er begyndt ligeså stille og nogle større firmaer har integreret algoritmer i deres software.
Eksempler fra evidensen viser det potentielle udbytte af KI. En teknologi som kan optages og integeres af de store firmaer. Eksempler er vist herunder:
1. Hybrid 3D/2D convolutional neural network for hemorrhage evaluation on head CT http://www.ajnr.org/content/ajnr/39/9/1609.full.pdf
I dette studie er der blevet programmeret en KI-algoritme som succesfuldt detekterer akutte intracranielle blødninger (ICH) ved hoved CT-scanninger. Desuden kan den kategorisere fem forskellige subtyper af blødninger.
Teknologien bygger på deep learning, hvor en algoritme er trænet til at finde blødninger. Ud af 10.159 cases, har algoritmen misset 26 blødninger. Et af ulemperne ved sådanne studier er at de er udført i en enkelt institution. Før at algoritmen kan implementeres i klinisk brug, skal den valideres og kunne performe ligeså godt som en radiolog. I eksempler som denne mangler vi mere evidens, som understreger at algoritmerne performer godt. Desuden mangler vi stadig en bedre forklaring end ”Black Box”, for hvad der sker, når vi sætter billederne sammen med algoritmenerne. Vi skal kunne stole på, at algoritmerne virker. Et andet problem er at kunne træne algoritmen på et stort nok datasæt af billeder. I artiklen har de brugt ca. 10.000 cases. Sjældne diagnosefund som har en prævelens på mindre end 1 ud af 10.000 cases bliver et problem, da man ikke kan være sikker på at algoritmen er trænet ”godt nok”.
Vi skal kunne træne algortimerne på kæmpe dataset, i alle mulige og tænkelige diagnoser før, at vi kan bruge den – men hvor stort et dataset er nok? Hvis det viser sig, at vi kan blive ved med at træne algortimen, og den stadig bliver bare en smule bedre, hvad er så grænsen for mængden af billeder i et datasæt?
2. Triage system
Studiet ovenover er stadig først ved at blive vurderet, før det kan tages brug. Det har dog vist sig at en sådan algortime kan bruges på en anden måde, nemlig et triage system. Et triage system, som kan assistere radiologer i at identificere højprioritets undersøgelser. Dette vil jeg prøve at beskrive med et tænkt eksempel. F.eks. kan vi befinde os på et sygehus, hvor der bliver lavet flere undersøgelser af hovedet samtidigt. Disse undersøgelser sendes til et RIS-system til beskrivelse. På listen findes nu flere undersøgelser som skal beskrives – og i rækkefølge efter optagelsestid. Vi kan forestille os at en af patienterne på listen har en blødning i hovedet – som radiologen ikke er klar over endnu, da han ikke har set billederne. Deep learning algoritmen fra studiet ovenover kan gennemse alle billeder for potentielle blødninger og derfor adviserer radiologen om at ”Her er noget du skal kigge på”. Algoritmen har derfor lavet et hierarki af de forskellige undersøgelser. Algoritmen kan skabe et triage system som gør at de mest akutte beskrivelser bliver sat øverst på listen. Et sådant system kan være med til at hjælpe på radiologens workflow – men i sidste ende også være med til at redde patienter! Vi skal igen være kritiske over for algortimens kunnen, da vi skal være sikker på at den prioriterer undersøgelser korrekt, og ikke misser en dødelig diagnose.
3. Beskrivelser fra algoritmen
Fra udgangspunkt i samme studie ovenover, kan vi udtrække flere data fra algoritmen. Algoritmen er trænet på et datasæt, og kan analysere blødningen på flere parametre, f.eks. størrelse, type og lokalisation. Algoritmen kan være trænet til at sætte en streg rundt om blødningen, beregne størrelsen og give en sandsynlighed for hvor blødningen udspringer fra.
Ved at systemet har en beskrivelse af blødningen, kan disse data blive brugt til at lave en struktureret og automateriseret beskrivelse af selve blødningen. En automatisering som radiologen burde omfavne. Når man har en struktureret beskrivelse fra flere undersøgelser er disse bedre sammenlignenlige. Problemet er stadig at vi skal kunne stole på algoritmen, den skal være klinisk valideret og hvad gør vi, hvis den tager fejl.
Der er flere etiske dilemmaer ved at implementere og arbejde med KI.
1. Datasæt
For at kunne træne algoritmerne skal producenterne træne deres algoritmer på store datasæt. Dels fordi at algoritmerne skal performe på bedst muligt vis, men også fordi de skal kunne diagnosticere alle tænkelige sygdomme. Et af de nuværende problemer ved kongressen er: Hvordan man skal kunne dele data mellem instituioner, både nationalt men også internationalt. Pga. ’General data protection regulation’ (GDPR) kan institutioner ikke dele patientinformationer, som de vil. Derfor skal der findes en løsning, sådan at patienter er de-identificeret/ anonymiseret samt at der er sikkerhed for at deres data ikke kan findes og identificeres. F.eks. ved MR-scanninger kan det være en del svære at de-identificere billederne. Ved MR-scanninger af hovedet er der mulighed for at man kan rekonstruere ansigtet fra høj-opløsningsbillederne og se ansigtets profil.
Greg Zaharchuk udtaler: “De-identificering af data er meget svært. Det er dyrt og vi har ikke noget gyldigt bevis på en metode til at gøre det. Hvis man tænker på nogle applicationer, f.eks. når man er neuroradiolog har man meget høj-opløselige billeder af hjernen. Hvis man rekonstruerer billederne kan man se ansigtet, og hvordan skal man de-identificere sådan noget? Det er en fundamentel udfordring.”
Det kan derfor være lettere at komme uden om dette problem ved nogle modaliteter. Hvis det viser sig at at de kommer uden om dette problem, er der stadig en trade-off imellem privatisering og fordele for samfundet. Men vi skal respektere, hvad vores patienten gerne vil.
2. Cloud-arkivering eller lokal-arkivering
Et parallelt problem til GDPR er, om institutionerne skal bruge cloud-arkivering eller lokal-arkivering. Dette betyder at hvis undersøgelser og billeder kan blive de-identifiseret kan de ende i skyen, og derfor deles mellem institutioner. En modsat løsning er at beholde sine undersøgelser og billeder lokalt, da man vil beskytte patientens privatisering.
Greg Zaharchuk udtaler: “Rigtig mange KI applikationer passer rigtig godt til cloud-arkivering. Jeg mener, på denne måde kan rigtig mange firmaer vedligeholde deres systemer, frigøre nye opdateringer og fejlfinde. Jeg har oplevet at forskellige steder har forskellige holdninger til dette. Specielt i USA, der er hospitaler som stadig er skræmte for at lade deres data ende oppe i skyen. Jeg synes firmaerne skal kunne tilbyde begge typer.”
Der er fordele og ulemper ved begge veje. Ved cloud-arkivering kan vi dele størst mulige datasæt imellem institutioner. Hvis alle institutioner har adgang til datasættene, vil det være nemmere at kunne træne sine algoritmer. Desuden vil man kunne præcisere algoritmerne bedre, da man har flere data på alle tænkelige sygdomme, her inklusiv meget sjældne sygdomme. Hvis cloud-arkivering skal kunne lade sig gøre, skal man først udenom de-identificeringsproblemet af patienterne. Fordelen ved lokal-arkivering er sådan set det modsatte. Her kan man beskytte privatiseringen af patienterne, men have sværere ved at kunne træne sin algoritmer da man har mindre datasæt.
Jonny Hancox udtaler: “Holdninger til cloud-arkivering varierer imellem lande. Men fra et helt praktisk synspunkt kræver deep learning enorme mængder af data for at kunne blive virkelig robust og det betyder at det ikke er nok kun at bruge de data man har tilgængelig i institutionen.”
En anden løsning kunne være at beholde lokal-arkiveringen, og samtidigt stadig kunne dele vigtige oplysninger om sin algoritme. Ved at træne algoritmerne på lokale data producerer man en model for algoritmen, som kan være favorabel for andre institutioner. I stedet for at dele dataene, deler man derfor modellen.
Jonny Hancox udtaler: “Træningen kan ske på lokale data, men herefter kan man dele modellen udenfor institutionen, en model som kan sammenlignes med andre modeller og den bedste kan findes. Derfor deler man ikke patientens data eller råbilleder, men deler kun modellen.”
3. Klinisk validering og implementering
Hvis det viser sig at algoritmerne kan gøre hvad de skal kunne, er der stadig flere problemstillinger. Jeg oplever at der tages flere og flere billeder, som også skal beskrives. Samtidigt oplever jeg at radiologerne har mere at lave og er mere udbrændte. Hvis det viser sig at algoritmerne er klinisk valide og kan implementeres, er der fordele at hente. Fordelen ved algoritmerne er at det kan være et klinisk supplerende værktøj for radiologen til at styrke beslutningstagningen i diagnosticeringen. Hvis vi skal til at screene for en ny sygdom med CT-scanninger, giver det en del større mængde billeder til beskrivelse. Her kan algoritmener hjælpe med automatisering af detektering af sygdomme, samt at algoritmer kan producere beskrivelser 24 timer i døgnet.
På kongressen var der en vis modstand fra radiologerne, da vi stadigvæk ikke ved hvilken vej det går med algoritmerne. Hvis det viser sig at teknologien kan leve op til forventningerne, vil det kræve en længere implementeringsvej. Hvis teknologien bliver implementeret og kan performe ligeså godt som radiologer, kan man så tillade sig stadig at vise modstand, hvis et værktøj kan optimere den diagnostiske nøjagtighed? Hvis teknologien bliver implementeret, kommer vi alle til at ”Køre en ny bil med KI”, men det er ikke sikkert at vi forstår hvad der er under kølerhjelmen.
Personligt ville jeg ikke være med til at implementere noget, som ikke engang producenten selv kan beskrive endnu. Vi skal kunne stole på teknologien, før vi implementerer den.
Desuden har radiologer vist frygt for at blive outperformet af teknologien. Pt har den stor udvikling, og i nogle sammenhænge har den bevist, at den kan outperforme ligeså godt som en radiolog. Men, jeg synes ikke radiologer skal frygte at miste deres job i denne sammenhæng. I fremtiden vil der ikke være radiologer uden KI, men der vil være radiologer med KI. De radiologer som ikke vil bruge teknologien, vil være sværere stillet end de, der er åbne for den. Grunden til at man ikke kan lade teknologien overtage arbejdet for radiologerne, er som det samme eksempel vi kender fra den førerløse bil. Hvis en førerløs bil med en passager dræber en fodgænger, hvem har så ansvaret for at en person er blevet dræbt? Er det producenten af den førerløse bil eller er det passageren i bilen som burde have reageret? Radiologen skal kunne stole på den kunstige intelligens, og i sidste ende skal det være radiologen, som tager den sidste beslutning og har ansvaret. Derfor skal teknologien kun være et supplerende værktøj, som kan hjælpe og styrke diagnosticeringen i hverdagen.
4. Skal vi frygte KI som radiografer?
KI har kun vist god udnyttelse i patologien og radiologien, men andre områder kan være under udvikling. Hvis man forestiller sig hvad KI er bygget på, er det ”Big Data” – altså indsamling, opbevaring, analyse, processering og fortolkning af enorme mængder af data. Hvis vi som radiografer skal kunne blive påvirket, er det på baggrund af vores håndværk og arbejdsgang. Hvis ”Big Data” kan indsamles på vores måde at arbejde på, hvor meget
vi arbejder, hvor mange ekstra optagelser vi tager osv. Altså, hvis vores workflow i arbejdsdagen bliver omdannet til data, så kan man også vurdere arbejdsgangene ned til det individuelle niveau. Dette vil gå ud over vores privatisering, give anledning til stigmatisering og muligvis konkurrencepræget arbejdsmiljø. Alt dette kan i sidste ende gå udover patienterne.
Jeg tror at i den nære fremtid vil fordelene fra teknologien overskygge de spekulationer vi har nu – derfor bør vi ikke længere have modstand imod teknologien, men derimod begynde at omfavne udviklingen.