I et nyt projekt er to GTS-institutter gået sammen med DTU, om at stille værktøjer baseret på kunstig intelligens til rådighed. Værktøjerne skal bl.a. bruges til at teste nye metoder til behandling af kræft og Alzheimers.
I projektet kigges der på, hvordan man kan udnytte de teknologiske muligheder, som AI-værktøjerne giver inden for dataanalyse. Den viden kan nemlig gavne fx præklinisk forskning og udvikling af ny medicin, fordi man typisk har meget komplekse data at analysere på.
AI-værktøjerne skal ifølge Kim Holmstrøm, der er Principal Scientist hos Bioneer A/S, hjælpe med at fortolke de meget komplekse data, som de arbejder med, og dermed give en bedre forståelse af, om de lægemiddelkandidater, som de tester, har en gavnlig effekt.
“I den ene case, der handler om udvikling af cellemodeller for neurodegenerative sygdomme, arbejder vi med nogle specielle celler, som er identiske med de neuroner, der er i den menneskelige hjerne. I den anden case arbejder med vi udvikling af cancerbaserede cellemodeller, som simulerer fx en brysttumor eller en tumor i tarmen,” siger han og uddyber:
“I begge tilfælde kan vi tage billeder (både i 2D og 3D) af, hvordan cellerne ser ud før og efter, vi har påvirket dem med forskellige stoffer. Vi kan dermed måle, om vores cellemodeller er blevet påvirket ved fx at slå cancercellerne ihjel. Disse tidlige prækliniske tests kan bruges til at snævre feltet ind i forhold til, hvilke lægemiddelkandidater det er værd at gå videre med i udviklingen.”
Skal effektivisere arbejdet med 3D-data
Det er netop de billeddata, som er en af de store flaskehalse i dataanalyse, da det er meget tungt at arbejde med. Derfor handler samarbejdet med Bioneer og DTU om at få mere effektive analysemetoder og herunder datarepræsentationer af 3D-billeder ind i den prækliniske værktøjskasse, forklarer Katrine Hommelhoff Jensen, der er Senior Computer Vision and Graphics Specialist hos Alexandra Instituttet.
“Samtidig med at der sker en rivende udvikling på hardwarefronten, som gør, at man med de største mikroskoper kan se detaljer i billeddata helt nede på atomniveau, så medfører det også en enorm mængde data, som mange forskere ikke ved, hvad de skal gøre med. Derfor skærer de det typisk ud i små bidder og analyserer det i 2D, så beregningskompleksiteten kommer ned på et niveau, som deres computere kan håndtere,” forklarer hun.
Men 2D-data giver ikke et helhedsbillede. Det viser kun en simplifikation af, hvad der sker. Det gælder fx cellers nedbrydningsmønstre eller forbindelserne mellem neuronceller. Det er man nødt til at have i 3D, hvis man skal få et helhedsbillede af, hvordan bestemt medicin påvirker Alzheimerpatienter.
“Fælles for begge cases er, at de omfatter 3D-billeddata, som man godt vil analysere i sin helhed. At kunne analysere på de her komplekse data er ikke kun et behov, som vi ser inden for forskningen. Vi ser også et behov i industrien. Udfordringen med at analysere store 3D-billeddata, er, at det er ekstremt beregningstungt. Datamængderne stiller enormt høje krav til både hardwaren og beregningsmetoderne,” forklarer Katrine Hommelhoff Jensen.
Komplekse data kræver flere dataeksempler
Fælles for de nye metoder inden for kunstig intelligens er, at de kan finde mønstre i mere komplekse data, end man tidligere har kunnet. Der er sket en rivende udvikling inden for modeller til analyse af billeddata, baserede på neurale netværk, som også kaldes deep learning.
Ambitionen er at forbedre adgangen til AI-metoder ved at stille værktøjer til rådighed, som kan effektivisere fortolkningen af de behandlinger, som Bioneer har udsat deres cellemodeller for.
“Vi kunne godt tænke os at finde ud af, om algoritmerne kan bruges til at se, om der er forskelle i de billeder, vi får taget. Hvis man skal lave en analogi, så svarer det til en ultralydsscanning eller mammografi, hvor jeg ved, at der er udviklet nogle teknologier, der kan kigge på den slags billeder, og så vurdere, om der er en potentiel tumor eller et forstadie til en tumor til stede,” forklarer Kim Holmstrøm.
Nye værktøjer skal konvertere billeddata
Noget af det, man arbejder på, er at udvikle værktøjer, som kan konvertere billeddata til en mere kompakt repræsentation, som på en effektiv måde beskriver de væsentligste detaljer i den originale data, og som dermed kan analyseres mere effektivt med dertil udviklede modeller.
“Disse værktøjer er ikke generelt anvendelige i dag, men det er noget af det, som mange forskere arbejder hen imod. Første skridt i det er at have en bedre repræsentation af data. Generelt er målet at have mere kompakte datarepræsentationer til effektiv 3D-analyse, og specifikt er vores mål at se på grafbaseret dataanalyse. I takt med at vi får den ene pandemi efter den anden, er der brug for, at vi får nogle statiske modeller, som hjælper os hurtigere igennem udviklingen af medicin. Det kan man afhjælpe ved at gøre værktøjerne tilgængelige for dem,” forklarer Katrine Hommelhoff Jensen.
Du kan læse pressemeddelelsen her
Foto: Alexandra Instituttet
Seneste aktuelt
9. oktober 2024
Kan teknologien afhjælpe personalemangel i kommunerne?
9. oktober 2024
AI-software hjælper produktionsvirksomheden C.C. Jensen
9. oktober 2024