“Forklarlig AI” handler om mere end bare ansvarlighed

I et nyt samarbejde har man undersøgt, hvad man kan med “forklarlig AI” i dag. Teknologien kan forbedre modeller, og gøre resultater mere pålidelige.

Folk støder ind i ting og hinanden i deres biler. Det går heldigvis sjældent rigtig galt, men galt nok til at forsikringsselskaber modtager mange skadesanmeldelser på buler og skrammer. Alle skadeanmeldelserne skal vurderes, og hvis man kan få en computer til at klare de simple sager, så vil det frigive ressourcer og give kunderne hurtigere svar.

Helt simpelt er det dog ikke at få en computer til at genkende skader på biler.

”En computer forstår jo ikke, hvad en skramme eller en bule er. Den kan sammenligne billeder og ud fra det gætte på, om et nyt billede har en lignende fordeling af pixels, som tidligere billeder den har set af skrammer og buler. Men hvis ikke man har trænet computeren godt nok, så kan skyggen fra personen, der tager billedet af bilen, forskellen på solskin og regnvejr eller noget helt tredje spille ind på, om computeren kan træffe en korrekt afgørelse eller ej” forklarer Katrine Hommelhoff Jensen, Senior Computer Vision and Graphics Specialist og Ph.D. ved Alexandra Instituttet og fortsætter:

”Skadesbillederne, som Topdanmark modtager, kan indeholde alle former for biler og dertil vekslende belysning, zoom, vinkel og baggrund – der er med andre ord meget variation i data. Så en stor udfordring er, at man skal have meget data for at kunne træne en model godt nok til at kunne vurdere, hvad der er en skramme eller bule, og hvad der for eksempel bare er snavs, designdetaljer og refleksion”.

Behov for mere end bare data

Når man taler om “forklarlig kunstig intelligens” (XAI), taler man ofte om det i en kontekst, hvor det her fx vil betyde, at hvis en kunde ikke forstår det svar, som personen får på sin skadeanmeldelse, så har man indlagt et værktøj i sin kunstige intelligens, som kan vise, hvorfor computeren har svaret, som den har. Men den gennemsigtighed kan bruges allerede i udviklingen af modellen.

Hvis computeren eksempelvis fejlagtig tror, at en bestemt slags skygge er en bule, så vil man kunne få vurderet sin model til at være meget præcis, fordi den finder alle skyggerne. Det var bare ikke skyggerne, den skulle finde, men bulerne. Men det finder man først ud af, når man er gået i gang med at bruge modellen, fordi den jo fik en høj præcision-score i træningen.

Men hvis man benytter et forklaringsværktøj, så vil man kunne se hvor på billedet computeren har fokuseret for at nå frem til sit resultat. Derfor vil man hurtigere kunne spotte, hvis computeren faktisk fokuserer på en skygge frem for en bule.

Hos Topdanmark har de allerede høstet nogle af frugterne med “forklarlig AI”. Med rådgivning fra Alexandra Instituttet i ryggen har de fået en dybere indsigt i, hvordan man analyserer computerens klassifikationer, og er blevet introduceret til XAI-værktøjer, der kan visualisere beslutningerne truffet i en klassifikationsmodel.

Du kan læse den fulde pressemeddelelse her