Selvom langt de fleste er bekendt med AI og særligt ChatGPT, kan der være usikkerheder, som man skal tage højde for. I et debatindlæg i Børsen gør Senior Security Architect fra Alexandra Instituttet, Michael Rømer Bennike os klogere på, hvad man skal være opmærksom på i brugen af botter som ChatGPT.

“Man skal tage sine forholdsregler, når man arbejder med de store sprogmodeller (LLM – Large Language Models)”. Sådan lyder det fra Alexandra Institutttets Senior Security Architect Michael Rømer Bennike.

“Ligesom vi lige skulle lære at bruge regnemaskinen eller Google, så skal vi også lære at bruge de sprogmodeller, som udgør fundamentet for botter som Chat GPT og Bard. Det betyder, at vi skal være kritiske over for de resultater, de kommer med”, fortsætter han.

Michael Rømer Bennike understreger bl.a. at man i brugen af disse botter skal være opmærksom på fejlagtige svar, indlejrede bias og afhængigheden af enkelte udbydere.

Du finder et samlet overblik over hans pointer her