Alexandra Instituttet udgiver e-bog om at eksperimentere sikkert med kunstig intelligens (AI). Ingen tvivl om, at teknologien åbner både for muligheder for vores forretning og for huller i vores it-sikkerhed.

I e-bogen kigger GTS-instituttet på sikkerhedsissues ved Large Language Models (LLM), også kaldet generativ AI.

Fordi teknologien fungerer som en slags database, men så alligevel ikke. Derfor kan man komme til at dele information, der ikke må komme ud, eller man kan tage beslutninger baseret på forkerte data. Resultat fra et LLM-baseret værktøj er afhængigt af de data, den trænes på. Er data sensitive eller dårlige, kommer resultatet også til at være det.

Alexandra Instituttet giver eksempler på, at man kan manipulere data og dermed modtage CV’er, der er gjort bedre med skjult tekst kun læsbart for AI-modellen, men også hvor mails og løndata uhensigtsmæssigt bringes i spil, uden at medarbejdere med vilje ønskede at kompromittere de data. E-bogen giver også råd til, hvordan det kan undgås, samtidig med at man kan eksperimentere sikkert med de muligheder, der heldigvis også følger.

Guiden gør dig klogere på:

  • Hvordan modeller som LLM/generativ AI egentlig virker
  • Hvilke handlinger du bør være obs på
  • Hvilke fundamentale råd du bør følge

Læs mere og hent e-bogen her

Foto: @felipepelaquim on Unsplash