Till innehåll på sidan
Till KTH:s startsida

AI-agenter: tänk på riskerna och följ KTH:s rekommendationer

Publicerad 2026-03-24

Olika typer av AI-agenter förekommer alltmer och erbjuder att förenkla uppgifter genom att göra dem åt dig. Det finns dock stora risker med att använda agentisk AI, till exempel informationsläckage, avsaknad av insyn, samt att verktygen är känsliga för extern manipulation. KTH E-lärande rekommenderar stor försiktighet gällande agentisk AI utifrån de rekommendationer som finns.

Vad är en AI-agent?

AI-agenter är en form av generativ AI-verktyg som kan utföra uppgifter som dig i olika system med minimal översikt. För att kunna göra denna typ av uppgifter behöver AI-agenten stor tillgång till din enhet. Detta skiljer sig från traditionella generativ AI-verktyg (så som ChatGPT eller Copilot), som ger svar på en prompt.

Agentisk AI kommer i många former, både som fristående program (webbläsare, kodningsprogram) och som tillägg i andra program.
 

Agentisk AI på KTH

KTH E-lärande rekommenderar att studenter och anställda iakttar stor försiktighet gällande agentisk AI. KTH har ingen upphandlad agentisk AI, vilket innebär att det inte finns någon tjänst som bekräftat följer KTH:s krav på säkerhet och uppfyllelse av GDPR.

AI-agenter är förbjudna för administratörer i Canvas på grund av bristen på kontroll och att informationen i systemet riskerar att läcka.

KTH:s användarvillkor gäller

Viss användning av AI-agenter bryter mot KTH:s villkor för användning av KTH:s dator-, nät- och systemresurser. Alla användare accepterar villkoren vid kontoaktivering (studenter såväl som anställda). Läs mer om Regler för dator-, nät- och systemresurserna .

Specifikt berörs följande punkter:

  • Behörigheten och därtill hörande resurser får endast användas av behörig innehavare.
  • Bara material där det klart framgår att spridning är tillåten får kopieras eller distribueras.

AI-rekommendationerna gäller

Agentisk AI täcks av KTH:s existerande rekommendationer:

Tänk speciellt på att:

  • Mänsklig kontroll (”human-in-the-loop”) är särskilt svår att uppnå vid användning av AI-agenter.
  • Det finns en stor risk att bryta mot GDPR och andra lagar och avtal när man ger agentisk AI tillgång till informationen på sin dator.

De stora problemen vid användning av agentisk AI

Ett inbyggt problem med agentisk AI är att du behöver ge den tillgång till systemen du vill att den ska använda för att kunna utföra dina uppgifter åt dig. Du ger ut mer information än du kanske tror, då verktyget får samma tillgång i systemen som dig. Det är svårt att veta vad agenten använder sig av i systemen.

Risk för att information läcker till tredje part

Du delar stora mängder information till AI-agenten, exempelvis dina inloggningar och filer. Studentuppgifter, forskningsdata och interna dokument kan exponeras. Beroende på användaravtal i den specifika tjänsten kan data användas för att träna AI:n eller delas till tredje part.

Ingen kontroll eller insyn i utförande

Det kan vara svårt att förstå vad AI:n gjort i efterhand och på vilket sätt din prompt har utförts. Eftersom agentisk AI är generativ så går det inte att förutspå exakt vad den kommer att göra och den kan utföra annat än det du har specificerat (hallucinera instruktioner).

Känslig för extern manipulation

Generativ AI-verktyg är känsliga för extern manipulation då de kan tolka all text de läser som instruktioner, så kallad “prompt injection”. Om detta händer byter AI-agenten uppgift till något som skulle kunna utnyttja tillgången till din dator. Det går även att påverka AI-agenten till att bete sig på ett visst sätt i framtiden.