Det visar Cybersecurity Report 2026 från konsultbolaget itm8.

– AI är inte längre bara ett it-verktyg, utan en helt ny riskklass, säger Rikard Burman, Lead Architect Cybersecurity på itm8 i ett pressmeddelande.

Rapporten beskriver en cybermiljö där AI-hoten mot svenska verksamheter ökar, samtidigt som organisationer börjat släppa in autonoma AI-system i sina affärskritiska miljöer. Det ställer helt nya krav på styrning, tillit och omdöme.

– Utan tydlig styrning riskerar organisationer att tappa kontrollen, säger Rikard Burman.

Mänskliga faktorn fortsatt fara

Trots ökade investeringar i säkerhet är majoriteten av intrången fortfarande kopplade till den mänskliga faktorn, exempelvis nätfiske och social manipulation.

Även här spelar AI en roll. Deepfakes, syntetiskt ljud och manipulerade videor gör det allt svårare att avgöra vad – och vem – som går att lita på.

– När det vi ser och hör inte längre kan tas för givet blir verifieringsrutiner en praktisk säkerhetsfråga i vardagen, säger Viktoria Granqvist, vd för itm8 Sverige.

Agentisk AI ökar riskerna

Rapporten pekar ut tre särskilda sårbarheter: tillgänglighet, datasensitivitet och beteenderisker. Low-code- och no-code-plattformar gör det enkelt att bygga AI-agenter, men också lätt att skapa nya säkerhetshål.

När autonoma AI-agenter får tillgång till affärssystem, mejl eller kunddata ökar riskerna ytterligare. Felaktiga eller manipulerade promptar kan leda till dataläckor, informationskorruption eller obehöriga förändringar.

Hackartekniker som prompt-injektion kan få agenter att avslöja eller ändra information. Och när många anställda dessutom experimenterar med osanktionerade AI-verktyg – så kallad Shadow AI – riskerar känslig data att hamna utanför organisationens kontroll.

Teknik, policier och styrning

Enligt rapporten krävs tydliga AI-policyer som definierar tillåtna verktyg, krav på dataskydd och ansvarsfördelning. Men också tekniska lösningar för att upptäcka och stoppa obehörig AI-användning i realtid.

De måste vara tydligt vilka AI-agenter som finns i verksamheten, vilka åtkomsträttigheter de har och hur de testas. Lika viktigt är beredskapsplaner för felaktigt agerande samt att leverantörsavtal tydligt reglerar modellernas ursprung, uppdateringar och ansvar

Och sist men inte minst krävs ett tydligt ägaransvar på ledningsnivå.

Rätt styrning, utbildning och kontinuerlig övervakning är nyckeln till att frigöra AI:s potential utan att skapa nya risker.

Fakta
8 principer för säkrare AI-agenter

  1. Säker autentisering och API-hantering
    Skydda API-nycklar, använd tidsbegränsade tokens och begränsa åtkomst och anrop.
  2. Kontrollerad miljö
    Kör AI-agenter i miljöer där datahantering, behörigheter och loggning är tydliga och granskningsbara.
  3. Utbildning och medvetenhet
    Säkerställ att både utvecklare och användare förstår hur agenter fungerar och hur de undiker riskabla konfigurationer.
  4. Styrning, testning och policyefterlevnad
    Inför tydliga regler, ha transparent dokumentation och gör regelbundna tester.
  5. Prompt-hygien och inmatningskontroll
    Behandla all input som potentiellt osäker och skydda mot injektionsattacker.
  6. Principen om minsta privilegium
    Ge AI-agenter endast de rättigheter som är absolut nödvändiga och säkerställ tydlig uppdelning av roller.
  7. Övervakning och mänsklig kontroll
    Logga aktivitet, följ beteenden i realtid och möjliggör manuell avstängning vid behov.
  8. Incidentberedskap och kontinuerligt lärande
    Ha ”play books” och tydliga rutiner för AI-relaterade incidenter och uppdatera kompetensen löpande.

publicerad 13 januari 2026