Författare

Simon Florin 
Technical Security Advisor

Read time

4 min

man-shape-cut-out-of-paper-in-hand-in-the-view-2026-01-11-08-16-40-utc

Serie: Shadow AI-risker (Del 1 av 3)

Executive Summary

'Netskope Cloud and Threat Report 2026' avslöjar en alarmerande trend: antalet datapolicyöverträdelser kopplat till generativ AI har fördubblats under det senaste året, med genomsnittligt 223 incidenter per månad och organisation. Samtidigt har användningen av personliga AI-konton (shadow AI) ökat exponentiellt 47% av GenAI användarna använder fortfarande personliga, ohanterade konton trots ökade företagslicenser.

För IT-säkerhetsansvariga innebär detta en fundamental förändring av attackytan: känslig data läcker nu ut genom kanaler som traditionella säkerhetskontroller inte är designade att hantera.

 

Shadow AI: Hur shadow AI skapar nya attackytor

Data från Netskope Threat Labs visar följande tekniska trender:

Användartillväxt:

  • Antalet GenAI användare har tredubblats under det senaste året
  • Prompt volymen har sexdubblats från 3 000 till 18 000 prompts per organisation/månad
  • Topp 25% av organisationer skickar >70 000 prompts/månad
  • Topp 1% skickar >1,4 miljoner prompts/månad

Shadow AI-penetration:

  • 47% av GenAI användare använder personliga konton (ned från 78%)
  • 62% använder nu organisations hanterade konton (upp från 25%)
  • 9% växlar mellan personliga och företagskonton (upp från 4%)

Denna överlappning mellan personliga och företagskonton är särskilt problematisk ur säkerhetsperspektiv, den indikerar att användare aktivt kringgår företagskontroller när dessa upplevs som begränsande.

De verkliga vektorerna för dataläckage

1. Direkt Copy-Paste läckage

Scenariot är välbekant för de flesta IT-Säkerhetsteam:

Utvecklare → kopierar proprietär kod → klistrar in i ChatGPT (personligt konto)
→ kod lagras i OpenAI:s träningsdata → potentiell exponering

 
Teknisk analys:
  • Data som skickas till personliga ChatGPT konton omfattas inte av Data Processing Agreements (DPA)
  • OpenAI:s standardvillkor för gratisanvändare tillåter användning av inmatad data för modellträning
  • Enligt GDPR artikel 28 saknas juridiskt skydd för personuppgifter
  • Recovery/deletion: praktiskt omöjligt när data väl ingår i träningsdata

Verkligt exempel från Netskope data:
En organisation upptäckte att 42% av deras GenAI relaterade datapolicy överträdelser involverade källkod och ibland inkluderar dessa även API nycklar, databasanslutningssträngar och affärslogik.

2. Browser Extension Attack Surface

AI drivna webbläsartillägg utgör en särskilt lömsk attackvektor:

Riskprofil:
  • Extension kräver read/write access till alla webbsidor
  • Data exfiltreras kontinuerligt i bakgrunden
  • Användare ser extension som "produktivitetsverktyg", inte säkerhetsrisk
  • Företagskontroller (DLP, CASB) bypassas helt

3. Model Context Protocol (MCP) - Den nya attackytan

MCP representerar nästa generation av AI integration och med den kommer nya säkerhetsutmaningar:

AI Agent ←→ MCP Server ←→ Enterprise Resources
         (lokalt/cloud)    (databaser, filsystem, APIs)
 
Attack scenario:
  1. Användare installerar MCP enabled AI tool (t.ex. Claude Desktop med MCP)
  2. Tool konfigureras med access till company Slack/Google Drive via MCP servers
  3. AI agent får fråga: "Sammanfatta denna månads säljdata"
  4. Agent hämtar automatiskt känsliga filer via MCP
  5. Data skickas till external AI service (potentiellt utan DPA)
  6. Ingen traditionell DLP lösning ser transaktionen

Kategorisering av läckt data

Netskope's rapport identifierar följande distribution av känslig data i GenAI överträdelser:

Datatyp Andel Risk
Källkod 42% Exponering av proprietära algoritmer, API-nycklar och affärslogik.
Regulerad data 32% GDPR brott (PII, hälsodata) och överföring till tredjeland utan skydd.
Intellectual Property 16% Förlust av strategiska affärsplaner, patent och konkurrensfördelar.

 

Compliance-gap:

Användning av personliga AI konton för att processa regulerad data innebär:

  • Överföring till tredjeland (USA) utan lämpliga skyddsåtgärder
  • Saknad Databehandlingsavtal (DPA) enl. GDPR artikel 28

  • Potentiellt brott mot Schrems II domstolens krav
 
 

Konkreta hot-scenarion

Scenario 1: Insider threat via AI exfiltration

Angripare: Missnöjd medarbetare (insider).
Mål: Exfiltrera IP innan uppsägning.

En medarbetare använder ChatGPT (personligt konto) för att "sammanfatta" strategidokument och extrahera kundlistor. Inga filer laddas ner, så traditionell DLP missar det. Medarbetaren går hem med all info sparad i sin privata chatthistorik.

 

Scenario 2: Supply chain compromise via code leak

Angripare: Nation state APT.
Mål: Identifiera Zero days.

En utvecklare klistrar in kod i en publik AI. En angripare (via intrång i utvecklarens konto) kommer åt historiken, hittar opatchade sårbarheter i koden och skapar en exploit innan företaget hinner fixa buggen.

 

Scenario 3: Agentic AI cascade failure

Scenario: MCP enabled AI agent med över privileged access.

En AI agent ges tillgång till att läsa företagets Slack och Drive för att skapa en rapport. Agenten hämtar autonomt filer den inte borde (t.ex. hela kunddatabasen) och skickar till en extern tjänst för bearbetning. Ingen människa godkände den specifika filöverföringen.

 

Statistik och impact

Från Netskope Cloud and Threat Report 2026:

Metric Värde Trend
Medel antal GenAI data violations/org/månad 223 +100% YoY
Topp 25% organisationer violations/månad 2,100 +95% YoY
% av organisationer med zero DLP för GenAI 50% -10% YoY
% violations innehållande källkod 42% Stable
% violations innehållande regulerad data 32% +5% YoY
% av GenAI users som använder personal accounts 47%

-40% YoY

 

Financial impact (bransch uppskattningar):

  • Genomsnittlig kostnad per dataläckage incident: $4.45M
  • Genomsnittlig GDPR bot: €17M
  • IP-stöld estimated cost: 1-3% av company valuation

 

Key takeaways för IT-säkerhetsansvariga

  1. Shadow AI är nu ett mainstream problem: Genom att 47% av alla användare använder sig av personliga konton är detta nu en central säkerhetsutmaning i alla organisationers intresse.
  2. Traditionella perimeter baserade säkerhetsmodeller är föråldrade: MCP och agentisk AI suddar ut skillnaden mellan "inre" och "yttre" nätverk. En zero trust strategi är nödvändig.
  3. Detection gap är massivt: 50% av organisationer har ingen DLP för GenAI. Om du inte ser problemet, kan du inte åtgärda det.
  4. Incident response playbooks behöver uppdatering: Traditionell forensik är otillräcklig för AI-relaterade dataläckage.
  5. Compliance risken accelererar: NIS2, GDPR och AI Act skärper det regulatoriska landskapet samtidigt som GenAI användningen exploderar.

Nästa steg

I Del 2 granskar vi compliance och juridiska utmaningar i detalj: GDPR-artikelanalys och NIS2 konsekvenser.

I Del 3 utforskar vi praktiska lösningar: tekniska kontroller, referensarkitekturer och policy-mallar för effektiv hantering av shadow AI.

Ta del av de senaste insikterna och nyheterna

Prenumerera på vårt nyhetsbrev för att ha koll på senaste nytt inom cybersäkerhetssfären. 

Prenumerera på vår cybersäkerhetsnyheter