Författare
Simon Florin
Technical Security Advisor
Read time
4 min
9 februari 2026
'Netskope Cloud and Threat Report 2026' avslöjar en alarmerande trend: antalet datapolicyöverträdelser kopplat till generativ AI har fördubblats under det senaste året, med genomsnittligt 223 incidenter per månad och organisation. Samtidigt har användningen av personliga AI-konton (shadow AI) ökat exponentiellt 47% av GenAI användarna använder fortfarande personliga, ohanterade konton trots ökade företagslicenser.

'Netskope Cloud and Threat Report 2026' avslöjar en alarmerande trend: antalet datapolicyöverträdelser kopplat till generativ AI har fördubblats under det senaste året, med genomsnittligt 223 incidenter per månad och organisation. Samtidigt har användningen av personliga AI-konton (shadow AI) ökat exponentiellt 47% av GenAI användarna använder fortfarande personliga, ohanterade konton trots ökade företagslicenser.
För IT-säkerhetsansvariga innebär detta en fundamental förändring av attackytan: känslig data läcker nu ut genom kanaler som traditionella säkerhetskontroller inte är designade att hantera.
Data från Netskope Threat Labs visar följande tekniska trender:
Denna överlappning mellan personliga och företagskonton är särskilt problematisk ur säkerhetsperspektiv, den indikerar att användare aktivt kringgår företagskontroller när dessa upplevs som begränsande.
Scenariot är välbekant för de flesta IT-Säkerhetsteam:
Verkligt exempel från Netskope data:
En organisation upptäckte att 42% av deras GenAI relaterade datapolicy överträdelser involverade källkod och ibland inkluderar dessa även API nycklar, databasanslutningssträngar och affärslogik.
AI drivna webbläsartillägg utgör en särskilt lömsk attackvektor:
MCP representerar nästa generation av AI integration och med den kommer nya säkerhetsutmaningar:
Netskope's rapport identifierar följande distribution av känslig data i GenAI överträdelser:
| Datatyp | Andel | Risk |
|---|---|---|
| Källkod | 42% | Exponering av proprietära algoritmer, API-nycklar och affärslogik. |
| Regulerad data | 32% | GDPR brott (PII, hälsodata) och överföring till tredjeland utan skydd. |
| Intellectual Property | 16% | Förlust av strategiska affärsplaner, patent och konkurrensfördelar. |
Compliance-gap:
Användning av personliga AI konton för att processa regulerad data innebär:
Saknad Databehandlingsavtal (DPA) enl. GDPR artikel 28
Angripare: Missnöjd medarbetare (insider).
Mål: Exfiltrera IP innan uppsägning.
En medarbetare använder ChatGPT (personligt konto) för att "sammanfatta" strategidokument och extrahera kundlistor. Inga filer laddas ner, så traditionell DLP missar det. Medarbetaren går hem med all info sparad i sin privata chatthistorik.
Angripare: Nation state APT.
Mål: Identifiera Zero days.
En utvecklare klistrar in kod i en publik AI. En angripare (via intrång i utvecklarens konto) kommer åt historiken, hittar opatchade sårbarheter i koden och skapar en exploit innan företaget hinner fixa buggen.
Scenario: MCP enabled AI agent med över privileged access.
En AI agent ges tillgång till att läsa företagets Slack och Drive för att skapa en rapport. Agenten hämtar autonomt filer den inte borde (t.ex. hela kunddatabasen) och skickar till en extern tjänst för bearbetning. Ingen människa godkände den specifika filöverföringen.
Från Netskope Cloud and Threat Report 2026:
| Metric | Värde | Trend |
|---|---|---|
| Medel antal GenAI data violations/org/månad | 223 | +100% YoY |
| Topp 25% organisationer violations/månad | 2,100 | +95% YoY |
| % av organisationer med zero DLP för GenAI | 50% | -10% YoY |
| % violations innehållande källkod | 42% | Stable |
| % violations innehållande regulerad data | 32% | +5% YoY |
| % av GenAI users som använder personal accounts | 47% |
-40% YoY |
Prenumerera på vårt nyhetsbrev för att ha koll på senaste nytt inom cybersäkerhetssfären.