Författare

SOC @ Asurgent

Read time

2 min

mojahid-mottakin-C7lINP5Kjvo-unsplash

Hur används AI av cyberkriminella?

Ett tydligt exempel är Fancy Bear, en avancerad och ökänd APT-grupp från Ryssland, som aktivt deltar i krigsföring genom digitala medel. Fancy Bear har utnyttjat AI för att automatisera grundläggande scripting-uppgifter såsom fil-manipulation, datahantering och multiprocessing, vilket möjliggör en smidigare och ett effektivare genomförande av sina attacker. Dessa attacker riktar sig inte bara mot enskilda individer eller organisationer utan är en del av en större strategi för att destabilisera och skada digitala miljöer, särskilt i konfliktområden som Ukraina.

Genom att implementera denna automatisering sparar Fancy Bear angriparna tid och resurser samtidigt som de förstärker sina kapaciteter för att bedriva krig i den digitala sfären. Det skrämmande exemplet visar hur avancerade teknologier, i händerna på krigförande aktörer som Fancy Bear, kan utnyttjas för att skada och destabilisera länder och samhällen. Fancy Bear använder sig av radarbildningsteknik och insamling av underrättelser för att förstärka sina attacker, och deras närvaro i kriget i Ukraina är ett oroande tecken på den farliga fusionen mellan teknik och konflikt.

Vilka APT-grupper använder ChatGPT?

Bland de mest notoriska hotaktörerna finns grupper som Fancy Bear från Ryssland, Charcoal Typhoon och Salmon Typhoon från Kina, Crimson Sandstorm från Iran och Emerald Sleet från Nordkorea. Dessa grupper har alla använt ChatGPT för att utföra en rad olika aktiviteter, från grundläggande scripting-uppgifter till mer avancerade underrättelseinsamlingstekniker.

Bedömning av risken och potentiella konsekvenser

Även om dessa avslöjanden är oroande, finns det en viss lättnad i att ingen av de observerade användningarna av ChatGPT har varit särskilt förödande hittills. Enligt rapporten från Microsoft och OpenAI har hotaktörerna huvudsakligen använt AI som ett verktyg för att öka sin produktivitet, snarare än att utveckla helt nya attacker eller tekniker. 

Framtiden för cyberhoten inom AI: Hur bör vi reagera?

Det har observerats att än så länge har inga katastrofala konsekvenser eller betydande risker skett tillsammans med användningen av LLM. Grupperna kommer alltid att anpassa och utnyttja ny teknologi för sina egna syften, vilket understryker vikten av att vara vaksam och kontinuerligt utveckla effektiva motmedel för att bemöta denna hotbild.

Joseph Thacker, AI engineer och säkerhetsforskare på AppOmni förklarar. "Generative AI is amazing, but it's mostly helping humans be more efficient rather than making breakthroughs. I believe those threat actors are using LLMs to write code (like malware) faster, but it's not noticeably impactful because they already had malware. They still have malware. It's possible they're able to be more efficient, but at the end of the day, they aren't doing anything new yet."

För att möta denna utmaning är Microsoft och OpenAI dedikerade till att bekämpa cyberbrottslighet genom att aktivt arbeta för att förhindra missbruk av avancerade språkmodeller som ChatGPT för skadliga syften. Genom att kontinuerligt förbättra säkerhetsåtgärderna och samarbeta med andra aktörer inom cybersäkerhetsområdet strävar dessa företag efter att bygga en starkare och mer motståndskraftig digital infrastruktur. Detta arbete är av avgörande betydelse för att säkerställa att Internet och den digitala världen förblir en säker plats för alla användare.

Avslutande reflektioner

I slutändan är det tydligt att vi står inför en ny era av cyberhot, där avancerade teknologier som AI spelar en allt större roll. För att skydda vår digitala infrastruktur och säkerheten för våra samhällen måste vi vara beredda att möta dessa hot. 

 

The Hacker News

DarkReading

Ta del av de senaste insikterna och nyheterna

Prenumerera på vårt nyhetsbrev för att ha koll på senaste nytt inom cybersäkerhetssfären. 

Prenumerera på vår cybersäkerhetsnyheter