Skriv ut

För första gången har Googles cybersäkerhetsgrupp GTIG stött på vad som ser ut att vara en nolldagsattack skapad av AI. GTIG tror att AI är hjärnan på grund av det idiomatiska språkbruket och på grund av buggens natur. AI används allt mer offensivt, enligt GTIG.

Följande utspelade sig någon gång mellan  februari och maj, enligt en rapport från Googles cybersäkerhetsgrupp.

Det fanns en bugg i ett icke namngivet webbaserat adminstrations­verktyg: det gick att åsidosätta två­faktors­autentisering. 

Någon hittade buggen – med hjälp AI. Samma någon – också med hjälp av AI – skrev ett pythonskript som gick till attack via buggen. Och planerade att sätta in skriptet i en bred attack mot  adminstrationsverktyget.

Då red GTIG (Google Threat Intelligence Group) in som kavalleriet i sista minuten och informerade projektet, så att buggen kunde lagas.

Det som är anmärknings­värt är att det var AI som både hittade buggen och skapade en attack som utnyttjade koden. Det är första gången som GTIG säger sig ha sett detta.

Att AI var hjärnan bakom kvalifi­cerar GTIG med ett ”troligen”.  

Det kallas för en ”nolldagsattack” – eftersom sårbarheten varit allmänt känd i noll dagar när den användes. Nolldagsattacker får just nu uppmärksamhet på grund av att amerikanska AI-jätten Anthropic presenterat en agent baserad på sin LLM Mythos, och den ska sitta på en oöverträffad förmåga att hitta och utnyttja nolldagssårbarheter.

Enligt Antropic väntar en våg av AI-skapade cyberattacker – om mellan ett halvår och ett år, då andra LLM:er hunnit ikapp Mythos.

GTIG:s fynd visar att det inte stämmer. Det finns inget andrum på sex månader. AI-attacker sker redan nu.

Vilken LLM som var hjärnan bakom attacken skriver GTIG inget om. Bara att det troligen inte var Googles egen Gemini.

GTIG ser spåren efter AI i det överdrivet pedagogiska språket och på att pythonkoden följer konventioner som man ofta ser i AI-genererad kod. 

Och så fanns där en hallucina­tion.

Enligt GTIG är buggen dessutom av ett slag som AI-buggbottar tros vara duktiga på att hitta, och som andra buggverktyg som fuzzing och klassisk statisk kodanalys är svaga på.

FAKTA

AI används mer och mer för cyberattacker

Mellan sin förra rapport i februari och sin nya rapport har GTIG sett en trend: att användandet av offensiv generativ AI ökar och blir mer och mer systematiskt. 

AI används på flera olika sätt genom cyberattackens hela livscykel. GTIG kallar det för ”AI-relaterad hotaktivitet”.

AI används inte bara för hitta buggar utan även för att skapa program som utnyttjar buggarna. Och för att producera sofistikerad offensiv programvara. Och för reverse engineering. Och för att skapa flexibla cyberattacker som dynamiskt anpassar sig själva efter hur attacken möts. 

Och så används AI för att generera media.  Från Ryssland, Iran, Kina och Saudiarabien kommer AI-genererad politisk satir och berättelser som för fram specifika narrativ över både digitala plattformar och på tryckta affischer.  AI  skapar även fejkade klipp med klonade röster från verkliga journalister, eller klipp som på andra sätt kopplar innehållet till en avsändare med allmän trovärdighet.

Experiment med att utnyttja verktyg som Openclaw och Oneclaw pågår.

Aktörer skaffar sig till råga på allt fria AI-resurser för sitt utvecklingsarbete genom att kringgå begränsningar i användningen av AI-tjänsterna.

En sak till: AI-miljöer i sig har blivit populära angrepps­punkter för attacker mot leveranskedjor. Inte bara bottarna och agenterna angrips utan även deras protokoll och de verktyg som ingår i deras verktygsväskor. 

Även försvarssidan använder AI.  GTIG  meddelar att det använder sin egen AI – Big Sleep, Gemini och Code­mender – för att leta och åtgärda buggar i sin egen kod.

– Det demonstrerar att AI även kan vara ett kraftfullt verktyg för försvarare, skriver GTIG.

Enligt GTIG är Kina och Nordkorea just nu mycket intresserade av att använda AI offensivt. De är dessutom avancerade aktörer.

Även inbyggda system är mål. Just nu fiskar cyberspionage­gruppen UNC2814 efter sårbarheter i mjukvaran till kineska TP-Links nätverks­produkter – med Googles egen AI-bott Gemini som ofrivillig konsult. 

En annan hotaktör har setts analysera  en kinesisk databas med över 85 000 sårbarheter – för att träna en egen modell att hitta ännu fler sårbarheter. Även Nordkoreanska APT45 har setts analysera sår­barhetsrapporter.

I GTIG:s rapport (länk) finns fler exempel på hur aktörer utnyttjar AI offensivt. Och tips på försvar.