Skriv ut

Den stora språkmodellen Claude har sedan hösten 2025 hittat över 500 allvarliga sårbarheter i olika öppenkodsprojekt. Kanske ännu mer märkvärdigt är att den gjort det på egen hand. Det meddelande i fredags Claudes ägare Anthropic, och varnade återigen för att dagens tempo i felsökning måste skruvas upp för att möta angripare med samma AI-beväpning.

Anthropics Claude är en av de många utmanarna av Open AI:s Chat GPT. 

Anthropic släppte i fredags Claude Opus 4.6 och avslöjade samtidigt att den använts sedan i höstas för ett spännande projekt: att jaga buggar i öppen källkod – på egen hand.

Det har fungerat utmärkt. Inte mindre än 500 sårbarheter ska Opus 4.6 ha grävt fram hittills. Och det ska inte handla om  den typ av falska felrapporter som plågat öppenkodsprojekt, utan riktiga sårbarheter. 

De är verifierade av Anthropics mänskliga utvecklare och av externa säkerhetsexperter och har börjat rapporteras in till bland annat projekten GhostScript, OpenSC och CGIF. 

Inte bara fyndvolymen är intressant, utan också det faktum att Claude självständigt sökt upp sårbarheterna. Anthropic har i princip bara satt verktyg i händerna på Claude, pekat ut ett antal öppenkodasprojekt och bett Claude söka efter svagheter i dem. Efter fritt vald stategi.

En avgränsning fanns: att Claude skulle söka efter buggar som hade med minneshantering att göra. Det är en viktig och vanlig typ av sårbarhet.  Dessutom – det viktiga här – är att det är en säkerhetsrapport som är förhållandevis entydig att verifiera.

Anthropic pekar på den våg av nonsens-felrapporter från AI-verktyg som drabbat öppenkodsprojekt, och vill själv inte riskera att hamna i det lägret.

Sedan i höstas har Elektroniktidningen rapporterat om AI-slaskfelrapporter som drabbar öppenkod, men också om verkliga framsteg som gjorts inom automatiserad felsökning med hjälp av generativ AI. 

Generativ AI  måste vid det här laget sägas ha bevisat att det är ett fullgott felsökningsverktyg. Ett starkt indicium är att det hittar svagheter som många ögon och verktyg granskat under lång tid och missat. Claude har hittat allvarliga sårbarheter (high severity)  som gått oupptäckta i decennier, enligt Anthropic.

När fuzzing introducerades gjorde det samma karriär – pekade ut en klass av buggar som gått oupptäckta – och blev snabbt ett nytt standardverktyg. Det rapporteras att det nu fått sällskap av generativ AI i verktyg som Copilot, Augment Code och Aisle Research.

Och nu meddelar alltså Anthropic imponerande resultat från sina experiment med Claude Opus 4.6.

Anthropic stoltserar med att det har kunnat lämna sin algoritm med  fria händer. Den har inte bara fått tillgång till verktyg baserade på generativ AI, utan också klassiska debugverktyg. Plus pythontolk, Linuxkommandon och debuggers. Och till sist källkoden till olika öppenkodsprojekt. 

Därefter har Claude-agenten på egen hand valt strategier och verktyg för att jaga efter sårbarheter.

Claude-agenten fungerar som en arbetsledare som bestämmer sig för att ett visst stycke kod ska undersökas kanske med hjälp av ett klassiskt fuzztest eller en scanning efter kända klasser av buggar. Agenten väljer verktyg själv. Den är autonom. Den får inte en specifik given arbetsgång i handen.

Typiskt ger inte applikationen av verktyget något resultat. Men Claude arbetar träget vidare och provar nya grepp.

Claude-agenten kan formulera en hypotes om ett möjligt fel och – om den bedömer att det är relevant – skriva ett testfall och köra testfallet i sin sandlåda och notera utfallet.

Anthropic berättar att Claude tittat på tidigare buggfixar i projektet och undersökt om liknande kod möjligen kan ha samma sårbarhet.   

Anthropic har valt ut öppenkodsprojekt med en lång historia och utbredd användning, det vill säga att många ögon redan spanat efter sårbarheter i dem.

Redan de tidigare Anthropic-modellerna Sonnet 4.5 och Opus 4.1  användes för att söka efter kodsårbarheter. Under 2025 deltog de i tävlingar där de hittade (planterade) buggar.

De pekade ut faktiska buggar i Anthropics egen kod. Och de började snubbla över tidigare okända sårbarheter – det slutliga beviset på att verktyget kunde göra nytta ute i verkligheten. Vid det laget hade andra säkerhetsteam börjat notera samma sak och börjat ta generativ AI-verktyg i skarpt bruk. 

Anthropic har även studerat hur generativ AI kan användas för cyberattacker och repeterar något som det varnat för förut: att de aktörer som på olika sätt går till attack mot datorsystem kan förmodas ha tillgång till i princip sammaAI-verktyg.

En av de allvarligaste konsekvenserna av detta är att allting går mycket fortare nu – Anthropic har själv registrerat automatiserade attacker på sina system.

– Vår bedömning är att vi nu är tvungna att agera snabbt och  stärka försvaret, för att säkra så mycket kod som möjligt medan möjligheten fortfarande finns.