JavaScript is currently disabled.Please enable it for a better experience of Jumi. Linuxexperten: ”Det finns skäl att vara rädd för AI”

EMBEDDED WORLD AI-program som på egen hand snabbt skräddarsyr en cyberattack mot önskad server på Internet – sådana kan utvecklas med samma teknik som driver Chat GPT, enligt Iisko Lappalainen på Montavista Software.

De omtalade stora AI-språkmodellerna (LLM, large language models) ser ut att innebära en stor utmaning för alla som jobbar med cybersäkerhet.

Iisko Lappalainen

– Jag tycker att när det gäller cybersäkerhet så bör vi vara rädda för AI. Det kommer att bli ett stort problem. Du kan använda den underliggande tekniken, maskininlärning, för att hacka system.

Det sade Iisko Lappalainen på Montavista i en presentation han höll under konferensdelen av Embedded World.

– Jag ser ett hot på nära håll, att AI:ar som GPT4 kan läras att tänka som angripare. De kan snabbt utnyttja sårbarheter och extrapolera fram nya varianter av existerande attacker.

– Jag är säker på att någon kommer att göra det förr eller senare, säger Iisko Lappalainen.

Vissa potentiella möjligheter att använda Chat GPT och andra språkmodeller för cyberattacker har redan uppmärksammats, som sociala attacker som att lura sig till access genom att härma en annan person i text, röst och bild.

– Men AI kommer att bli generellt säkerhetsproblem, tror jag. Man kan använda samma typ av teknik som Chat GPT är baserad på för att bygga andra sorters AI som exempelvis är direkt konstruerade för att hitta sårbarheter i servrar.

Artikeln är tidigare publicerad i aprilnumret av magasinet Elektroniktidningen.
Prenumerera kostnadsfritt!

GPT-maskinerna kan skriva programkod. Redan det är imponerande. Men de är dessutom väldigt produktiva vilket gör att det går snabbt att automatiskt skapa och genomföra anpassade cyberattacker.

– Du kan exempelvis visa dem en typ av sårbarhet, och då kan de på ett smart sätt skapa nya varianter av den, så kallad fuzzing, och mycket snabbt attackera nya system.

Han visar upp en av sina dialoger med Chat GPT. De konverserar om vilka valmöjligheter som står till buds för att hacka en sajt. Chat GPT producerar utan att protestera kod som kan användas för attacker.

Och det är bara början. Attackerna som Chat GPT visar för Iisko Lappalainen är kända sedan tidigare.

– Du kan hitta samma exempel genom att googla.

– Men samma teknik som Chat GPT är baserad på, kommer även att kunna användas för att bygga en AI som är specialiserad på till exempel just de verktyg som finns för Linux.

– Den skulle kunna utvärdera system efter deras unika sårbarheter. Sedan skulle den kunna skapa mutationer av existerande sårbarheter som passar för just den sajten, testa dem, skapa nya mutationer – och sedan repetera processen.

Maskinen skulle på egen hand kommunicera direkt med Internet istället för att som Chat GPT växla repliker med en användare.

En knapp månad efter vårt samtal, veckan innan tryckning av tidningen, presenteras det öppna projektet Auto GPT som använder GPT4 som verktyg för att uppnå mål – helt på egen hand. Det är just det arbetssätt som Iisko Lappalainen varnar för.

Självlärda experter på allt

GPT (Generative Pre-trained Transformer) är en familj djupa artificiella neuronnät som bland annat driver den berömda konversationsmaskinen Chat GPT. De levereras av företaget Open AI som skapar dem i enormt beräkningskrävande sessioner av maskininlärning.

Version 3 av GPT tränades på en textmassa som omfattade en halv biljon tokens (delar av ord) huvudsakligen hämtade från webben. Den blev en sorts självutnämnd expert på precis allt. Open AI har inte avslöjat hur mycket text som version 4 tränades på. GPT5 har i mitten av april enligt Open AI inte inlett sin träning.

Kräver att forskningen tar paus

Nära 24 000 personer har i skrivande stund undertecknat ett öppet brev som säger att AI-utvecklingen ska pausas för utvärdering av möjliga risker.

Bland signatärerna finns svenska professorer som neuronnätsnestorn Anders Lansner, robotikforskaren Volker Krueger, neurofilosofen Kathinka Evers och den kände AI-debattören Olle Häggström.

Iisko Lappalainens varning gäller dock inte framtida risker, utan risker i de AI-språkmodeller som redan publicerats.

Prenumerera på Elektroniktidningens nyhetsbrev eller på vårt magasin.


MER LÄSNING:
 
KOMMENTARER
Kommentarer via Disqus

Rainer Raitasuo

Rainer
Raitasuo

+46(0)734-171099 rainer@etn.se
(sälj och marknads­föring)
Per Henricsson

Per
Henricsson
+46(0)734-171303 per@etn.se
(redaktion)

Jan Tångring

Jan
Tångring
+46(0)734-171309 jan@etn.se
(redaktion)