JavaScript is currently disabled.Please enable it for a better experience of Jumi. EU i täten med AI-reglering

EU planerar att först i världen införa en heltäckande reglering för användning av Artificiell in-telligens. Lagstiftningen kallas AI Act och det slutliga beslutet väntas komma under hösten 2023. Målet är att den nya lagstiftningen sedan ska träda i kraft i samtliga 27 EU-länder 2026.

Susanne Stenberg och Håkan Burden på statliga forskningsinstitutet Rise har analyserat för-slaget till AI Act och skrivit ett antal lättlästa artiklar om AI Act och vad förslaget innebär om det blir gällande lag-stiftning.

Susanne Stenberg är rättslig expert inom ny teknik och Håkan Burden är senior forskare inom AI- och IT-system. De leder institutets arbete kring EU:s reglering av digitalisering och AI-system.

Det förslag som nu ligger på bordet stöds av EU Kommissionen och EU:s Ministerråd (EU-ländernas re-geringar). Det som åter-står är Europaparlamentets behandling av förslaget och sedan ett slutligt beslut av EU:s Ministerråd. Förberedelsearbetet för denna lagstiftning startade 2018 och förslaget till reglering kom 2021.

Rise sprider nu information och är beredd att bli partner med företag och myndigheter som behöver hjälp för att anpassa sig till den kommande regleringen.

– Många till synes enkla algoritmer ser ut att bli klassade som AI-system i den nya EU-lagstiftningen. Alla organisationer som utvecklar datadrivna tjänster behöver därför under-söka hur de nya reglerna slår och ha förmåga att avgöra om och i så fall hur de ska CE-märka sina system, säger Susanne Stenberg.

– Produkter som du sitter och designskissar på idag kommer ut på marknaden när AI-regleringen har trätt i kraft. Mycket mer än vad man tror kommer då att klassas som högrisksystem. Det handlar inte längre om vad du som tillverkare tycker är ett AI-system, det är vatten värt, utan vad som gäller är vad förordningen definierar som högrisksystem och AI-teknologier, säger Hå-kan Burden.

AI Act sorterar AI-system i tre kategorier: låg risk, hög risk och de som ska förbjudas. I kategorin låg risk finns bland annat chatbottar. System som ska förbjudas inkluderar de som tillämpar subliminala teknolo-gier för att undermedvetet påverka individer. Men även de som utnyttjar svaga grupper med risk för deras hälsa, alternativt egendom, eller används av offentliga aktörer för social rankning samt system som an-vänder biometri i realtid för brottsbekämpning på offentliga platser kommer att förbjudas, enligt AI Act.

AI-system i kategorin hög risk berör säkerheten i vissa fysiska produkter men utpekade tjänster och verksamheter som är viktiga för medborgarna kan ingå. Förslaget listar bland annat tjänster som erbjuder utbildningsplatser, utlyser anställningar och tjänster som ger medborgarna tillgång till offentligt stöd och bidrag. Även system som beräknar kreditvärdighet och system som kan användas för att prioritera insatser vid brand eller olyckor, kan vara högrisksystem.

SMARTA TJÄNSTER inom vital infrastruktur som vägtrafik, energi och vattenförsörjning före-slås också utgöra en hög risk. Förslaget kan därmed gälla den digitala infrastruktur som är en del av effektivare transporter, en fungerande energimarknad och i förlängningen även klimat-omställningen.

För produkter finns tre villkor som ska uppfyllas för att ett AI-system ska anses som hög risk: det ska vara en del av produktens säkerhetssystem, krävas certifikat från tredje part när produkten CE-märks samt att produkten ska tillhöra en specifik kategori av produkter som innehåller bland annat maskiner: radiout-rustning, medicinsk utrustning och linbanor.

I dagsläget är AI-system i fordon, skogsmaskiner eller fartyg, med tillhörande utrustning, undantagna från AI Act. Men EU:s mål är att även dessa produktområden ska omfattas av AI-regler i framtiden. Idag finns ett gällande Maskindirektiv som reglerar maskiner av olika slag och hur de ska CE-märkas. Detta di-rektiv ska ersättas av en Maskinförordning och då kan samma pro-dukt behöva CE-märkas både för att det är en maskin och för att dess säkerhetsfunktioner realiseras av AI-system. Det innebär att CE-märkningen i framtiden kommer att omfatta både de fysiska delarna och de digitala komponenterna av vissa produkter.

En viktig faktor i AI Act är att de data som används i högrisk AI ska hålla hög datakvalitet. Leve-rantören är skyldig att tillse detta. Leverantören är också ansvarig för att dokument upprättas som verifierar hur hög datakvalitet uppnås. Högrisk AI-system ska efter certifieringen, men innan det släpps på marknaden, registreras i EU:s databas, som ska vara öppen, så att medborgarna kan se vilka högrisksystem som finns på marknaden. Om en verksamhet inte uppfyller kraven på datahanteringen utgår böter på 30 miljoner euro eller sex procent av den globala omsättningen. För andra brister gäller lägre bötesbelopp.

ALLA SYSTEM som lanseras efter det att förslaget blivit lag omfattas av reglerna och det gäller även existerande system som uppgraderas substantiellt.

Artikeln är tidigare publicerad i magasinet Elektroniktidningen.
Prenumerera kostnadsfritt!

Det kommer inte att finnas någon tillsyn på förhand. All tillsyn sker när produkterna väl är ute på mark-naden. Leverantören behöver veta vad de gör. Det är klart att EU arbetar för att unionens regleringsmodell för AI också ska få spridning i andra delar av världen.

 

Omöjligt kontrollera intelligenta industriprodukter

Principer och mekanismer för varureglering fungerar inte längre när vi får alltmer digital intelligens i industriprodukterna. Egenskaperna kan uppgraderas löpande med avancerad programvara som Artificiell intelligens under en produkts livscykel och därmed ändra väsentliga egenskaper. Viktiga regulativa skydds-hänsyn som produktsäkerhet, personlig integritet eller cybersäkerhet kan därmed förändras utan kontroll.

Befintliga -regleringsmetodiker för gränsöverskridande handel baseras på en reglering av produkter som har statiska egenskaper. Normalt sett testas och certifieras produkter en gång före lansering på marknaden. De kontrolleras i ett senare skede genom myndigheternas marknadskontroll, skriver statliga Kommerskollegium i rapporten Innovation, AI, Technical Regulation and Trade som nyligen publicerats.

Den statliga myndigheten för utrikeshandel och handelspolitik, varnar nu EU, USA, Kina och världshan-delsorganisationen WTO för denna utveckling.

– Nya metoder behövs för att kunna följa upp och kontrollera egenskaperna hos produkter med inbyggd digital teknik under hela sin livslängd, säger Heidi Lund, ämnesråd och expert inom tekniska handels-hinder och internationellt regulativt samarbete vid Kommerskollegium, huvudförfattare till rapporten.

MYNDIGHETENS UPPFATTNING är att ökad användning av digital intelligens i industriprodukter, som AI, kopplat med cyber-sårbarheter och ökad risk med cybersäkerhetshot, kräver en omprövning av den re-gleringsteknik som ska användas för industrivaror. Industri-varor svarar för en mycket stor del av världs-handeln.

Heidi Lund har nyligen presenterat rapporten för EU-kommissionens handelsexperter på Generaldirek-toratet för handel (DG Trade) och hon ska i juni presentera slutsatserna för världshandelsorganisationens (WTO) grupp för tekniska handelshinder (TBT-Kommitten – Committe for Technical Barriers). Den har pre-senterats för experter från bland annat USA och Kina och för den globala standardiseringsorganisationen ISO.

I HELA VÄRLDEN pågår diskussioner om att införa reglering av AI där EU ligger i täten. Heidi Lund har därför också tittat på den reglering som EU planerar införa.

– EU vill reglera AI. Min uppfattning är att man ger sken av att kontroll kan uppnås genom en horison-tell reglering av AI. De för-söker uppnå detta genom att använda sig av en traditionell regleringsmodell där man ska säkerställa att ett AI-system är säkert vid marknadstillträde. I praktiken är risker med AI kopp-lat till användarfall (use cases) och aktualiseras olika till olika användare och konsumenter vilket jag ser kan försvåra att nå fram med horisontell lagstiftning. Till detta tillkommer ännu att de horisontella regler-na måste samspela med sektorslagstiftning och beakta osäkerhet kopplat till cyberhotet.

– Min uppfattning (som baseras på ett brett samråd med företag och experter) är att EU behöver ta ett omtag kring digital reglering, också för att kunna klara tillsyn och kontroll under industriprodukternas hela livslängd. Det är ingen idé att ta fram digitala varuregler om det inte går att tyda att de faktiskt leder till säker AI eller höjd cybersäkerhet och som dessutom kan verifierbart följas upp och kontrolleras av till-synsmyndigheter, säger Heidi Lund.

KOMMERSKOLLEGIUMS RAPPORT baseras på omfattande diskussioner med lastbilstillverkarna Scania, AB Volvo och Einride, två medicintekniska företag (Electa och Dedalus Global) samt Apple och Google.

Erik Dahlberg och Ulrik Janusson på Scania ger sina argument för en ny regleringsmodell.

– Fordonsmarknaden är traditionellt starkt reglerad. Tack vare digitaliseringen kan fordonen få nya och bättre egenskaper under hela sin livslängd. Idag är ledtiden för att uppgradera programvara i fordonen upp till ett år, drivet av godkännandeprocessen. Denna ledtid måste i framtiden ner till en per månad eller en per dag. Regleringen och kontrollen behöver utformas så att detta är möjligt och tillåtet, säger Erik Dahl-berg på Scania.

– Scania och fordonsindustrin behöver en god och robust kontroll över alla fordon på marknaden. Det är viktigt och värdefullt för oss, säger Ulrik Janusson.

Scania ser för egen del inga problem att följa EU:s planerade AI-reglering.

– De regler för riskhantering som finns i AI-regleringen kan bli problem för små och medelstora företag att klara, säger Erik Dahlberg.

SCANIA VILL HA ett globalt harmoniserat regelverk för AI. Det är vad hela världen önskar. Men EU, USA och Kina har olika angrepps-sätt på detta område idag, säger Erik Dahlberg.

Elektroniktidningen har pratat med statliga Rise om Kommerskollegiums rapport.

– Min bedömning är att Kommerskollegium har rätt om behovet av en ny regleringsmodell, säger Joa-kim Eriksson, enhetschef, uppkopplad intelligens på Rise.

– Det är klart att i framtiden räcker det inte med att testa en produkt och få den godkänd. Det är också svårt att testa en mjukvarubaserad produkt efter varje uppgradering. Det är heller inte rimligt att certifiera en produkt på nytt varannan månad, säger Joakim Eriksson.



 
MER LÄSNING:
 
KOMMENTARER
Kommentarer via Disqus