Den avgörande frågan för styrelse och VD är inte vilka AI‑verktyg organisationen ska använda, utan vilka arbetsuppgifter som är lämpliga för AI‑stöd – och vilka som kan skada verksamheten om de hanteras fel?
![]() Av: Ann‑Sofie Gustafsson på svenska SamCert.
SamCert hjälper små och medelstora företag att klara och upprätthålla ISO-certifikat inom kvalitet, miljö, arbetsmiljö och informationssäkerhet. |
AI diskuteras i dag i nästan varje ledningsgrupp och styrelse. Förväntningarna är höga: effektivisering, bättre beslutsunderlag och ökad konkurrenskraft.
Samtidigt ökar riskerna – inte minst kopplade till ansvar, efterlevnad och förtroende.
Börja i rätt ände: arbetsuppgiften, inte tekniken
AI skapar värde när den används där:
- nyttan är tydlig
- konsekvensen vid fel är begränsad
- ansvar och granskning är definierade
Ett enkelt sätt att sortera är att börja med följande kontrollfrågor.
Styrelsens checklista: när är AI ett rimligt stöd?
En arbetsuppgift är ofta lämplig för AI‑stöd om:
- den är återkommande och strukturerad
- den bygger på befintlig information
- det finns tydliga ramar för resultatet
- uppgiften är tidskrävande men inte strategiskt avgörande i sig
- AI används för analys, sammanfattning eller första utkast
- resultatet alltid granskas av människa
👉 Uppgifter som uppfyller flera av dessa kriterier innebär normalt låg affärsrisk.
Men för styrelse och VD räcker det inte att titta på effektivitet. Nästa steg är att bedöma konsekvensen om AI används fel.
Grön, gul eller röd AI‑användning – ett beslutsstöd för ledning och styrelse
Nedan modell hjälper till att skilja mellan acceptabel, kontrollerad och olämplig AI‑användning, inspirerad av risk‑ och styrningsprinciper i ISO/IEC 42001.
🟢 GRÖN – AI‑stöd med låg verksamhetsrisk
| Typ av arbete | Styrelsens perspektiv |
|---|---|
| Sammanfattningar, analyser, utkast | Effektivisering utan ansvarsförskjutning |
| Strukturering av dokumentation | Låg konsekvens vid fel |
| Förberedande underlag | Mänskligt beslut kvarstår |
Styrprincip: AI tillåts brett, med grundläggande krav på granskning.
🟡 GUL – AI‑stöd som kräver styrning och kontroll
| Typ av arbete | Affärsrisk |
|---|---|
| Underlag till strategiska beslut | Felaktiga slutsatser |
| Risk‑ och konsekvensanalyser | Missade eller feltolkade risker |
| Tolkning av regelverk och standardkrav | Bristande efterlevnad |
| Intern kommunikation med stor påverkan | Förvirring, fel signaler |
Styrprincip: Tydlig ansvarig, dokumenterad användning och fastställda ramar för hur AI får användas.
🔴 RÖD – AI‑användning som kan skada verksamheten
| Typ av arbete | Potentiell skada |
|---|---|
| Juridiska bedömningar och avtal | Rättsliga och ekonomiska konsekvenser |
| Arbetsmiljö‑ och säkerhetskritiska beslut | Personskador |
| Rekrytering och individbedömningar | Diskriminering, förtroendeförlust |
| Automatiserade beslut utan mänsklig kontroll | Otydligt ansvar |
| Kommunikation till myndigheter | Sanktions‑ och reputationsrisk |
Styrprincip: AI får inte ersätta mänskligt ansvar eller beslutsfattande.
Vad detta innebär för styrelse och VD
AI är inte främst en IT‑fråga – det är en styrnings‑ och ansvarsfråga. Styrelsens roll är att säkerställa att:
- AI används där den stärker verksamheten
- ansvar och beslut aldrig ”delegeras” till teknik
- risker bedöms utifrån konsekvens, inte nyhetsvärde
- AI‑användning ligger i linje med bolagets värderingar, mål och regelverk
Detta synsätt ligger helt i linje med både ISO‑krav och den kommande AI‑förordningen, där fokus ligger på ansvar, transparens och mänsklig kontroll.
Sammanfattning för beslutsfattare
|

Av: Ann‑Sofie Gustafsson på svenska SamCert.