Get the App

Chapter 4 of 12

Artiklarna 6–7: Klassificering av högrisk‑AI och bilagor III–IV

Fokuserar på hur AI‑system klassificeras som högrisk enligt artiklarna 6–7 och bilaga III, samt översiktligt om tekniska dokumentationskrav i bilaga IV.

15 min readsv

Översikt: Varför högrisk‑klassificering spelar roll

EU:s AI‑förordning (AI Act) antogs 2024 och börjar tillämpas stegvis från 2025–2026. Artiklarna 6–7 och bilagorna III–IV är navet för att förstå högrisk‑AI.

I den här modulen kopplar vi ihop:

  • Artikel 6Hur ett AI‑system blir klassificerat som högrisk
  • Bilaga IIIVilka användningsområden som automatiskt räknas som högrisk
  • Artikel 7Hur och varför bilaga III kan uppdateras över tid
  • Bilaga IVVilken teknisk dokumentation som krävs för högrisk‑AI

Kom ihåg kontexten från tidigare moduler:

  • Artikel 5: vissa AI‑system är förbjudna – de får inte användas alls.
  • Högrisk‑AI enligt artiklarna 6–7 är tillåtna, men under strikta krav (kapitel III: t.ex. riskhantering, datakvalitet, loggning, transparens).

> Mental bild: Föreställ dig en trafikljusmodell för AI:

> - Rött: förbjudna system (artikel 5)

> - Gult: högrisk‑system (artiklarna 6–7, bilaga III) – får köra, men under hårda regler

> - Grönt: övriga system – färre krav, men fortfarande vissa regler (t.ex. transparens för vissa system)

I resten av modulen går vi steg för steg från definition → klassificering → exempel → praktisk bedömning av egna case.

Artikel 6: Två vägar till högrisk‑klassificering

Artikel 6 beskriver när ett AI‑system är högrisk. I den slutliga AI‑förordningen (2024) finns i praktiken två huvudspår:

  1. Högrisk genom koppling till annan EU‑lagstiftning

AI‑system som är säkerhetskomponenter i produkter som redan omfattas av sektorslagstiftning, t.ex.:

  • medicintekniska produkter
  • leksaker
  • maskiner
  • luftfart, bilar, järnväg

Om produkten måste genomgå konformitetsbedömning enligt den sektorsspecifika lagstiftningen, och AI‑komponenten påverkar säkerheten, blir AI‑systemet högrisk.

  1. Högrisk genom uppräkning i bilaga III

AI‑system som används i vissa känsliga områden (t.ex. utbildning, sysselsättning, rättsväsendet) är högrisk om de uppfyller bilaga III‑beskrivningarna.

Förenklat beslutsflöde:

  1. Är AI‑systemet en säkerhetskomponent i en reglerad produkt (t.ex. medicinteknik, fordon)?

→ Ja: högrisk enligt artikel 6.

→ Nej: gå vidare.

  1. Faller användningsområdet in under någon kategori i bilaga III?

→ Ja: högrisk (om det inte uttryckligen undantas).

→ Nej: sannolikt inte högrisk (men kan ändå omfattas av andra regler i AI‑förordningen).

> Viktigt: Artikel 6 kopplar alltså abstrakta kriterier (säkerhet, grundläggande rättigheter) till konkreta listor (bilaga III + sektorslagstiftning).

Exempel: Högrisk via sektorslagstiftning (Artikel 6.1)

Låt oss konkretisera spår 1 i artikel 6: AI som säkerhetskomponent i produkter.

Exempel 1: Förarassistans i bil

  • Produkt: Personbil som måste följa EU:s fordonsregelverk.
  • AI‑system: Ett system för automatisk filhållning och nödbromsning.
  • Roll: Om systemet inte fungerar korrekt kan det leda till allvarliga olyckor.

➡️ Detta AI‑system är en säkerhetskomponent. Bilen måste CE‑märkas och genomgå konformitetsbedömning.

Konsekvens: AI‑systemet klassas som högrisk enligt artikel 6.

Exempel 2: AI i medicinteknik

  • Produkt: Röntgenutrustning som använder AI för att detektera tumörer.
  • AI‑system: Bildanalysalgoritm som ger beslutsunderlag till läkaren.
  • Roll: Kan starkt påverka diagnos och behandling.

➡️ Systemet omfattas av medicinteknikförordningen (MDR). Om AI‑delen är central för diagnosen blir den en säkerhetskomponent.

Konsekvens: AI‑systemet är högrisk.

Exempel 3: Ej högrisk via detta spår

  • Produkt: Smart högtalare för musik.
  • AI‑system: Röstassistent som spelar musiklistor.
  • Roll: Ingen direkt säkerhetsfunktion kopplad till reglerad produkt.

➡️ Även om AI används, är det inte en säkerhetskomponent i en produkt som omfattas av säkerhetslagstiftning.

Konsekvens: Inte högrisk via artikel 6.1 (men kan eventuellt beröras av andra delar av AI‑förordningen).

Bilaga III: Högrisk genom känsliga användningsområden

Bilaga III listar konkreta användningsområden där AI anses innebära hög risk för hälsa, säkerhet eller grundläggande rättigheter. Om ditt system faller inom en sådan kategori är det i princip per automatik högrisk.

Några centrala kategorier i bilaga III (förenklat och förenade till exempel):

  1. Biometrisk identifiering och kategorisering av personer

T.ex. realtids‑ansiktsigenkänning i offentliga miljöer (med vissa undantag och särskilda regler).

  1. Kritisk infrastruktur

AI som styr eller övervakar:

  • elnät
  • vattenförsörjning
  • trafikledningssystem
  1. Utbildning och yrkesutbildning

AI som används för att:

  • bedöma prov eller tentor
  • fatta beslut om antagning
  • placera elever i olika nivåer
  1. Sysselsättning, rekrytering och arbetsvillkor

AI som:

  • sorterar och rankar jobbansökningar
  • automatiserar anställningsbeslut
  • övervakar prestation och kan leda till uppsägningar eller lönesättning
  1. Tillgång till viktiga privata och offentliga tjänster

T.ex. AI som:

  • beslutar om lån eller kreditvärdighet
  • bedömer rätt till sociala förmåner
  1. Rättsväsendet och brottsbekämpning

AI som används för:

  • bevisvärdering
  • riskbedömning (t.ex. återfallsrisk)
  • beslutsunderlag för domare eller åklagare
  1. Migration, asyl och gränskontroll

T.ex. AI som hjälper till att:

  • bedöma asylansökningar
  • riskprofilera vid gränskontroll

> Viktigt: Den exakta lydelsen i bilaga III är detaljerad och teknisk. Här får du en översiktsbild. I praktiken måste organisationer läsa den aktuella konsoliderade versionen, eftersom bilagan kan ha uppdaterats (artikel 7).

Snabbtest: Högrisk enligt bilaga III?

Testa om du kan känna igen några typiska högrisk‑användningar enligt bilaga III.

Vilket av följande AI‑system är *mest typiskt* högrisk enligt bilaga III (givet normal användning)?

  1. En AI‑baserad rekommendationsmotor för filmförslag i en streamingtjänst
  2. Ett AI‑system som automatiskt rankar och filtrerar jobbansökningar åt en stor arbetsgivare
  3. En AI‑chattbot som svarar på generella frågor på ett universitets webbplats
Show Answer

Answer: B) Ett AI‑system som automatiskt rankar och filtrerar jobbansökningar åt en stor arbetsgivare

AI som används i **rekrytering** (t.ex. rankning av jobbansökningar) räknas som högrisk i bilaga III, eftersom det direkt påverkar människors tillgång till sysselsättning. Filmrekommendationer och en enkel FAQ‑chattbot är normalt inte högrisk enligt bilaga III (såvida de inte används på ett sätt som påverkar grundläggande rättigheter på liknande sätt).

Tillämpning: Klassificera tre korta case

Läs igenom fallen nedan och fundera: högrisk eller inte? Motivera kort för dig själv med hänvisning till artikel 6 och/eller bilaga III.

  1. Case A – Studentantagning

Ett universitet använder ett AI‑system för att automatiskt ranka ansökningar till ett mycket eftertraktat masterprogram. Mänskliga handläggare gör en snabb översyn, men följer nästan alltid AI‑rankningen.

→ Är detta högrisk? Vilken kategori i bilaga III är relevant?

  1. Case B – E‑handel

En webbutik använder AI för att rekommendera produkter baserat på tidigare köp och klickbeteende. Rekommendationerna påverkar inte kreditbeslut eller liknande.

→ Högrisk eller inte? Varför?

  1. Case C – Socialförsäkring

En myndighet använder AI för att bedöma sannolikheten för felaktiga utbetalningar av bidrag. Systemets output används för att prioritera vilka ärenden som ska granskas manuellt.

→ Högrisk eller inte? Vilken kategori i bilaga III kan vara relevant?

---

Reflektionsstöd (facit i textform – jämför med dina svar):

  • Case A: Typiskt högrisk – faller under utbildning och yrkesutbildning (antagning, bedömning).
  • Case B: Normalt inte högrisk – påverkar inte direkt grundläggande rättigheter eller tillgång till viktiga tjänster, och finns inte i bilaga III.
  • Case C: Mycket sannolikt högrisk – handlar om tillgång till offentliga tjänster/sociala förmåner och riskprofilering av individer.

Artikel 7: Varför och hur bilaga III kan uppdateras

Artikel 7 ger EU‑kommissionen befogenhet att uppdatera bilaga III över tid genom s.k. delegerade akter.

Varför behöver bilaga III uppdateras?

  • Tekniken förändras snabbt – nya AI‑användningar kan skapa risker som inte fanns när förordningen antogs 2024.
  • Erfarenhet från tillsyn – myndigheter kan upptäcka nya riskmönster i praktiken.
  • Skydd av grundläggande rättigheter – t.ex. nya sätt att profilera eller diskriminera personer med AI.

Hur går uppdateringen till (i stora drag)?

  • Kommissionen gör en riskanalys och samråder ofta med experter, medlemsstater och berörda parter.
  • Om vissa nya användningsområden bedöms innebära liknande eller högre risk än de som redan finns i bilaga III, kan de läggas till.
  • I vissa fall kan kategorier preciseras eller justeras.

Vad betyder detta i praktiken för utvecklare och organisationer?

  • Du kan inte se bilaga III som statisk.
  • Organisationer behöver ha omvärldsbevakning: följa uppdateringar från EU‑kommissionen, nationella tillsynsmyndigheter och branschorganisationer.
  • Ett AI‑system som inte är högrisk idag kan i framtiden hamna i en ny kategori i bilaga III.

> Praktiskt råd: I en reell verksamhet bör man ha en compliance‑funktion eller ansvarig som följer ändringar i bilaga III och gör återkommande genomgångar av portföljen av AI‑system.

Kopplingen till kapitel III: Vad högrisk‑klassning utlöser

När ett AI‑system klassas som högrisk (artikel 6 + bilaga III eller sektorslagstiftning) utlöser det omfattande krav i kapitel III i AI‑förordningen.

Några centrala krav (översiktligt):

  1. Riskhanteringssystem

Kontinuerlig identifiering, analys och minskning av risker.

  1. Datastyrning och datakvalitet

Krav på relevanta, representativa och icke‑diskriminerande data.

  1. Teknisk dokumentation (bilaga IV)

Detaljerad dokumentation som gör det möjligt för myndigheter att bedöma efterlevnad.

  1. Loggning och spårbarhet

Systemet ska logga händelser så att man kan utreda incidenter.

  1. Transparens och information till användare

Användare ska förstå systemets avsedda syfte, begränsningar och hur det ska användas.

  1. Mänsklig översyn

Systemet ska utformas så att människor kan övervaka och vid behov ingripa.

  1. Robusthet, cybersäkerhet och noggrannhet

Systemet ska tåla rimliga störningar och attacker.

> Nyckelpoäng: Riskklassificeringen är inte bara en etikett – den avgör vilket regelverk som gäller för utveckling, testning, driftsättning och övervakning av AI‑systemet.

Bilaga IV: Inledning till teknisk dokumentation för högrisk‑AI

Bilaga IV specificerar vad den tekniska dokumentationen för ett högrisk‑AI‑system ska innehålla. Syftet är att tillsynsmyndigheter ska kunna:

  • förstå hur systemet fungerar
  • bedöma om kraven i kapitel III är uppfyllda

Några centrala delar (förenklad översikt):

  1. Allmän beskrivning av systemet
  • Avsett syfte och användningsområde
  • Vilken högriskkategori (bilaga III eller sektorslagstiftning) som är relevant
  1. Design och utveckling
  • Systemarkitektur (t.ex. blockdiagram)
  • Använda algoritmer och modeller (t.ex. typ av neuralt nätverk)
  1. Data och datastyrning
  • Beskrivning av tränings‑, validerings‑ och testdata
  • Hur bias och diskriminering har hanterats
  1. Riskhantering
  • Identifierade risker för hälsa, säkerhet och grundläggande rättigheter
  • Åtgärder för att minska dessa risker
  1. Tekniska prestanda och tester
  • Resultat av prestandatester (noggrannhet, robusthet, etc.)
  • Kända begränsningar
  1. Mänsklig översyn och användargränssnitt
  • Hur användare kan övervaka, stoppa eller överstyra systemet

> För en utvecklare innebär bilaga IV i praktiken att man måste ha ordning och reda i hela utvecklingskedjan – från designbeslut och datakällor till testresultat och riskanalyser.

Mini‑övning: Bedöm ditt eget (hypotetiska) AI‑case

Föreställ dig att du leder ett litet utvecklingsteam som bygger ett AI‑system. Välj ett av följande scenarier (eller hitta på ett eget):

  1. Ett AI‑system som hjälper ett universitet att föreslå studieplaner baserat på studenters tidigare kurser (men fattar inga antagningsbeslut).
  2. Ett AI‑system som hjälper en bank att bedöma kreditvärdighet för privatpersoner.
  3. Ett AI‑system som används av en kommun för att prioritera socialtjänstärenden för vidare manuell handläggning.

Gör sedan följande steg:

Steg 1 – Identifiera potentiell högriskkategori

  • Finns det en koppling till:
  • utbildning/antagning?
  • sysselsättning/relationen arbetsgivare–arbetstagare?
  • tillgång till viktiga offentliga eller privata tjänster (t.ex. lån, sociala förmåner)?

Steg 2 – Är det sannolikt högrisk?

  • Om ja: Vilken bilaga III‑kategori är mest relevant?
  • Om nej: Vilka skäl har du att anta att det inte är högrisk?

Steg 3 – Dokumentationskonsekvenser

  • Om du bedömer systemet som högrisk:
  • Vilken typ av information enligt bilaga IV skulle du redan nu behöva börja samla in (t.ex. datakällor, riskanalys, arkitektur)?

Tips: Skriv ner din bedömning i 3–5 meningar. Försök använda begreppen artikel 6, bilaga III och bilaga IV i din text.

Repetition: Nyckelbegrepp om högrisk‑AI

Använd korten för att repetera centrala begrepp från modulen.

Artikel 6 (översiktligt)
Artikeln som anger **när** ett AI‑system klassas som högrisk: (1) som säkerhetskomponent i produkter som omfattas av viss EU‑sektorslagstiftning, eller (2) när det används i områden som listas i bilaga III.
Bilaga III
En lista över **specifika högrisk‑användningsområden**, t.ex. biometrisk identifiering, kritisk infrastruktur, utbildning, sysselsättning, tillgång till viktiga tjänster, brottsbekämpning och rättsväsendet.
Artikel 7
Ger EU‑kommissionen befogenhet att **uppdatera bilaga III** genom delegerade akter, för att fånga upp nya högrisk‑användningar när tekniken utvecklas.
Högrisk‑AI
AI‑system som, p.g.a. sitt användningsområde eller koppling till reglerade produkter, anses innebära **hög risk för hälsa, säkerhet eller grundläggande rättigheter** och därför omfattas av strikta krav i kapitel III.
Bilaga IV
Bilaga som specificerar vad den **tekniska dokumentationen** för ett högrisk‑AI‑system ska innehålla (t.ex. syfte, arkitektur, data, riskhantering, testresultat).
Koppling till kapitel III
När ett AI‑system klassas som högrisk utlöses krav på bl.a. riskhantering, datakvalitet, loggning, transparens, mänsklig översyn och robusthet – dokumenterat enligt bilaga IV.

Key Terms

Bilaga IV
Bilaga som anger vilka delar den tekniska dokumentationen för högrisk‑AI ska innehålla, så att tillsynsmyndigheter kan bedöma om systemet uppfyller kraven i förordningen.
Bilaga III
Del av AI‑förordningen som listar specifika användningsområden där AI automatiskt klassas som högrisk, t.ex. inom biometrisk identifiering, utbildning, sysselsättning, sociala förmåner och rättsväsendet.
Delegerad akt
Rättsakt som antas av EU‑kommissionen med stöd av ett bemyndigande i en förordning eller ett direktiv, t.ex. för att uppdatera bilagor som bilaga III utan att hela lagstiftningsprocessen behöver göras om.
Högrisk‑AI
AI‑system som enligt artikel 6 och bilaga III (eller som säkerhetskomponent i reglerade produkter) anses innebära hög risk för hälsa, säkerhet eller grundläggande rättigheter och därför omfattas av strikta krav i kapitel III.
Säkerhetskomponent
Del av en produkt (i detta sammanhang AI‑system) vars fel eller funktionsstörning kan leda till risker för hälsa eller säkerhet, och som därför regleras särskilt i sektorsspecifik lagstiftning.
Konformitetsbedömning
Formell process för att visa att en produkt eller ett system uppfyller relevanta krav i EU‑lagstiftning (t.ex. innan CE‑märkning), ofta genom tester, dokumentationsgranskning och ibland tredjepartscertifiering.