Get the App

Chapter 2 of 12

Kapitel I–II: Syfte, räckvidd och centrala definitioner (artiklarna 1–6)

Fördjupning i kapitel I–II med fokus på artiklarna 1–6: syfte, geografiskt och materiellt tillämpningsområde, undantag och de viktigaste definitionerna som bär upp resten av förordningen.

15 min readsv

Översikt: Varför är artiklarna 1–6 så viktiga?

I den här modulen fördjupar vi oss i kapitel I–II (artiklarna 1–6) i AI‑förordningen (AI Act, förordning (EU) 2024/1689).

De här artiklarna lägger grunden för allt som kommer senare:

  • Artikel 1 – Syfte och mål med förordningen
  • Artikel 2Tillämpningsområde (geografiskt och materiellt)
  • Artikel 3 – Centrala definitioner, bl.a. AI‑system, leverantör, användare (deployer), importör, distributör
  • Artikel 4 – Förhållande till annan EU‑rätt (t.ex. GDPR, sektorslagstiftning)
  • Artikel 5Förbjudna AI‑metoder (översikt – detaljer senare i kursen)
  • Artikel 6Högrisk‑AI och koppling till bilagor och sektorsregler

Sedan 2024, när AI‑förordningen antogs, har den blivit EU:s centrala ramverk för AI, ungefär som GDPR är för personuppgifter. Artiklarna 1–6 svarar på frågorna:

  1. Varför finns förordningen?
  2. Vem och vad omfattas?
  3. Vilka begrepp använder vi i resten av texten?

I den här modulen fokuserar vi på praktisk förståelse: efteråt ska du kunna avgöra om en konkret AI‑användning sannolikt omfattas av förordningen och vilka roller som är inblandade.

Artikel 1 – Syfte: Vad försöker AI‑förordningen uppnå?

Artikel 1 anger syftet med AI‑förordningen. Förenklat kan man säga att den har fyra huvudmål:

  1. Skydda grundläggande rättigheter och säkerhet

– t.ex. skydd mot diskriminering, integritetskränkningar, manipulativa tekniker.

  1. Säkerställa att AI är säker och tillförlitlig

– särskilt för högrisk‑AI, som används i känsliga områden (t.ex. rekrytering, hälso‑ och sjukvård, kritisk infrastruktur).

  1. Främja innovation och en inre marknad för AI

– gemensamma regler i hela EU, så att företag slipper 27 olika nationella system.

  1. Skapa tydlighet om ansvar

– vem ansvarar för vad: leverantör, användare (deployer), importör, distributör, tillhandahållare av GPAI‑modeller osv.

Att koppla till praktik:

När du senare tolkar en konkret situation (t.ex. ett AI‑verktyg för att screena CV:n) kan du alltid fråga dig:

> Hotar eller påverkar detta system grundläggande rättigheter eller säkerhet?

> Om ja – då är AI‑förordningen med stor sannolikhet relevant.

Artikel 2 – Tillämpningsområde: Vem och vad omfattas?

Artikel 2 beskriver räckvidden – både geografiskt och materiellt.

1. Geografiskt (territoriellt) tillämpningsområde

AI‑förordningen har en extraterritoriell effekt, liknande GDPR. Den gäller:

  • Aktörer etablerade i EU som utvecklar, tillhandahåller eller använder AI‑system eller GPAI‑modeller.
  • Aktörer utanför EU om deras AI‑system används i EU eller deras GPAI‑modell görs tillgänglig i EU.

> Exempel: Ett amerikanskt företag som säljer en AI‑rekryteringstjänst till svenska arbetsgivare omfattas av AI‑förordningen, även om företaget inte har kontor i EU.

2. Materiellt tillämpningsområde

Förordningen gäller i princip för:

  • Alla AI‑system som definieras i artikel 3 (mer om det strax)
  • GPAI‑modeller (General Purpose AI) – t.ex. stora språkmodeller, bildgenereringsmodeller
  • GPAI‑modeller med systemrisk – modeller som p.g.a. sin omfattning och kapacitet kan skapa risker på samhällsnivå

3. Centrala undantag (översikt)

Vissa användningar faller utanför förordningens tillämpningsområde, t.ex.:

  • Vissa rent militära eller försvarsrelaterade användningar (hanteras av annan rätt)
  • Viss forskning och utveckling på rena forskningsstadiet, innan systemet sätts på marknaden eller tas i bruk (dock kan annan lagstiftning, t.ex. etikprövning, fortfarande gälla)

I senare steg tränar vi på att avgöra om en konkret användning troligen omfattas eller är undantagen.

Exempel: Faller dessa situationer inom tillämpningsområdet?

Nedan följer tre korta scenarier. För varje: Resonera själv om de sannolikt omfattas av AI‑förordningen.

---

Scenario A – Svensk kommun och chatbot

En svensk kommun använder en molnbaserad AI‑chatbot (utvecklad i USA) för att svara på medborgarnas frågor om socialtjänst.

  • AI‑system? Ja, en chatbot som bearbetar naturligt språk.
  • Används i EU? Ja, av en svensk kommun.

➡️ Troligen inom tillämpningsområdet.

---

Scenario B – Ren forskningsprototyp

En forskargrupp vid ett universitet i Tyskland tränar en ny bildigenkänningsmodell i labbmiljö. Modellen används inte utanför forskningsprojektet och tillhandahålls inte på marknaden.

  • AI‑modell? Ja.
  • Men: ren forskning och utveckling, inte tillhandahållen eller använd i praktiken utanför forskningsmiljön.

➡️ Delvis undantaget från AI‑förordningen, men andra regler (etikprövning, datasäkerhet) kan gälla.

---

Scenario C – Militärt spaningssystem

Ett försvarsföretag utvecklar ett AI‑baserat system för att analysera drönarbilder åt ett EU‑lands försvarsmakt i en ren militär kontext.

  • AI‑system? Ja.
  • Men: militärt ändamål som typiskt faller utanför AI‑förordningens civila fokus.

➡️ Normalt undantaget från AI‑förordningen (hanteras av särskild försvars‑ och säkerhetslagstiftning).

Fundera:

Vilka ytterligare fakta skulle du vilja veta för att göra en ännu säkrare bedömning i varje scenario?

Artikel 3 – Nyckeldefinitioner: AI‑system, aktörer och GPAI

Artikel 3 innehåller ett helt batteri av definitioner. Här fokuserar vi på de som är centrala för resten av kursen.

1. AI‑system

AI‑förordningen använder en bred, teknikneutral definition. Förenklat:

> Ett AI‑system är ett maskinbaserat system som, för en given uppsättning mänskligt definierade mål, kan generera output (t.ex. förutsägelser, rekommendationer, beslut, innehåll) genom att använda inlärning, logik eller statistiska metoder, och som kan påverka fysiska eller virtuella miljöer.

Viktigt:

  • Det räcker att systemet bearbetar data på ett icke‑trivialt sätt (t.ex. maskininlärning, djupinlärning, vissa regelbaserade system).
  • Output kan vara text, bild, ljud, poäng, klassificering, beslut osv.

2. Aktörerna i värdekedjan

Några centrala roller:

  • Leverantör (provider):

Den som utvecklar ett AI‑system eller en GPAI‑modell och tillhandahåller den på marknaden eller i drift under eget namn/varumärke.

> Exempel: Företag som utvecklar och säljer en AI‑baserad rekryteringsplattform.

  • Användare (deployer):

Den som använder ett AI‑system i sin egen verksamhet (inte för personlig, privat användning).

> Exempel: En bank som använder ett kreditbedömningssystem utvecklat av ett annat företag.

  • Importör:

En aktör i EU som importerar ett AI‑system eller en GPAI‑modell från ett tredjeland för att släppa ut det på EU‑marknaden.

  • Distributör:

Den som tillhandahåller ett AI‑system på marknaden utan att vara leverantör eller importör (t.ex. återförsäljare, plattformar som vidareförsäljer systemet).

3. GPAI‑modeller och GPAI‑modeller med systemrisk

  • GPAI‑modell (General Purpose AI):

En AI‑modell som kan användas för många olika ändamål, både allmänna och specialiserade.

> Exempel: En stor språkmodell som kan användas för textgenerering, översättning, kod, kundtjänst m.m.

  • GPAI‑modell med systemrisk:

En GPAI‑modell vars skala, kapacitet och spridning innebär att den kan skapa risker på samhällsnivå (t.ex. allvarlig desinformation, sårbarhet i kritisk infrastruktur, bred påverkan på arbetsmarknaden).

Dessa modeller får särskilda krav i AI‑förordningen (t.ex. riskhantering, säkerhetstester, informationsdelning).

I senare delar av kursen går vi djupare in på vilka skyldigheter som följer för respektive roll.

Identifiera roll och typ: kort övning

Läs varje miniscenario och skriv (för dig själv eller i anteckningar):

  1. Är det ett AI‑system eller en GPAI‑modell (eller båda)?
  2. Vem är leverantör och vem är användare (deployer)?

---

Scenario 1 – Språkmodell som tjänst

Företag A utvecklar en stor språkmodell och erbjuder den via API. Företag B använder API:et för att bygga en kundtjänstchatbot.

  • Frågor:

– Är språkmodellen ett AI‑system, en GPAI‑modell eller båda?

– Är Företag A leverantör, användare eller båda?

– Är Företag B leverantör, användare eller båda?

Tänk på:

Företag B kan i sin tur bli leverantör av en specifik chatbotlösning till sina kunder, samtidigt som B är användare av A:s GPAI‑modell.

---

Scenario 2 – Inbäddad AI i HR‑system

Ett HR‑system innehåller en modul som automatiskt rankar kandidater baserat på CV och ansökningar. HR‑systemet köps in från en extern leverantör och används av ett svenskt företag.

  • Frågor:

– Är modulen ett AI‑system enligt artikel 3?

– Vilken roll har systemleverantören?

– Vilken roll har det svenska företaget som använder systemet?

Reflektera:

Hur skulle du förklara dessa roller för en chef som inte är jurist, men som behöver förstå sitt ansvar?

Artikel 5 – Förbjudna AI‑metoder: Bron från syfte till förbud

Artikel 5 listar vissa AI‑praxis som är helt förbjudna inom EU. Vi går inte in på alla detaljer här (det kommer i en senare modul), men du behöver se kopplingen till artiklarna 1–3.

Exempel på förbjudna metoder (förenklat):

  • Manipulativa tekniker som allvarligt snedvrider en persons beteende på ett sätt som kan orsaka skada (t.ex. utnyttja sårbarheter hos barn eller personer med funktionsnedsättning).
  • Viss form av social poängsättning av individer av offentliga myndigheter, baserat på deras beteende eller personliga egenskaper.
  • Viss form av biometrisk fjärridentifiering i realtid i offentligt tillgängliga utrymmen för brottsbekämpning, med endast mycket snäva undantag.

Varför är detta viktigt i kapitel I–II?

  • Artikel 1 (syfte) betonar skydd av grundläggande rättigheter.
  • Artikel 3 definierar vad ett AI‑system är.
  • Artikel 5 säger: vissa typer av AI‑system (eller användningar) är så riskfyllda att de inte får användas alls.

När du bedömer ett konkret system är ett första steg alltid:

> Hamnar detta ens i närheten av de förbjudna kategorierna i artikel 5?

> Om ja – då är det stopp, inte bara extra krav.

Artikel 6 – Högrisk‑AI och kopplingen till bilagor

Artikel 6 är central eftersom den definierar vad som är högrisk‑AI. Högrisk‑AI är inte förbjuden, men omfattas av stränga krav.

Förenklat finns två huvudvägar till att ett system blir högrisk:

  1. AI‑system som är säkerhetskomponenter i produkter som redan regleras av viss EU‑sektorslagstiftning

– T.ex. medicintekniska produkter, leksaker, maskiner, fordon.

– Dessa listas i en bilaga till förordningen (bilaga I).

  1. AI‑system som används i särskilt känsliga användningsområden

– T.ex. rekrytering, utbildningsantagning, kreditbedömning, tillgång till sociala förmåner, brottsbekämpning, migrationskontroll.

– Dessa kategorier specificeras i en annan bilaga (bilaga III), som kan uppdateras över tid.

Artikel 6 fungerar alltså som en brygga:

  • Från allmänna definitioner (artikel 3)
  • Till riskbaserad reglering (högrisk vs. annan AI)

I praktiken innebär det att när du ser ett AI‑system i t.ex. rekrytering eller kreditbedömning bör du direkt tänka:

> Detta är sannolikt ett högrisk‑AI‑system enligt artikel 6 och bilaga III – särskilda krav gäller för både leverantör och användare.

Snabbtest: AI‑system, GPAI eller högrisk?

Besvara frågan nedan genom att välja det mest korrekta alternativet.

Ett företag utvecklar en stor språkmodell som kan skriva texter, översätta, generera kod och sammanfatta dokument. Modellen säljs via API till olika kunder i EU, som använder den för många olika ändamål. Hur klassificeras modellen enligt AI‑förordningen?

  1. Som ett vanligt AI‑system utan särskild kategori
  2. Som en GPAI‑modell (General Purpose AI), och den kan beroende på kapacitet klassas som GPAI‑modell med systemrisk
  3. Som ett högrisk‑AI‑system enligt artikel 6, oavsett användning
Show Answer

Answer: B) Som en GPAI‑modell (General Purpose AI), och den kan beroende på kapacitet klassas som GPAI‑modell med systemrisk

Modellen är typiskt en GPAI‑modell eftersom den kan användas för många olika ändamål. Beroende på dess skala och kapacitet kan den dessutom bedömas som en GPAI‑modell med systemrisk. Högrisk enligt artikel 6 beror däremot på specifika användningsområden (t.ex. rekrytering, kreditbedömning), inte på att modellen i sig är kraftfull.

Repetition: centrala begrepp

Använd korten för att repetera de viktigaste definitionerna från artiklarna 1–6.

AI‑system (artikel 3)
Ett maskinbaserat system som, för mänskligt definierade mål, genererar output (t.ex. förutsägelser, rekommendationer, beslut, innehåll) genom inlärning, logik eller statistiska metoder, och som kan påverka fysiska eller virtuella miljöer.
Leverantör (provider)
En fysisk eller juridisk person som utvecklar ett AI‑system eller en GPAI‑modell eller låter utveckla det, och tillhandahåller det på marknaden eller i drift under eget namn eller varumärke.
Användare (deployer)
En fysisk eller juridisk person, myndighet eller annat organ som använder ett AI‑system i sin egen verksamhet (ej ren privat användning).
Importör
En aktör etablerad i EU som släpper ut ett AI‑system eller en GPAI‑modell från ett tredjeland på EU‑marknaden.
Distributör
En aktör i leveranskedjan, annan än leverantör eller importör, som tillhandahåller ett AI‑system på marknaden.
GPAI‑modell
En allmän AI‑modell som kan användas för många olika ändamål, både allmänna och specialiserade, t.ex. stora språkmodeller eller generativa bildmodeller.
GPAI‑modell med systemrisk
En GPAI‑modell vars skala, kapacitet och spridning innebär att den kan skapa risker på samhällsnivå, vilket utlöser särskilda skyldigheter enligt AI‑förordningen.
Högrisk‑AI (artikel 6)
AI‑system som antingen är säkerhetskomponenter i produkter som redan omfattas av viss EU‑sektorslagstiftning, eller som används i särskilt känsliga användningsområden enligt bilaga III (t.ex. rekrytering, kreditbedömning, tillgång till sociala förmåner).
Territoriell räckvidd
AI‑förordningen gäller både för aktörer etablerade i EU och för aktörer utanför EU vars AI‑system eller GPAI‑modeller används eller görs tillgängliga i EU, liknande GDPR:s extraterritoriella effekt.

Tillämpningsövning: Omfattas eller undantas?

Avsluta med att själv bedöma tre korta fall. För varje: skriv ned (kort): omfattas eller undantagen/oklar, och motivera med hänvisning till artiklarna 1–3, 5–6.

---

Fall 1 – Studentens personliga AI‑assistent

En student i Sverige använder en gratis AI‑app på sin mobil för att sammanfatta föreläsningsanteckningar och föreslå pluggscheman. Appen är utvecklad i ett land utanför EU.

  • Är detta användning som deployer eller privat bruk?
  • Är leverantören ändå bunden av AI‑förordningen eftersom appen används i EU?

---

Fall 2 – AI‑baserad kreditbedömning

En bank i Spanien använder ett AI‑system för att automatiskt bedöma låneansökningar.

  • Är detta ett högrisk‑AI‑system enligt artikel 6 och bilaga III?
  • Vilken roll har banken och vilken roll har systemutvecklaren?

---

Fall 3 – Social poängsättning i kommun

En kommun funderar på att införa ett system som ger medborgare poäng baserat på deras beteende (t.ex. betalning av avgifter i tid, deltagande i samhällsaktiviteter) och använda poängen för att prioritera tillgång till vissa tjänster.

  • Kan detta ligga nära de förbjudna metoderna i artikel 5 om social poängsättning?
  • Vad skulle du råda kommunen att undersöka juridiskt innan de går vidare?

Reflektera:

Hur skulle du använda artiklarna 1–6 som checklista när du stöter på ett nytt AI‑projekt i praktiken?

Key Terms

Importör
Aktör etablerad i EU som släpper ut ett AI‑system eller en GPAI‑modell från ett tredjeland på EU‑marknaden.
Bilaga III
Bilaga till AI‑förordningen som listar användningsområden där AI‑system typiskt anses vara högrisk, t.ex. anställning, utbildning, kreditbedömning och tillgång till sociala förmåner.
AI‑system
Maskinbaserat system som, för mänskligt definierade mål, genererar output (t.ex. förutsägelser, rekommendationer, beslut, innehåll) genom inlärning, logik eller statistiska metoder och kan påverka fysiska eller virtuella miljöer.
Distributör
Aktör i leveranskedjan, annan än leverantör eller importör, som tillhandahåller ett AI‑system på marknaden.
Högrisk‑AI
AI‑system som enligt artikel 6 och relevanta bilagor antingen är säkerhetskomponenter i produkter som omfattas av viss EU‑sektorslagstiftning eller används i särskilt känsliga användningsområden (t.ex. rekrytering, kreditbedömning, sociala förmåner).
Användare (deployer)
Aktör (ej ren privatperson i privat bruk) som använder ett AI‑system i sin egen verksamhet.
Leverantör (provider)
Aktör som utvecklar eller låter utveckla ett AI‑system eller en GPAI‑modell och tillhandahåller den på marknaden eller i drift under eget namn eller varumärke.
Territoriell räckvidd
Reglerar i vilka geografiska och jurisdiktionella situationer AI‑förordningen gäller; den omfattar även aktörer utanför EU vars AI‑system eller GPAI‑modeller används eller görs tillgängliga i EU.
Förbjudna AI‑metoder
Typer av AI‑användning som artikel 5 förbjuder helt, t.ex. viss manipulativ teknik, social poängsättning av offentliga myndigheter och vissa former av biometrisk fjärridentifiering i realtid.
GPAI‑modell med systemrisk
GPAI‑modell vars skala, kapacitet och spridning innebär att den kan skapa risker på samhällsnivå och därför omfattas av särskilda krav.
GPAI‑modell (General Purpose AI)
Allmän AI‑modell som kan användas för många olika ändamål, både allmänna och specialiserade.