Get the App

Chapter 11 of 12

Kapitel XI–XIII: Ändringar i annan lagstiftning, övergångsbestämmelser och ikraftträdande (artiklarna 108–113)

Avslutande modul som går igenom hur AI‑förordningen ändrar andra EU‑rättsakter, övergångsreglerna i artiklarna 111–112 och artikel 113 om ikraftträdande och tillämpning – inklusive praktisk tidslinje för olika aktörer.

15 min readsv

Översikt: Vad handlar artiklarna 108–113 om?

I de avslutande artiklarna i AI‑förordningen (AI Act, formellt förordning (EU) 2024/1689)

– antagen 2024 och successivt tillämplig 2024–2027 – knyts hela regelverket ihop.

Kapitel XI–XIII (artiklarna 108–113) innehåller:

  • Art. 108–110: Ändringar av annan EU‑lagstiftning
  • t.ex. anpassningar i produktlagstiftning och sektorsregler så att de “pratar samma språk” som AI‑förordningen.
  • Art. 111: Övergångsbestämmelser
  • vad som gäller för AI‑system och GPAI‑modeller som redan finns på marknaden när reglerna börjar gälla.
  • Art. 112: Utvärdering och översyn
  • hur och när EU ska se över om reglerna fungerar, och vid behov ändra dem.
  • Art. 113: Ikraftträdande och successiv tillämpning
  • exakt när olika delar börjar gälla (6–36 månader efter ikraftträdandet) – avgörande för din compliance‑plan.

Den här modulen hjälper dig att:

  1. Förstå hur AI‑förordningen kopplas in i befintlig EU‑rätt.
  2. Se vad övergångsreglerna betyder för befintliga AI‑system och GPAI‑modeller.
  3. Lära dig de viktigaste datumen och tidsfristerna.
  4. Kunna skissa en enkel intern tidsplan för en organisation.

> Tidskontext: Idag är det januari 2026. Flera centrala delar av AI‑förordningen har redan börjat gälla, andra träder i kraft under 2026–2027. Vi fokuserar på hur detta påverkar aktörer nu och under de närmaste åren.

Art. 108–110: Varför ändras annan EU‑lagstiftning?

AI‑förordningen är en horisontell reglering – den gäller brett över många sektorer. För att undvika krockar med redan existerande regler behöver vissa EU‑akter justeras.

Syften med ändringsartiklarna 108–110:

  1. Harmonisering av begrepp
  • Införa eller hänvisa till definitioner som AI‑system, hög risk osv. i andra rättsakter.
  1. Klar ansvarsfördelning
  • Förtydliga hur AI‑förordningen förhåller sig till t.ex. produktlagstiftning (maskiner, medicinteknik, leksaker, fordon) och sektorslagstiftning (t.ex. finans, transport).
  1. Undvika dubbelreglering
  • Om ett AI‑system redan omfattas av särskilda krav i annan EU‑förordning, kan AI‑förordningen peka ut hur dessa krav ska samspela istället för att skapa parallella system.

I praktiken innebär detta att när du läser nyare versioner av andra EU‑förordningar/direktiv (t.ex. inom produktsäkerhet) kommer du att se:

  • Direkta hänvisningar till AI‑förordningen.
  • Anpassade definitioner och hänvisningar till AI‑riskklasser.

> Viktigt: För din framtida yrkesroll betyder det att du ofta måste läsa AI‑förordningen + relevant sektorslagstiftning tillsammans, inte var för sig.

Exempel: Kopplingen till produktlagstiftning

Föreställ dig att du jobbar på ett företag som utvecklar ett AI‑baserat system för industrirobotar.

Före AI‑förordningen:

  • Ni följde t.ex. maskinförordningen (som ersatt det gamla maskindirektivet) för säkerhet och CE‑märkning.
  • AI‑delen sågs mer som “inbyggd mjukvara” utan ett särskilt AI‑regelverk.

Efter AI‑förordningen (med ändringsartiklarna 108–110):

  • AI‑systemet klassas sannolikt som ett hög‑risk AI‑system.
  • Ni måste uppfylla både:
  • kraven i AI‑förordningen (t.ex. riskhanteringssystem, datakvalitet, loggning, mänsklig översyn), och
  • de tekniska säkerhetskraven i maskinförordningen.
  • Genom ändringsartiklarna i AI‑förordningen anpassas maskinförordningens hänvisningar så att det blir tydligt att:
  • CE‑märkningen ska spegla att kraven i båda regelverken är uppfyllda.
  • bedömningen av överensstämmelse kan samordnas (t.ex. via samma anmälda organ).

Poängen:

  • Ändringsartiklarna gör att du slipper två helt separata processer.
  • Men de skärper också kraven: AI‑delen kan inte längre gömmas som “vanlig mjukvara” – den måste uppfylla specifika AI‑krav.

Art. 111: Övergångsregler för befintliga AI‑system och GPAI‑modeller

Art. 111 är central om du redan har AI‑system eller GPAI‑modeller på marknaden.

Grundidé:

  • AI‑förordningen ska inte “stänga ner” redan existerande system över en natt.
  • Men den ger tidsfrister för när även befintliga system måste anpassas.

Förenklat innehåller art. 111 bl.a.:

  1. Förbud mot otillåtna AI‑metoder
  • De AI‑praktiker som är förbjudna enligt kapitel II (t.ex. vissa former av social scoring och manipulativ AI) får inte fortsätta, även om systemen fanns före förordningen började gälla.
  1. Befintliga hög‑risk AI‑system
  • System som redan var på marknaden före de relevanta bestämmelserna börjar tillämpas får en övergångsperiod för att:
  • uppgradera dokumentation,
  • införa loggning,
  • stärka datastyrning och mänsklig översyn.
  1. GPAI‑modeller som redan finns
  • Leverantörer av generella AI‑modeller (GPAI) får också en period att:
  • ta fram teknisk dokumentation,
  • uppfylla transparenskrav (t.ex. träningsdata‑sammanfattningar),
  • vid behov införa riskhanteringsprocesser för modeller med systemisk risk.

> Nyckelpoäng för dig: Art. 111 innebär att man inte kan säga “vårt system är gammalt, så AI‑förordningen gäller inte”. Den gäller – men med viss tidsmässig flexibilitet.

Tillämpning: Vad gäller för ett befintligt AI‑system?

Föreställ dig att du 2023 lanserade ett AI‑baserat rekryteringssystem som:

  • automatiskt rankar kandidater,
  • används av större företag i flera EU‑länder,
  • påverkar vem som kallas till intervju.

Sedan kom AI‑förordningen.

Fundera (utan att behöva skriva kod):

  1. Riskklass:
  • Skulle detta sannolikt vara ett hög‑risk AI‑system? Varför/varför inte?
  1. Övergång:
  • Systemet fanns på marknaden före de relevanta artiklarna började tillämpas.
  • Vilka typer av åtgärder tror du behövs under övergångsperioden?

Exempel: dokumentation, datagranskning, mänsklig översyn, information till kunder.

  1. Stoppa eller anpassa?
  • Skulle du rekommendera att systemet tillfälligt pausas eller fortsätter med en tydlig uppgraderingsplan? Motivera kort för dig själv.

> Tips: Tänk tillbaka på tidigare moduler om hög‑riskkrav (kap. III) och marknadskontroll/tillsyn (kap. VIII–X). De gäller även här – men med en tidsmässig “mjuklandning” genom art. 111.

Art. 112: Utvärdering och framtida översyn

AI‑teknik utvecklas snabbt. Därför innehåller art. 112 regler om utvärdering och översyn av AI‑förordningen.

Huvuddrag i art. 112:

  1. Regelbunden utvärdering
  • EU‑kommissionen ska efter en viss tid (räknat från att reglerna börjat tillämpas) göra en systematisk utvärdering:
  • Fungerar riskbaserade klassificeringen?
  • Är kraven proportionerliga?
  • Hur påverkas innovation, små och medelstora företag, forskning?
  1. Rapportering till EU‑parlamentet och rådet
  • Kommissionen ska rapportera sina slutsatser och vid behov föreslå ändringar.
  1. Möjlighet till uppdatering
  • Nya AI‑tekniker (t.ex. avancerade foundation models, nya användningsområden) kan kräva:
  • justerade bilagor (t.ex. listan över hög‑riskområden),
  • nya eller ändrade tekniska standarder,
  • förtydliganden kring GPAI‑modeller och systemisk risk.

> För dig som student betyder detta: AI‑förordningen är inte statisk. När du kommer ut i arbetslivet kan vissa delar redan ha hunnit revideras. Du behöver därför följa uppdateringar från t.ex. EU‑kommissionen, AI Office och nationella myndigheter.

Art. 113: Ikraftträdande och successiv tillämpning (6–36 månader)

Art. 113 talar om när olika delar av AI‑förordningen börjar gälla. Det är avgörande för att planera en compliance‑roadmap.

Förenklat (översiktlig tidslinje, med avrundade intervall):

  1. Ikraftträdande
  • Förordningen trädde i kraft 2024 (20 dagar efter publicering i EU:s officiella tidning).
  • Från den tidpunkten finns den “på plats” som rättsakt, men allt gäller inte direkt.
  1. Förbud mot vissa AI‑praktiker (ca 6 månader)
  • Förbjudna AI‑metoder (kap. II) började gälla snabbt, ungefär 6 månader efter ikraftträdandet.
  • Detta innebär att aktörer redan 2025 behövde säkerställa att de inte använder otillåtna system.
  1. Styrning och samordning (AI Office m.m.)
  • Strukturer som AI Office och European AI Board aktiveras tidigt så att de kan:
  • ta fram vägledning,
  • samordna tillsyn,
  • stödja standardiseringsarbete.
  1. Hög‑riskkrav (ca 24–36 månader)
  • Kraven för hög‑risk AI‑system (kap. III) träder i kraft senare, ungefär 2–3 år efter ikraftträdandet.
  • Detta ger tid för:
  • utveckling av harmoniserade standarder,
  • uppbyggnad av anmälda organ,
  • anpassning av befintliga system (art. 111).
  1. GPAI‑modeller och system med systemisk risk
  • Transparens‑ och riskhanteringskrav för GPAI‑modeller börjar också gälla stegvis under denna period, med tidigare tillämpning för vissa grundläggande skyldigheter och längre frister för mer avancerade krav.

> Som tumregel (för planering):

> - 0–1 år efter 2024: Förbud mot otillåtna AI‑praktiker + uppbyggnad av styrningsstrukturer.

> - 1–2 år efter 2024: Förberedelser, vägledning, standardisering, första tillsynsaktiviteter.

> - 2–3 år efter 2024: Full tillämpning av de flesta hög‑riskkrav och GPAI‑skyldigheter.

Eftersom det nu är 2026 befinner vi oss mitt i övergångsfasen: vissa krav gäller redan fullt ut, andra håller på att fasas in.

Bygg en enkel compliance‑tidslinje för en organisation

Anta att du är junior jurist eller data scientist på ett medelstort tech‑företag i EU som:

  • utvecklar ett hög‑risk AI‑system (t.ex. för kreditbedömning), och
  • använder en extern GPAI‑modell för vissa funktioner.

Det är januari 2026. Skissa (på papper eller i ett dokument) en enkel tidslinje 2026–2027 med tre kolumner:

  1. Tidpunkt
  • t.ex. Q1 2026, Q3 2026, Q1 2027, Q4 2027.
  1. Regelkrav att fokusera på
  • t.ex.:
  • säkerställa att inga förbjudna AI‑praktiker används,
  • kartlägga om systemet är hög‑risk enligt bilaga III,
  • bygga riskhanteringsprocess och datastyrning,
  • ta fram teknisk dokumentation,
  • säkerställa avtal och informationsflöden kring GPAI‑modellen.
  1. Konkreta interna aktiviteter
  • t.ex.:
  • Q1 2026: intern inventering av alla AI‑system + gap‑analys mot AI‑förordningen.
  • Q2–Q3 2026: designa och implementera loggnings‑ och övervakningsfunktioner.
  • Q4 2026: uppdatera avtal med leverantören av GPAI‑modellen så att transparenskrav uppfylls.
  • Q1–Q3 2027: slutföra konformitetsbedömning och förbereda CE‑märkning.

Reflektera kort:

  • Var skulle du lägga störst fokus under 2026?
  • Vilka delar kräver mest samarbete mellan jurister, ingenjörer och ledning?

> Den här övningen tränar dig i att översätta abstrakta tidsfrister (6–36 månader) till en konkret plan för en faktisk organisation.

Snabbtest: Förstår du tidslinjen och övergången?

Besvara frågan nedan utifrån det du just läst.

Vilket påstående stämmer bäst med art. 113 och övergångsreglerna?

  1. Alla krav i AI‑förordningen gäller fullt ut från och med ikraftträdandet 2024, utan övergångsperiod.
  2. Förbjudna AI‑praktiker börjar gälla tidigt (inom ca 6 månader), medan hög‑riskkraven och många GPAI‑krav fasas in senare (upp till ca 2–3 år).
  3. Endast nya AI‑system som släpps efter 2026 omfattas av AI‑förordningen; äldre system är helt undantagna.
Show Answer

Answer: B) Förbjudna AI‑praktiker börjar gälla tidigt (inom ca 6 månader), medan hög‑riskkraven och många GPAI‑krav fasas in senare (upp till ca 2–3 år).

Alternativ 2 är korrekt. AI‑förordningen har en successiv tillämpning: förbuden mot vissa AI‑praktiker träder i kraft tidigt, medan kraven för hög‑risk AI‑system och GPAI‑modeller får längre införandetid (upp till omkring 2–3 år). Alternativ 1 bortser från övergången, och alternativ 3 stämmer inte eftersom även befintliga system omfattas enligt art. 111.

Repetition av nyckelbegrepp

Använd korten för att repetera centrala begrepp från kapitel XI–XIII.

Ändringsartiklar (art. 108–110)
Artiklar i AI‑förordningen som ändrar andra EU‑förordningar och direktiv för att harmonisera begrepp, ansvar och krav med AI‑regelverket.
Övergångsbestämmelser (art. 111)
Regler som anger hur AI‑förordningen ska tillämpas på AI‑system och GPAI‑modeller som redan finns på marknaden, inklusive tidsfrister för anpassning och krav på att upphöra med förbjudna praktiker.
Utvärdering och översyn (art. 112)
Bestämmelser om att EU‑kommissionen regelbundet ska utvärdera hur AI‑förordningen fungerar och vid behov föreslå ändringar till Europaparlamentet och rådet.
Ikraftträdande vs. tillämpning (art. 113)
Ikraftträdande: när förordningen formellt börjar gälla som rättsakt (2024). Tillämpning: när de olika materiella kraven faktiskt börjar gälla i praktiken, stegvis över ca 6–36 månader.
Compliance‑roadmap
En tidsatt intern plan som visar när och hur en organisation ska uppfylla olika krav i AI‑förordningen, med hänsyn till successiv tillämpning och övergångsbestämmelser.

Key Terms

AI Office
EU‑kommissionens centrala enhet för styrning och samordning av AI‑förordningen, inklusive tillsyn över kraftfulla GPAI‑modeller och stöd till nationella myndigheter.
Tillämpning
Den tidpunkt eller period då konkreta materiella krav i en förordning börjar gälla för aktörer (t.ex. företag, myndigheter). Ofta senare än ikraftträdandet.
Ikraftträdande
Tidpunkten då en rättsakt formellt börjar gälla som lag. Förordningen kan ändå ha senare datum för när vissa krav börjar tillämpas i praktiken.
European AI Board
Ett EU‑omfattande samarbetsorgan för nationella tillsynsmyndigheter och kommissionen, som ska bidra till en enhetlig tillämpning av AI‑förordningen.
Compliance‑roadmap
En plan som beskriver i vilken ordning och inom vilka tidsramar en organisation ska uppfylla olika krav i ett regelverk, här särskilt AI‑förordningen.
Konformitetsbedömning
Processen för att visa att ett AI‑system uppfyller alla relevanta krav i AI‑förordningen och eventuell sektorslagstiftning, ofta med stöd av harmoniserade standarder och eventuellt anmälda organ.
Hög‑risk AI‑system
AI‑system som omfattas av särskilt stränga krav enligt AI‑förordningen, typiskt för att de används i samhällsviktiga eller rättsligt känsliga sammanhang (t.ex. rekrytering, kredit, medicin, kritisk infrastruktur).
Övergångsbestämmelser
Regler som anger hur ett nytt regelverk ska börja gälla över tid, särskilt för redan existerande produkter, system eller avtal.
AI‑förordningen (AI Act)
Förordning (EU) 2024/1689 om harmoniserade regler för artificiell intelligens. Ett direkt tillämpligt EU‑regelverk som inför ett riskbaserat system för AI.
GPAI‑modell (General‑Purpose AI)
Generell AI‑modell som kan användas i många olika sammanhang och applikationer, inklusive som grund för andra AI‑system. Ibland kallad foundation model.