Chapter 5 of 12
Kapitel III, avsnitt 1–2: Krav på högrisk‑AI (artiklarna 8–15)
Detaljerad genomgång av de horisontella kraven på högrisk‑AI‑system i artiklarna 8–15: riskhantering, data och datastyrning, teknisk dokumentation, loggning, transparens, mänsklig översyn och robusthet/cybersäkerhet.
Överblick: Vad handlar artiklarna 8–15 om?
I detta steg placerar vi artiklarna 8–15 i AI‑förordningens (AI Act) helhet.
Sedan AI‑förordningen formellt trädde i kraft 2024 (och gradvis börjar tillämpas fram till 2026–2027) utgör kapitel III, avsnitt 1–2 kärnan i kraven på högrisk‑AI‑system. Dessa krav är horisontella: de gäller alla högrisk‑system, oavsett sektor (hälsa, utbildning, brottsbekämpning, etc.).
Artiklarna 8–15 i korthet:
- Artikel 8 – Riskhanteringssystem
→ Du måste ha ett kontinuerligt, dokumenterat riskhanteringssystem för hela livscykeln.
- Artikel 9 – Datastyrning och datamängder
→ Krav på relevanta, representativa, korrekta och fullständiga data; god datastyrning.
- Artikel 10 – Datakvalitet och datahantering
→ Mer detaljer om hur data ska insamlas, märkas, hanteras och dokumenteras.
- Artikel 11 – Teknisk dokumentation
→ Systematisk dokumentation enligt bilaga IV som visar att kraven uppfylls.
- Artikel 12 – Loggning (record‑keeping)
→ Systemet ska generera och behålla loggar som möjliggör spårbarhet.
- Artikel 13 – Transparens och användarinformation
→ Användare ska få klar, begriplig information om systemet innan användning.
- Artikel 14 – Mänsklig översyn
→ Det ska finnas konkreta mekanismer för effektiv mänsklig kontroll.
- Artikel 15 – Robusthet, noggrannhet och cybersäkerhet
→ Systemet ska vara säkert, tillförlitligt och motståndskraftigt mot störningar och attacker.
Koppling till tidigare moduler:
- I artiklarna 6–7 har du sett vilka system som är högrisk.
- I artikel 5 såg du vad som är förbjudet oavsett riskklass.
- Artiklarna 8–15 svarar på frågan: "Givet att mitt system är högrisk och inte förbjudet – hur måste det vara utformat och dokumenterat?"
> Målsättning för modulen:
> Efter 15 minuter ska du kunna förklara de huvudsakliga kraven i artiklarna 8–15, och ge exempel på praktiska åtgärder för riskhantering, data, dokumentation, transparens, mänsklig översyn och cybersäkerhet.
Artikel 8: Riskhanteringssystem – struktur och innehåll
Artikel 8 kräver att leverantören av ett högrisk‑AI‑system har ett formellt, dokumenterat och kontinuerligt riskhanteringssystem.
Tänk på det som en cykel (liknar ISO 14971 för medicinteknik eller ISO 31000 för riskhantering):
- Identifiera risker
- Vilka kända och förutsebara risker kan uppstå under hela livscykeln?
- Exempel: diskriminering, felaktiga beslut, säkerhetsincidenter, integritetsintrång.
- Analysera och utvärdera risker
- Bedöm sannolikhet och allvarlighetsgrad.
- Prioritera de mest kritiska riskerna (t.ex. risk för fysisk skada eller allvarlig ekonomisk skada).
- Riskkontrollåtgärder
- Anpassa modell, data, gränssnitt, mänsklig översyn för att minska risker.
- Tillämpa principen ALARP (as low as reasonably practicable) – risker ska minskas så långt det är praktiskt rimligt.
- Utvärdera kvarvarande risk
- Är de återstående riskerna acceptabla i förhållande till fördelarna?
- Om inte: iterera – förbättra designen.
- Övervakning efter utsläppande (post‑market monitoring)
- Samla in data om verklig användning, incidenter och nästan‑incidenter.
- Uppdatera riskanalysen när nya risker upptäcks.
Viktigt:
- Riskhanteringssystemet ska integreras i utvecklingsprocessen – inte göras i efterhand.
- Det ska dokumenteras så att tillsynsmyndigheter kan följa resonemangen.
- Det ska ta hänsyn till både avsedd användning och rimligen förutsebar felanvändning (t.ex. att personal genvägar systemet eller matar in felaktiga data).
Exempel: Riskhanteringssystem för ett antagningssystem till universitet
Föreställ dig ett högrisk‑AI‑system som hjälper ett universitet att rangordna sökande (högrisk enligt bilaga III om utbildnings‑ och antagningssystem).
1. Identifiera risker
- Risk för diskriminering baserat på kön, etnicitet, funktionsnedsättning.
- Risk för felaktiga avslag p.g.a. datainmatningsfel.
- Risk att beslut fattas helt automatiskt utan mänsklig granskning.
2. Analysera och utvärdera
- Diskriminering → hög allvarlighetsgrad, medelhög sannolikhet → hög risk.
- Datainmatningsfel → medel allvarlighetsgrad, hög sannolikhet.
- Helt automatiserat beslutsfattande → hög allvarlighetsgrad.
3. Riskkontrollåtgärder
- Ta bort känsliga attribut (t.ex. etnicitet) från insatsdata, och analysera proxy‑variabler (postnummer, skola).
- Införa datavalidering i användargränssnittet (kontroll av rimliga värden).
- Kräva att alla avslag granskas av en människa innan de blir slutgiltiga.
4. Utvärdera kvarvarande risk
- Testa systemet på historiska data och simulera antagningsomgångar.
- Om vissa grupper fortfarande missgynnas → justera modellen, trösklar eller beslutsregler.
5. Övervakning efter utsläppande
- Följa upp statistik varje antagningsomgång:
- Andelar antagna per grupp.
- Antal överklaganden.
- Uppdatera riskanalysen om mönster av orättvisa eller fel upptäcks.
> Nyckelpoäng: Riskhantering i artikel 8 är inte bara en checklista – det är en levande process som fortsätter efter att systemet tagits i bruk.
Artiklarna 9–10: Datastyrning, datamängder och datakvalitet
För högrisk‑AI är data en central riskfaktor. Artiklarna 9–10 (tillsammans med bilaga IV) specificerar vad som krävs.
1. Datastyrning (governance)
Du behöver processer och regler för hur data:
- samlas in,
- märks (annoteras),
- lagras och skyddas,
- uppdateras och rensas,
- dokumenteras.
Det ska finnas tydliga svar på:
- Var kommer data ifrån? (källor)
- På vilken rättslig grund behandlas de (t.ex. enligt GDPR)?
- Vem ansvarar för datakvalitet och etik?
2. Krav på datamängder
Data ska vara:
- Relevanta för den avsedda funktionen.
- Representativa för de populationer/system där AI:n ska användas.
- Tillräckligt omfattande (volym, variation) för att undvika systematiska fel.
- Korrekta och så fullständiga som möjligt.
För vissa tillämpningar krävs även:
- Bias‑analys: undersökning av skevheter i data.
- Balans mellan olika grupper (t.ex. kön, ålder) där det är relevant för att undvika diskriminering.
3. Datakvalitet och dokumentation (artikel 10)
Du behöver dokumentation som beskriver:
- Förbehandling (normalisering, rensning, anonymisering/pseudonymisering).
- Annoteringsprocesser (vem annoterade, vilka riktlinjer användes).
- Uppdelning i tränings-, validerings- och testdata.
- Kända begränsningar och osäkerheter i data.
> Koppling till riskhantering: Bristande datakvalitet är en identifierad risk som måste hanteras enligt artikel 8.
Reflektionsövning: Identifiera datarisker
Föreställ dig ett högrisk‑AI‑system för ansiktsigenkänning som används för fysiskt tillträde till en säker byggnad.
Fundera kort (skriv gärna ned stödord):
- Vilka datarisker ser du? Tänk på:
- Representativitet (olika hudtoner, åldrar, könsuttryck).
- Datakällor (varifrån kommer ansiktsbilderna?).
- Integritet (samtycke, lagringstid, ändamål).
- Vilka konkreta åtgärder skulle du föreslå för att uppfylla artiklarna 9–10?
- Exempel: hur säkerställer du rätt balans i datamängden?
- Hur dokumenterar du begränsningar (t.ex. sämre prestanda i dåligt ljus)?
> Tips: Försök formulera minst tre åtgärder som kan skrivas in i ett datastyrningsdokument (t.ex. krav på datakällor, annoteringsrutiner, regelbunden bias‑granskning).
Artiklarna 11–12: Teknisk dokumentation och loggning
Artikel 11: Teknisk dokumentation
Teknisk dokumentation är "beviset" på att ditt högrisk‑AI‑system uppfyller AI‑förordningens krav. Den ska följa strukturen i bilaga IV och bland annat innehålla:
- Allmän beskrivning av systemet
- Avsedd användning, användarkategorier, miljö.
- Design och utveckling
- Modellarkitektur, träningsförfarande, hyperparametrar på övergripande nivå.
- Beskrivning av data (se artiklarna 9–10).
- Riskhantering
- Sammanfattning av riskanalys, riskkontrollåtgärder och kvarvarande risk.
- Prestanda
- Mätetal (accuracy, recall, F1, osv.), testresultat, robusthetsanalyser.
- Mänsklig översyn
- Hur användare ska kunna ingripa, stoppa eller åsidosätta systemet.
- Cybersäkerhet
- Åtgärder för att förebygga obehörig åtkomst och manipulation.
Dokumentationen ska vara uppdaterad under hela livscykeln (t.ex. vid modell‑uppdateringar).
Artikel 12: Loggning (record‑keeping)
Högrisk‑AI‑system ska vara utformade så att de automatiskt genererar loggar som gör det möjligt att:
- Spåra viktiga händelser och beslut.
- Utreda incidenter och nästan‑incidenter.
- Visa efterlevnad vid tillsyn.
Exempel på logginnehåll:
- Tidpunkt och version av modellen.
- Vilken användare/klient som initierade en viss förfrågan.
- Centrala indata/utdata (i den mån det är förenligt med GDPR och annan reglering).
- Felmeddelanden, avbrott, override av mänsklig operatör.
> Viktigt: Loggning måste utformas så att den inte bryter mot dataskyddsregler. Ofta behövs pseudonymisering, begränsad lagringstid och tydliga åtkomstkontroller.
Snabbkoll: Dokumentation och loggning
Testa din förståelse av artiklarna 11–12.
Vilket av följande påståenden stämmer bäst med kraven i artiklarna 11–12?
- Teknisk dokumentation behövs bara vid första CE‑märkningen; loggning är frivillig.
- Teknisk dokumentation ska löpande uppdateras och loggning ska möjliggöra spårbarhet av viktiga händelser.
- Loggning ersätter behovet av teknisk dokumentation för högrisk‑AI‑system.
Show Answer
Answer: B) Teknisk dokumentation ska löpande uppdateras och loggning ska möjliggöra spårbarhet av viktiga händelser.
Artikel 11 kräver teknisk dokumentation som hålls uppdaterad under systemets livscykel. Artikel 12 kräver loggning som gör det möjligt att spåra viktiga händelser. De kompletterar varandra; loggning är inte frivillig och ersätter inte dokumentationen.
Artiklarna 13–14: Transparens, användarinformation och mänsklig översyn
Artikel 13: Transparens och användarinformation
För högrisk‑AI räcker det inte att systemet "fungerar" – användare måste förstå hur det ska användas och dess begränsningar.
Minimikrav på information till användare:
- Systemets avsedd användning och begränsningar.
- Vilken prestandanivå man kan förvänta sig (t.ex. noggrannhet, felmarginaler).
- Vilka inmatningsdata som krävs och hur kvaliteten på dessa påverkar resultatet.
- Eventuella kända risker och hur de ska hanteras i praktiken.
- Tydliga instruktioner för tolkning av utdata (t.ex. riskpoäng, klassificeringar).
Informationen ska vara:
- Klar, korrekt, relevant och begriplig för den tilltänkta användaren (inte bara för AI‑experter).
- Tillgänglig i manualer, online‑hjälp, UI‑texter osv.
Artikel 14: Mänsklig översyn
Mänsklig översyn ska vara effektiv, inte symbolisk. Det innebär att:
- Människor ska ha tillräcklig information och träning för att förstå systemets roll och begränsningar.
- De ska kunna ingripa, ändra eller stoppa systemets funktion när det behövs.
- Gränssnittet ska vara utformat för att:
- undvika överdriven tillit (automation bias),
- tydligt visa osäkerhet och konfidensnivåer,
- göra det lätt att överstyra AI‑rekommendationer.
- För vissa särskilt känsliga användningar (t.ex. brottsbekämpning) krävs explicita procedurer för dubbelgranskning, eskalering, dokumentation av mänskliga beslut.
> Koppling till artikel 5: Mänsklig översyn är ett sätt att minska risken för att systemet de facto används på ett sätt som närmar sig förbjudna metoder (t.ex. massövervakning, otillbörlig manipulation).
Designövning: Gör mänsklig översyn verklig
Anta att du designar ett högrisk‑AI‑system som hjälper läkare att prioritera patienter på akuten.
Fundera på följande tre frågor och skriv gärna ned korta svar:
- Gränssnitt:
- Hur kan du presentera AI:ns rekommendation (t.ex. triage‑nivå) så att läkaren inte bara följer den slentrianmässigt?
- Exempel: visa osäkerhet, alternativa förslag, krav på aktiv bekräftelse.
- Överstyrning:
- Vilka knappar/funktioner behövs för att läkaren enkelt ska kunna åsidosätta AI‑förslaget?
- Hur ska detta loggas (för spårbarhet utan att skuldbelägga)?
- Utbildning och rutiner:
- Vilken information och utbildning behöver läkare och sjuksköterskor få om systemets begränsningar?
- Hur dokumenteras protokoll för när man måste avvika från AI‑rekommendationen (t.ex. vid särskilda patientgrupper)?
> Försök formulera minst en konkret åtgärd inom varje punkt (gränssnitt, överstyrning, utbildning) som tydligt stödjer artikel 14.
Artikel 15: Robusthet, noggrannhet och cybersäkerhet
Artikel 15 fokuserar på att högrisk‑AI‑system ska vara tekniskt tillförlitliga i praktiken.
1. Robusthet
Systemet ska:
- Hantera rimliga variationer i indata (t.ex. brus, små fel) utan att kollapsa.
- Vara motståndskraftigt mot fel i komponenter (t.ex. sensorer, nätverksavbrott).
- Ha mekanismer för failsafe eller kontrollerad degradering (hellre inget beslut än ett farligt beslut).
2. Noggrannhet och prestanda
- Du måste definiera prestandakrav (t.ex. minsta acceptabla noggrannhet) för den avsedda användningen.
- Du ska löpande övervaka att systemet håller denna nivå i verklig drift (konceptdrift, ändrad miljö, nya användargrupper).
- Om prestandan faller under tröskeln → åtgärder krävs (uppdatering, begränsning av användning, varning).
3. Cybersäkerhet
Högrisk‑AI‑system är attraktiva mål för attacker. Krav innefattar:
- Skydd mot obehörig åtkomst (autentisering, behörighetsstyrning, kryptering).
- Skydd mot manipulation av data eller modell (t.ex. data poisoning, model tampering).
- Säkra uppdateringsrutiner (signering av modeller, rollback‑möjligheter).
- Hantering av adversarial attacks där angripare manipulerar indata för att lura modellen.
> Praktiskt innebär artikel 15 ofta att man lutar sig mot etablerade informationssäkerhetsstandarder (t.ex. ISO/IEC 27001) och kombinerar dem med AI‑specifik robusthetstestning.
Kunskapscheck: Robusthet och cybersäkerhet
Välj det alternativ som bäst speglar artikel 15.
Vilket påstående är mest förenligt med artikel 15 om robusthet och cybersäkerhet?
- Det räcker att modellen har hög noggrannhet på träningsdata, cybersäkerhet omfattas av annan EU‑lagstiftning.
- Högrisk‑AI‑system ska vara robusta, uppnå specificerade prestandanivåer i verklig användning och skyddas mot cyberangrepp.
- Cybersäkerhet är bara relevant för molnbaserade AI‑system, inte för lokalt installerade.
Show Answer
Answer: B) Högrisk‑AI‑system ska vara robusta, uppnå specificerade prestandanivåer i verklig användning och skyddas mot cyberangrepp.
Artikel 15 ställer krav både på robusthet, på att specificerade prestandanivåer uppnås och upprätthålls, och på att systemet skyddas mot relevanta cyberhot, oavsett om systemet är molnbaserat eller lokalt.
Repetition: Nyckelbegrepp i artiklarna 8–15
Använd korten för att repetera centrala begrepp. Försök först förklara begreppet själv innan du "vänder" kortet i huvudet.
- Riskhanteringssystem (artikel 8)
- Ett dokumenterat, kontinuerligt system för att identifiera, analysera, kontrollera och övervaka risker under hela AI‑systemets livscykel, inklusive uppföljning efter att systemet tagits i bruk.
- Datastyrning (artiklarna 9–10)
- Processer, roller och regler för hur data samlas in, märks, lagras, uppdateras och dokumenteras, så att datamängderna blir relevanta, representativa, korrekta och lagliga.
- Teknisk dokumentation (artikel 11)
- Strukturerad dokumentation (enligt bilaga IV) som beskriver systemets syfte, design, data, riskhantering, prestanda, mänsklig översyn och cybersäkerhet, och visar att kraven i AI‑förordningen uppfylls.
- Loggning / record‑keeping (artikel 12)
- Automatiskt genererade loggar över relevanta händelser och beslut i AI‑systemet som möjliggör spårbarhet, incidentutredning och tillsyn, med hänsyn till dataskyddsregler.
- Transparens och användarinformation (artikel 13)
- Krav på att användare ska få klar, begriplig och korrekt information om systemets avsedda användning, prestanda, indata, risker och begränsningar innan de använder ett högrisk‑AI‑system.
- Mänsklig översyn (artikel 14)
- Organisatoriska och tekniska arrangemang som gör att människor effektivt kan förstå, övervaka, ingripa i och vid behov åsidosätta AI‑systemets funktion, för att förebygga eller minska risker.
- Robusthet och noggrannhet (artikel 15)
- Krav på att systemet fungerar tillförlitligt under rimliga variationer i indata och miljö, uppnår definierade prestandanivåer och har mekanismer för säkert felbeteende och övervakning av prestanda över tid.
- Cybersäkerhet i högrisk‑AI (artikel 15)
- Skydd mot obehörig åtkomst, manipulation av data eller modell, och andra cyberangrepp, inklusive säkra uppdateringsrutiner och hantering av AI‑specifika attacker som data poisoning och adversarial examples.
Key Terms
- Robusthet
- Systemets förmåga att fungera korrekt även vid störningar, variationer i indata eller delvisa fel i komponenter.
- Transparens
- Grad av insyn i hur ett AI‑system fungerar, vilka antaganden det bygger på och hur dess utdata ska tolkas, särskilt ur användarens perspektiv.
- Cybersäkerhet
- Skydd av system, nätverk och data mot digitala angrepp, obehörig åtkomst och manipulation.
- Mänsklig översyn
- Möjligheten för människor att förstå, övervaka och styra ett AI‑system, inklusive att kunna stoppa eller korrigera det.
- Riskhanteringssystem
- Ett formellt, dokumenterat ramverk för att systematiskt identifiera, analysera, kontrollera och följa upp risker kopplade till ett AI‑system under hela dess livscykel.
- Teknisk dokumentation
- Samlad teknisk beskrivning av ett AI‑system (design, data, prestanda, risker, kontroller) som visar efterlevnad av regler och möjliggör tillsyn.
- Högrisk‑AI‑system
- AI‑system som klassificeras som högrisk enligt artiklarna 6–7 och bilaga III i AI‑förordningen, t.ex. system för kritisk infrastruktur, utbildningsantagning, kreditbedömning eller brottsbekämpning.
- AI‑förordningen (AI Act)
- EU‑förordning som antogs 2024 och stegvis börjar gälla fram till omkring 2027; sätter harmoniserade regler för utveckling, utsläppande på marknaden och användning av AI‑system inom EU.
- Loggning / record‑keeping
- Systematisk insamling och lagring av loggar över systemhändelser och beslut för spårbarhet och utredning.
- Datastyrning (data governance)
- Organisatoriska strukturer, processer och policyer som säkerställer att data hanteras korrekt, säkert och i enlighet med lag och etik.