Chapter 8 of 12
Kapitel V: Transparens, informationskrav och särskilda regler för vissa AI‑system (artiklarna 52–55 m.fl.)
Genomgång av transparenskrav för vissa AI‑system, t.ex. AI som interagerar med människor, emotionell igenkänning, biometrisk kategorisering och deepfakes, inklusive krav på märkning och information till användare.
Översikt: Vad handlar kapitel V om?
I kapitel V i AI‑förordningen (AI Act) finns särskilda transparens‑ och informationskrav för vissa AI‑system som inte nödvändigtvis är högrisk men ändå kan påverka människors autonomi, integritet och informationsmiljö.
Fokus i detta kapitel (artiklarna 52–55 m.fl.) är bl.a.:
- AI‑system som interagerar direkt med människor
- AI som används för emotionell igenkänning
- AI för biometrisk kategorisering (ej att förväxla med biometrisk identifiering i högrisk‑delen)
- AI som genererar eller manipulerar innehåll, t.ex. deepfakes och annat syntetiskt innehåll
Nyckelidé:
> Även om ett AI‑system inte är klassat som högrisk kan du ändå ha tydliga informations‑ och märkningskrav – framför allt när människor annars riskerar att bli vilseledda.
Sedan AI‑förordningen antogs 2024 (och successivt börjar tillämpas fram till 2026–2027) är dessa krav direkt bindande i alla EU‑länder. Tidigare fanns bara spridda regler i t.ex. konsument‑ och dataskyddsrätt; nu finns ett samlat transparenskapitel.
I den här modulen fokuserar vi på artikel 52 (kärnan i transparenskraven) och hur du praktiskt kan uppfylla dem i en verksamhet.
Artikel 52 i fyra delar: När gäller transparenskraven?
Artikel 52 kan delas upp i fyra huvudkategorier av AI‑system med särskilda transparenskrav:
- AI‑system som interagerar med fysiska personer
– t.ex. chattbotar, röstassistenter, kundtjänstrobotar.
- AI‑system för emotionell igenkänning
– system som bedömer eller förutsäger en persons känslotillstånd (arg, glad, stressad osv.).
- AI‑system för biometrisk kategorisering
– system som med hjälp av biometriska data (t.ex. ansikte, röst, gångstil) sorterar in personer i kategorier (t.ex. ålder, kön, etnicitetsantydan, livsstil).
- AI‑system som genererar eller manipulerar innehåll
– t.ex. bild‑, video‑, ljud‑ och textgenerering där innehållet ser "äkta" ut men är helt eller delvis syntetiskt (deepfakes, AI‑genererade nyhetsbilder, syntetiska röster).
För varje kategori finns specifika informationskrav, men logiken är densamma:
> Den som exponeras för AI‑systemet ska inte vilseledas om att det är AI, eller om att innehållet är syntetiskt/manipulerat.
I resten av modulen går vi igenom dessa fyra kategorier steg för steg, med fokus på praktisk tillämpning i en verksamhet.
AI som interagerar med människor: krav på upplysning
Vad säger artikel 52 om AI‑interaktion?
När en fysisk person interagerar med ett AI‑system (t.ex. chat, röst, avatar) ska personen informeras om att det är AI – om det inte redan är uppenbart utifrån sammanhanget.
Detta gäller särskilt:
- Kundtjänstchattar på webbplatser
- Röstassistenter i appar eller telefonitjänster
- Virtuella agenter/avatars i spel, utbildning eller support
Praktiska exempel
- Kundtjänstchatt på en e‑handelswebbplats
- Före AI Act: Många chattbotar presenterades bara som "Chatta med oss" utan tydlig info.
- Nu: Du behöver en tydlig markering, t.ex.:
- En etikett: "AI‑assistent" bredvid chattikonen
- En inledande rad i chatten:
> "Du chattar nu med en AI‑assistent. Skriv 'människa' om du vill prata med en medarbetare."
- Röstassistent i en bankapp
- Appen låter dig ställa frågor om kontosaldo och lån.
- Krav: I början av samtalet eller tydligt i gränssnittet ska det framgå t.ex.:
> "Den här tjänsten använder en AI‑baserad röstassistent."
- Virtuell studiecoach i en universitetsapp
- En avatar ger råd om studieteknik.
- Krav: Studenterna ska veta att det är AI och inte en mänsklig studievägledare.
Vad räknas som "uppenbart"?
Om användaren rimligen inte kan tro att det är en människa, kan informationen anses uppenbar. Exempel:
- En tydligt tecknad robotfigur med etiketten "AI‑bot" som svarar på frågor.
Men i praktiken är det oftast säkrare att informera uttryckligen, särskilt i seriösa sammanhang (bank, vård, utbildning).
Övning: Är det tydligt att det är AI?
Fundera på följande tre scenarier och avgör om du skulle behöva ytterligare information till användaren enligt artikel 52.
- Scenario A – Webbchatt
På en myndighetswebbplats finns en chattruta längst ner: "Fråga oss". En pratbubbla visar en bild på en leende person, och svaren genereras av AI. Ingen text säger att det är en bot.
- Fråga: Är det sannolikt uppenbart för besökaren att detta är AI?
- Vad skulle du lägga till för att uppfylla transparenskravet?
- Scenario B – Spelavatar
I ett datorspel pratar du med en tecknad drake som använder AI‑genererade svar.
- Fråga: Behöver du särskilt informera om att det är AI, eller är det uppenbart?
- Skulle svaret ändras om spelet används i utbildningssyfte (t.ex. i skolan)?
- Scenario C – Telefonväxel
Du ringer din vårdcentral. En naturligt klingande röst säger: "Berätta kort varför du ringer". Det är ett AI‑system som styr vidarekoppling.
- Fråga: Hur bör vårdcentralen formulera en kort mening i början av samtalet för att uppfylla artikel 52?
> Uppgift: Skriv ner 1–2 meningar som du själv skulle använda i Scenario A och C för att informera användaren på ett tydligt men inte skrämmande sätt.
Emotionell igenkänning & biometrisk kategorisering: extra känsligt
Artikel 52 ställer särskilda krav för två typer av AI som använder biometriska eller beteendedata:
- Emotionell igenkänning
AI som försöker bedöma en persons känslor utifrån t.ex. ansiktsuttryck, röstläge, puls, kroppsspråk.
- Biometrisk kategorisering
AI som med hjälp av biometriska uppgifter (ansikte, röst, gångstil, iris m.m.) placerar en person i vissa kategorier – t.ex. ålder, kön, etnicitetsantydan, hälsotillstånd eller andra egenskaper.
> Viktigt: Detta är inte samma sak som biometrisk identifiering (att känna igen vem någon är). Biometrisk identifiering är ofta högrisk och regleras i andra artiklar.
Informationskrav enligt artikel 52
När sådana system används ska den berörda personen informeras om:
- att ett system för emotionell igenkänning används, eller
- att ett system för biometrisk kategorisering används.
Detta gäller t.ex. i:
- Arbetslivet – AI som försöker mäta medarbetares stressnivå via kamera
- Utbildning – system som påstår sig mäta studenters engagemang via ansiktsuttryck
- Marknadsföring – digitala skyltar som anpassar reklam efter tolkad ålder/kön
Begränsningar och andra regler
- I vissa situationer kan sådan användning vara helt förbjuden eller klassas som högrisk (t.ex. i arbetslivet eller utbildning, beroende på syfte och kontext). Då gäller både dessa transparenskrav och de strängare reglerna.
- EU‑lagstiftaren har varit mycket kritisk mot pseudovetenskaplig användning av emotionell igenkänning, särskilt för att dra långtgående slutsatser om personlighet, pålitlighet eller politiska åsikter.
Men även när användningen är laglig gäller:
> Personen ska veta att deras känslor eller biometriska egenskaper analyseras av AI.
Deepfakes och syntetiskt innehåll: hur ska det märkas?
Artikel 52 innehåller också tydliga krav på märkning av AI‑genererat eller manipulerat innehåll, särskilt när det kan förväxlas med verkligt material.
Vad omfattas?
- AI‑genererade bilder (t.ex. "foton" på personer som inte finns)
- AI‑manipulerade videor (deepfake‑videor där en persons ansikte eller röst byts ut)
- AI‑syntetiskt ljud (t.ex. en röstklon som låter som en känd person)
- I vissa fall även text (t.ex. AI‑genererade nyhetsartiklar som ser ut som redaktionellt material)
Grundregel
> Om innehållet är syntetiskt eller väsentligen manipulerat och kan uppfattas som äkta, ska det finnas tydlig märkning så att mottagaren förstår att det är AI‑genererat/manipulerat.
Exempel på praktisk märkning
- Nyhetsredaktion använder AI‑genererade bilder
- Bildtext:
> "Denna bild är AI‑genererad."
- Metadata i filen: taggar som anger `ai_generated=true`.
- Dokumentärfilm använder rekonstruktionsscener
- Tydlig text i bild:
> "Rekonstruktion skapad med AI."
- I eftertexterna: förklaring av var AI‑bilder används.
- Satirisk deepfake‑video på sociala medier
- I videons titel eller början:
> "Satirisk deepfake, skapad med AI."
Undantag och balans mot yttrandefrihet
AI‑förordningen försöker balansera mot:
- Yttrandefrihet och mediefrihet – journalistik, konst, satir och parodi skyddas.
- Bekämpning av desinformation – särskilt politiska deepfakes som kan vilseleda väljare.
Därför finns vissa undantag och flexibilitet, t.ex. för:
- Konstnärliga uttryck och satir, så länge det inte leder till allvarlig vilseledning.
- Journalistiska syften, där märkningen kan anpassas så att den inte förstör berättargreppet men ändå är tydlig för publiken.
I praktiken rekommenderas redaktioner och plattformar att ta fram egna riktlinjer för hur AI‑innehåll märks, med stöd i artikel 52.
Checklista: Gäller artikel 52 för mitt AI‑system?
Använd följande förenklade checklista för ett AI‑system i din (tänkta) verksamhet.
Svara ja/nej på varje fråga:
- Interaktion
- Kommunicerar systemet direkt med människor (text, röst, avatar)?
- Om ja: Vet användaren tydligt att det är AI?
- Emotionell igenkänning
- Försöker systemet tolka eller förutsäga känslor (t.ex. stress, glädje, irritation)?
- Om ja: Får de berörda personerna veta att detta sker?
- Biometrisk kategorisering
- Använder systemet ansikte, röst eller annan biometrisk data för att kategorisera personer (ålder, kön osv.)?
- Om ja: Är de berörda informerade om detta, och är användningen över huvud taget tillåten i den kontexten?
- Syntetiskt/manipulerat innehåll
- Skapar eller ändrar systemet innehåll (bild, ljud, video, text) så att det ser äkta ut?
- Om ja: Är innehållet tydligt märkt som AI‑genererat/manipulerat för mottagaren?
> Uppgift: Välj ett konkret AI‑exempel (t.ex. en chattbot, en bildgenerator, ett analysverktyg) och gå igenom checklistan. Markera var du behöver lägga till information eller märkning för att uppfylla artikel 52.
Snabbtest: När måste användaren informeras?
Besvara frågan nedan för att testa din förståelse av artikel 52.
Ett företag använder en AI‑baserad chattbot på sin webbplats för kundsupport. Botten har ett mänskligt namn och profilbild, och det framgår inte någonstans att det är AI. Vilket påstående stämmer bäst med artikel 52?
- Det är okej, eftersom många ändå förstår att det är en bot – ingen extra information krävs.
- Företaget måste tydligt informera användaren om att det är en AI‑assistent, om det inte redan är uppenbart.
- Transparenskraven gäller bara för högrisk‑AI, så artikel 52 är inte relevant här.
Show Answer
Answer: B) Företaget måste tydligt informera användaren om att det är en AI‑assistent, om det inte redan är uppenbart.
Artikel 52 kräver att fysiska personer informeras när de interagerar med ett AI‑system, om det inte redan är uppenbart. Här är det inte uppenbart (mänskligt namn och bild), så företaget behöver tydlig information, t.ex. "Du chattar med en AI‑assistent".
Praktik: Enkla textsnuttar för att uppfylla transparenskrav
Nedan finns exempel på texter du kan använda i olika gränssnitt för att uppfylla artikel 52. Anpassa språket till din målgrupp.
```text
[Chattbot på webbplats]
Titel på widget: "AI‑assistent"
Första meddelandet:
"Hej! Jag är en AI‑assistent som hjälper dig att hitta rätt information. Skriv 'människa' om du vill prata med en medarbetare."
[Telefonisystem]
"Välkommen till Vårdcentralen Solrosen. Vi använder ett AI‑baserat system för att förstå varför du ringer och koppla dig rätt. Beskriv kort ditt ärende efter tonen."
[AI‑genererad bild i rapport]
Bildtext:
"Figur 3. Illustration av framtida stadsbild. Bilden är AI‑genererad."
[Deepfake‑liknande rekonstruktion i utbildningsvideo]
Text i början av videon:
"Vissa scener i denna video är rekonstruktioner skapade med AI‑teknik för pedagogiska syften."
[Emotionell igenkänning i pilotprojekt]
Information till deltagare:
"Under denna studie används ett AI‑system som analyserar ansiktsuttryck för att uppskatta ditt engagemang under föreläsningen. Du kan när som helst avbryta ditt deltagande."
```
Repetition: centrala begrepp i kapitel V
Använd korten för att repetera de viktigaste begreppen kopplade till artikel 52 och kapitel V.
- Artikel 52 (AI‑förordningen)
- Artikel som innehåller särskilda transparens‑ och informationskrav för vissa AI‑system, bl.a. AI som interagerar med människor, emotionell igenkänning, biometrisk kategorisering och AI‑genererat/manipulerat innehåll (t.ex. deepfakes).
- AI‑system som interagerar med människor
- System där en fysisk person kommunicerar direkt med AI (t.ex. chattbot, röstassistent). Personen ska informeras om att det är AI, om det inte redan är uppenbart.
- Emotionell igenkänning
- AI‑funktion som syftar till att identifiera eller förutsäga en persons känslotillstånd (t.ex. glad, arg, stressad) utifrån data som ansiktsuttryck, röst eller kroppsspråk. Kräver tydlig information till den berörda personen.
- Biometrisk kategorisering
- Användning av biometriska uppgifter (t.ex. ansikte, röst) för att kategorisera personer i grupper (t.ex. ålder, kön). Skiljer sig från biometrisk identifiering. Kräver information till de berörda och kan i vissa fall vara förbjuden eller högrisk.
- Deepfake
- AI‑genererat eller AI‑manipulerat ljud, bild eller video som får det att se ut som att någon sagt eller gjort något som aldrig hänt. Måste märkas tydligt som AI‑genererat/manipulerat när det annars kan uppfattas som äkta.
- Transparenskrav
- Krav på att användare och berörda personer ska få tydlig information om att de interagerar med AI, eller att innehåll är AI‑genererat/manipulerat, så att de inte vilseleds.
- Samband med yttrandefrihet
- AI‑förordningen försöker balansera behovet av transparens mot skyddet för yttrandefrihet och mediefrihet. Konst, satir och journalistik kan få vissa undantag, men allvarlig vilseledning ska undvikas.
Key Terms
- Deepfake
- AI‑genererad eller AI‑manipulerad media (bild, ljud, video) som realistiskt imiterar en verklig person eller händelse, ofta svår att skilja från äkta material.
- Artikel 52
- Bestämmelse i AI‑förordningen som anger särskilda transparens‑ och informationskrav för vissa AI‑system, inklusive AI‑interaktion med människor, emotionell igenkänning, biometrisk kategorisering och AI‑genererat/manipulerat innehåll.
- Högrisk‑AI
- Kategori av AI‑system som enligt AI‑förordningen anses innebära hög risk för hälsa, säkerhet eller grundläggande rättigheter. Dessa omfattas av strängare krav i andra kapitel än kapitel V.
- Transparenskrav
- Regler som kräver att användare och berörda personer informeras om att de interagerar med AI eller exponeras för syntetiskt/manipulerat innehåll, så att de inte vilseleds.
- Biometriska uppgifter
- Personuppgifter som rör en persons fysiska, fysiologiska eller beteendemässiga kännetecken, t.ex. ansiktsdrag, fingeravtryck, röst, iris eller gångstil, som möjliggör unik identifiering eller kategorisering.
- Emotionell igenkänning
- Teknik som använder AI för att tolka eller förutsäga känslotillstånd hos en person utifrån t.ex. ansiktsuttryck, röst eller fysiologiska signaler.
- Biometrisk kategorisering
- Användning av biometriska data (t.ex. ansikte, röst, gångstil) för att sortera in personer i kategorier (t.ex. ålder, kön), utan att nödvändigtvis identifiera exakt vem personen är.
- AI‑förordningen (AI Act)
- EU‑förordning antagen 2024 som skapar ett horisontellt regelverk för artificiell intelligens i EU. Innehåller bl.a. riskbaserade krav, regler för generella AI‑modeller och särskilda transparenskrav.
- Generell AI‑modell (GPAI)
- En AI‑modell som kan användas för en bred uppsättning uppgifter och som kan integreras i många olika system och applikationer. Regleras framför allt i kapitel IV i AI‑förordningen.