Get the App

Chapter 8 of 12

Kapitel IV: Transparens, rapportering och tillsynsverktyg (artiklarna 53–67)

Modulen fokuserar på de artiklar som reglerar transparensrapportering, tillgång till data, tillsynsverktyg och informationsdelningssystem mellan myndigheter enligt DSA.

15 min readsv

Översikt: Vad handlar kapitel IV i DSA om?

I kapitel IV (artiklarna 53–67) i Digital Services Act (DSA) samlas reglerna om:

  • Transparens (t.ex. rapporter, offentliggörande av information)
  • Informationsdelning mellan myndigheter i och utanför EU
  • Tillgång till data för tillsynsmyndigheter och forskare
  • Kodexar, standarder och frivilliga åtaganden
  • Tillsynsverktyg (t.ex. inspektioner, krishantering, sanktioner)

DSA gäller fullt ut sedan februari 2024 (dvs. för ungefär 1–2 år sedan relativt idag, mars 2026). Kapitel IV är viktigt eftersom det gör det möjligt för myndigheter att faktiskt kontrollera om plattformar följer reglerna i kapitel III (som du läst om tidigare).

I den här modulen bryter vi ned kapitel IV i fem delar:

  1. Artiklarna 53–55: Transparensrapporter och offentliggörande
  2. Artiklarna 56–57: Informationsdelningssystem och samarbete
  3. Artiklarna 58–60: Dataåtkomst för myndigheter och forskare
  4. Artiklarna 61–63: Kodexar, standarder och frivilliga åtaganden
  5. Artiklarna 64–67: Ytterligare tillsynsverktyg

Målet är att du efter modulen ska kunna:

  • Beskriva vilka transparenskrav som gäller för olika tjänster
  • Förklara hur informationsdelning och dataåtkomst är organiserad
  • Redogöra för hur kodexar och standarder används inom DSA‑ramverket

Art. 53–55: Transparensrapporter – vem måste rapportera vad?

1. Vem måste publicera transparensrapporter? (art. 53)

Enligt artikel 53 ska förmedlingstjänster (intermediary services) publicera regelbundna transparensrapporter. Kraven är starkast för:

  • Onlineplattformar (t.ex. sociala medier, marknadsplatser)
  • Mycket stora onlineplattformar (VLOP) och mycket stora onlinesökmotorer (VLOSE)

Mindre aktörer kan i vissa fall få lättnader, men det beror på typ av tjänst och storlek.

2. Vad ska rapporterna innehålla? (art. 53)

Typiskt innehåll i en transparensrapport:

  • Antal anmälningar om olagligt innehåll och hur de hanterats
  • Antal klagomål via interna klagomålsystem (se tidigare modul om art. 20–21)
  • Användning av automatiserade verktyg (t.ex. filter, rekommendationssystem)
  • Åtgärder mot olagliga produkter och bedrägerier på plattformen
  • Specifika uppgifter för VLOP/VLOSE om deras systemiska risker och åtgärder

Rapporterna ska publiceras minst en gång per år, och för VLOP/VLOSE oftare (minst var sjätte månad).

3. Offentliggörande av villkor och begränsningar (art. 54–55)

  • Art. 54: Plattformar måste göra sina användarvillkor (terms & conditions) lätt tillgängliga, tydliga och i ett begripligt språk. De ska också förklara hur de använder moderering, algoritmer och rekommendationssystem.
  • Art. 55: VLOP/VLOSE måste ge användarna sammanfattningar av sina villkor på ett klart och begripligt sätt, inklusive information om t.ex. profilering och rangordning av innehåll.

> Nyckelidé: Transparensrapporter och tydliga villkor gör det möjligt för både användare, forskare och myndigheter att se hur plattformar faktiskt agerar, inte bara vad de lovar.

Exempel: Transparensrapport för en fiktiv marknadsplats

Föreställ dig en fiktiv EU‑baserad online‑marknadsplats: ShopEU.

I sin årliga transparensrapport enligt art. 53 redovisar ShopEU:

  1. Anmälningar om olagliga produkter
  • Totalt 50 000 anmälningar under året
  • 20 000 gällde misstänkt varumärkesintrång
  • 5 000 gällde farliga produkter (t.ex. leksaker utan CE‑märkning)
  • 25 000 gällde bedrägliga annonser
  1. Åtgärder som vidtagits
  • 10 000 produktlistningar togs bort
  • 1 500 säljar‑konton stängdes
  • 5 000 annonser märktes med varningsetikett
  1. Automatiserade verktyg
  • ShopEU beskriver ett maskininlärningssystem som automatiskt flaggar misstänkta produkter baserat på nyckelord och tidigare överträdelser.
  • De anger felmarginaler (t.ex. andel falskt positiva flaggningar) och hur människor granskar systemets beslut.
  1. Klagomålssystem
  • 3 000 klagomål från säljare som fått sina produkter borttagna
  • 40 % av besluten ändrades efter granskning
  1. Sammanfattning för användare (art. 55)
  • ShopEU publicerar en kortfattad sammanfattning av sina villkor, där de med exempel förklarar:
  • När en annons kan tas bort
  • Vad som räknas som farlig eller olaglig produkt
  • Hur rekommendationsalgoritmen prioriterar produkter (t.ex. popularitet + betyg + pålitlighetspoäng för säljare)

Detta gör det möjligt för både tillsynsmyndigheter och forskare att analysera hur effektivt ShopEU arbetar mot olagliga produkter – och om de följer DSA.

Snabbkoll: Transparenskraven

Testa din förståelse av artiklarna 53–55.

Vilket av följande påståenden stämmer bäst med DSA:s krav i art. 53–55?

  1. Endast mycket stora onlineplattformar (VLOP) måste publicera transparensrapporter.
  2. Alla förmedlingstjänster kan helt frivilligt välja om de vill publicera transparensrapporter.
  3. Flera typer av förmedlingstjänster, särskilt onlineplattformar och VLOP/VLOSE, måste publicera regelbundna transparensrapporter med bl.a. uppgifter om hantering av olagligt innehåll.
Show Answer

Answer: C) Flera typer av förmedlingstjänster, särskilt onlineplattformar och VLOP/VLOSE, måste publicera regelbundna transparensrapporter med bl.a. uppgifter om hantering av olagligt innehåll.

Art. 53 ställer krav på transparensrapporter för flera typer av förmedlingstjänster, med särskilt detaljerade krav för onlineplattformar och VLOP/VLOSE. Det är alltså varken begränsat enbart till VLOP eller helt frivilligt.

Art. 56–57: Informationsdelning och samarbete mellan myndigheter

1. Informationsdelningssystem på EU‑nivå (art. 56)

Artikel 56 skapar ett säkert digitalt system för informationsutbyte mellan:

  • Digital Services Coordinators (DSC) i varje medlemsstat
  • Kommissionen
  • Andra behöriga myndigheter

Systemet används t.ex. för:

  • Att vidarebefordra order om åtgärder mot olagligt innehåll (se tidigare artiklar)
  • Att dela tillsynsbeslut och sanktionsbeslut
  • Att samordna gränsöverskridande ärenden (t.ex. en plattform i land A som skadar användare i land B och C)

2. Samarbete och ömsesidig hjälp (art. 57)

Artikel 57 reglerar ömsesidig hjälp mellan myndigheter:

  • En DSC i en medlemsstat kan be en annan DSC om information eller åtgärder mot en tjänsteleverantör etablerad där.
  • Myndigheter ska som huvudprincip hjälpa varandra, om inte särskilda skäl talar emot (t.ex. bristande behörighet eller konflikt med nationell rätt).

> Varför är detta viktigt?

>

> Onlineplattformar verkar ofta i hela EU. Utan ett formellt system för informationsdelning riskerar tillsynen att bli fragmenterad och ineffektiv. DSA försöker lösa detta genom ett sammanhållet nätverk av myndigheter.

Tankeövning: Gränsöverskridande tillsyn

Föreställ dig följande scenario och fundera steg för steg på hur art. 56–57 skulle användas:

Scenario:

  • En stor social medieplattform är etablerad i medlemsstat X.
  • Användare i medlemsstat Y rapporterar att plattformen systematiskt inte tar bort olagligt hatbrottsinnehåll riktat mot minoriteter i Y.
  • Medlemsstat Y:s Digital Services Coordinator vill agera, men plattformen är formellt etablerad i X.

Uppgift – fundera på:

  1. Vilken myndighet är primärt ansvarig för tillsynen av plattformen enligt DSA:s etableringsprincip?
  2. Hur kan DSC i Y använda informationsdelningssystemet enligt art. 56 för att kontakta DSC i X?
  3. Vilka typer av ömsesidig hjälp kan DSC i Y begära enligt art. 57? (t.ex. information, inspektion, åtgärdsorder)
  4. Varför är det bättre med ett formaliserat EU‑system än att varje land försöker förhandla direkt med plattformen?

Skriv gärna ned dina svar i punktform. När du är klar, jämför med lagtextens syfte: att säkerställa effektiv och konsekvent tillsyn i hela EU.

Art. 58–60: Tillgång till data för myndigheter och forskare

1. Dataåtkomst för tillsynsmyndigheter (art. 58)

Artikel 58 ger tillsynsmyndigheter (framför allt DSC och kommissionen för VLOP/VLOSE) rätt att begära:

  • Tillgång till data från plattformar som behövs för att kontrollera efterlevnad av DSA.
  • Data kan vara t.ex.:
  • Antal användare
  • Interna riskbedömningar
  • Data om hur algoritmer fungerar i praktiken
  • Loggar över modereringsbeslut

Plattformar måste ge meningsfull tillgång – inte bara aggregerade PR‑siffror.

2. Skydd av personuppgifter och affärshemligheter

Dataåtkomst enligt art. 58 måste ske i enlighet med:

  • GDPR (skydd av personuppgifter)
  • Skydd av affärshemligheter och säkerhet

Myndigheter får ofta data i pseudonymiserad eller aggregerad form, om inte mer detaljer krävs för tillsynen.

3. Dataåtkomst för forskare (art. 59–60)

Artiklarna 59–60 reglerar tillgång till data för kvalificerade forskare (t.ex. vid universitet eller erkända forskningsinstitut) för att studera:

  • Systemiska risker (t.ex. desinformation, påverkan på demokratiska processer, psykisk hälsa hos unga)
  • Effekter av plattformars rekommendationssystem och annonsmodeller

Nyckelpunkter:

  • Forskare måste uppfylla kriterier (oberoende, forskningsetik, dataskydd).
  • Dataåtkomst sker ofta genom kontrollerade miljöer (t.ex. säkra forskningsportaler).
  • VLOP/VLOSE har särskilt långtgående skyldigheter att ge sådan dataåtkomst.

> Detta är en av de mest nyskapande delarna av DSA: att forskare ska kunna granska plattformarnas verkliga effekter på samhället, inte bara förlita sig på plattformarnas egna rapporter.

Check: Dataåtkomst för forskare

Hur bra har du koll på art. 58–60?

Vad är syftet med dataåtkomst för forskare enligt art. 59–60 DSA?

  1. Att forskare ska kunna sälja detaljerade användardata vidare till annonsörer.
  2. Att oberoende forskare ska kunna studera systemiska risker och samhällseffekter av mycket stora plattformar och sökmotorer.
  3. Att forskare ska kunna ersätta tillsynsmyndigheternas arbete med egenkontroll.
Show Answer

Answer: B) Att oberoende forskare ska kunna studera systemiska risker och samhällseffekter av mycket stora plattformar och sökmotorer.

Art. 59–60 syftar till att ge kvalificerade, oberoende forskare tillgång till data för att analysera systemiska risker och samhällseffekter. Det handlar inte om kommersiell användning av data eller om att ersätta myndigheter, utan om att komplettera tillsynen med vetenskaplig kunskap.

Art. 61–63: Kodexar, standarder och frivilliga åtaganden

1. Kodexar för uppförande (art. 61)

Artikel 61 uppmuntrar framtagandet av kodexar för uppförande (codes of conduct) på EU‑nivå. Dessa är:

  • Frivilliga, men starkt uppmuntrade
  • Framtagna av branschen i samarbete med:
  • Kommissionen
  • DSC
  • Civilsamhälle och forskare

Exempel på områden:

  • Bekämpning av desinformation
  • Skydd av minderåriga
  • Hantering av hatpropaganda

Kodexar kan konkretisera hur plattformar ska uppfylla DSA:s mer generella krav.

2. Krav på kodexar

För att en kodex ska vara meningsfull enligt DSA bör den:

  • Ha tydliga mål och mätbara indikatorer
  • Innehålla övervaknings- och rapporteringsmekanismer
  • Vara öppen för deltagande av olika relevanta aktörer

Kommissionen kan erkänna kodexar och följa upp hur de fungerar i praktiken.

3. Standarder och tekniska specifikationer (art. 62)

Artikel 62 öppnar för att använda europeiska standarder (t.ex. från CEN/CENELEC) för att konkretisera tekniska krav, t.ex.:

  • Hur data ska struktureras i transparensrapporter
  • Hur API:er för forskaråtkomst bör utformas

4. Frivilliga krismekanismer (art. 63)

Art. 63 gör det möjligt att utveckla frivilliga åtaganden för hantering av kriser (t.ex. pandemier, krig, naturkatastrofer), där plattformar kan lova att:

  • Främja tillförlitlig information
  • Begränsa spridning av skadlig desinformation
  • Samarbeta nära med myndigheter

> Kodexar och standarder är alltså verktyg för att göra DSA mer praktiskt tillämpbar och flexibel, utan att ändra själva förordningens text.

Mini‑workshop: Designa en enkel kodex

Föreställ dig att du sitter i en arbetsgrupp som ska ta fram en kodex för skydd av minderåriga på sociala medier enligt art. 61.

Uppgift: Skriv i punktform hur du skulle utforma kodexen kring tre områden:

  1. Rekommendationssystem
  • Hur bör algoritmer behandla konton som sannolikt tillhör minderåriga?
  • Vilken typ av innehåll bör inte rekommenderas?
  1. Reklam
  • Vilka typer av annonser bör förbjudas eller begränsas för minderåriga?
  • Hur kan transparens om reklam förstärkas (t.ex. tydlig märkning)?
  1. Rapporteringsverktyg
  • Hur ska minderåriga enkelt kunna rapportera kränkande eller skadligt innehåll?
  • Vilka tidsfrister bör finnas för att agera på sådana rapporter?

När du är klar, jämför dina punkter med DSA:s övergripande mål: skydd av grundläggande rättigheter, särskilt barns rättigheter, och minskning av systemiska risker.

Art. 64–67: Ytterligare tillsynsverktyg och uppföljning

I slutet av kapitel IV finns en uppsättning tillsyns- och uppföljningsverktyg som kompletterar allt du sett hittills.

1. Undersökningar och inspektioner (art. 64–65)

Myndigheter (särskilt kommissionen för VLOP/VLOSE) kan:

  • Genomföra undersökningar av misstänkta överträdelser
  • Begära information och dokument
  • Hålla förhör med företagsföreträdare
  • I vissa fall genomföra platsundersökningar (razzialiknande inspektioner) enligt strikta rättssäkerhetsregler

2. Tillfälliga åtgärder och åtaganden (art. 66)

Om det finns en allvarlig misstanke om överträdelser som kan orsaka omfattande skada, kan myndigheter:

  • Utfärda tillfälliga åtgärder (t.ex. att plattformen måste sluta med en viss praxis under utredningens gång)
  • Acceptera åtaganden från plattformen (commitments), där plattformen frivilligt lovar att ändra sitt beteende; dessa kan göras bindande.

3. Sanktioner och uppföljning (art. 67 + koppling till andra kapitel)

Även om de detaljerade sanktionsreglerna till stor del finns i kapitel V, knyter art. 67 ihop:

  • Överträdelser av transparens- och dataåtkomstregler
  • Möjligheten att införa böter och andra sanktioner
  • Krav på uppföljning och rapportering om hur tillsynen fungerar i EU

> Sammantaget gör artiklarna 64–67 att DSA inte bara är en "pappersprodukt" utan ett regelverk med skarpa verktyg för att genomdriva reglerna.

Repetera nyckelbegrepp

Använd korten för att repetera centrala begrepp från kapitel IV (artiklarna 53–67).

Transparensrapport (art. 53)
En offentlig rapport som förmedlingstjänster, särskilt onlineplattformar och VLOP/VLOSE, måste publicera regelbundet. Innehåller bl.a. data om hantering av olagligt innehåll, klagomål, användning av automatiserade verktyg och vidtagna åtgärder.
Digital Services Coordinator (DSC)
Den nationella tillsynsmyndighet som varje EU‑medlemsstat måste utse enligt DSA. Ansvarar för tillsyn över DSA inom landet och deltar i EU‑omfattande informationsdelningssystem.
Dataåtkomst för myndigheter (art. 58)
Rätt för behöriga myndigheter att begära nödvändiga data från plattformar för att kontrollera efterlevnad av DSA, med hänsyn till dataskydd och affärshemligheter.
Dataåtkomst för forskare (art. 59–60)
Mekanism som ger kvalificerade, oberoende forskare tillgång till data från särskilt VLOP/VLOSE för att studera systemiska risker och samhällseffekter av digitala tjänster.
Kodex för uppförande (art. 61)
Frivilligt, men av EU uppmuntrat, regelverk som branschaktörer kan anta för att konkretisera hur de ska uppfylla DSA:s krav, t.ex. kring desinformation eller skydd av minderåriga.
Standarder (art. 62)
Tekniska specifikationer, ofta framtagna av europeiska standardiseringsorgan, som kan användas för att harmonisera hur DSA:s krav genomförs i praktiken (t.ex. format för transparensdata).
Ömsesidig hjälp mellan myndigheter (art. 57)
Regler som gör att Digital Services Coordinators i olika medlemsstater kan begära information och åtgärder av varandra i gränsöverskridande ärenden.
Tillfälliga åtgärder (art. 66)
Tidsbegränsade krav som en myndighet kan ställa på en plattform när det finns allvarlig misstanke om överträdelser som riskerar att orsaka omfattande skada, t.ex. att stoppa en viss praxis under pågående utredning.

Key Terms

Standard
Teknisk eller organisatorisk specifikation som används för att harmonisera hur vissa krav genomförs i praktiken, t.ex. dataformat eller säkerhetskrav.
VLOP/VLOSE
Mycket stora onlineplattformar (VLOP) och mycket stora onlinesökmotorer (VLOSE), dvs. tjänster med minst 45 miljoner genomsnittliga månatliga användare i EU. Har särskilt långtgående skyldigheter enligt DSA.
Onlineplattform
En typ av värdtjänst som på begäran av användare lagrar och sprider information till allmänheten, t.ex. sociala medier, videoplattformar, marknadsplatser.
Systemiska risker
Storskaliga risker som påverkar samhälle och grundläggande rättigheter, t.ex. desinformation, hot mot demokratiska processer, risker för barns säkerhet, som kan orsakas eller förstärkas av stora plattformars tjänster.
Transparensrapport
Regelbunden offentlig rapport där en tjänsteleverantör redovisar hur den hanterar olagligt innehåll, klagomål, modereringsåtgärder, användning av algoritmer m.m.
Kodex för uppförande
Frivilligt regelverk som aktörer kan anta för att uppfylla eller gå längre än minimikraven i DSA, ofta framtaget i samarbete med kommissionen, myndigheter och civilsamhälle.
Tillfälliga åtgärder
Snabba, tidsbegränsade beslut från tillsynsmyndigheter för att förhindra eller begränsa allvarliga skador under tiden en utredning pågår.
DSA (Digital Services Act)
EU‑förordning om digitala tjänster (förordning (EU) 2022/2065) som reglerar ansvar och skyldigheter för förmedlingstjänster, inklusive onlineplattformar och sökmotorer. Gäller fullt ut sedan februari 2024.
Digital Services Coordinator (DSC)
Nationell tillsynsmyndighet som samordnar och utövar tillsyn över DSA i varje medlemsstat och deltar i EU:s informationsdelningssystem.
Förmedlingstjänst (intermediary service)
Tjänster som vidarebefordrar, lagrar eller tillhandahåller åtkomst till information online, t.ex. internetleverantörer, värdtjänster, sociala medier och online‑marknadsplatser.