Get the App

Chapter 5 of 12

Kapitel III avsnitt 2–3: Värdtjänster och notice-and-action (artiklarna 25–33)

Denna modul fokuserar på de särskilda skyldigheterna för värdtjänster, inklusive system för anmälan och agerande, motiveringsskyldighet och hantering av upprepade överträdelser.

15 min readsv

Översikt: Värdtjänster och notice-and-action i DSA

Denna modul handlar om kapitel III avsnitt 2–3 i Digital Services Act (DSA), dvs. artiklarna 25–33.

Sedan DSA började tillämpas fullt ut i hela EU den 17 februari 2024 gäller dessa regler för alla relevanta värdtjänster som riktar sig till användare i EU, oavsett var leverantören är etablerad.

I tidigare moduler har du sett att:

  • Kapitel II (artiklarna 13–18) ger ansvarsbegränsningar för bl.a. värdtjänster, under vissa villkor.
  • Kapitel III avsnitt 1 (artiklarna 19–24) innehåller allmänna skyldigheter för alla förmedlingstjänster.

I den här modulen zoomar vi in på särskilda skyldigheter för värdtjänster:

  • hur ett notice-and-action-system (anmälan och agerande) ska fungera (artikel 25)
  • vilken motivering som måste ges till användare vid borttagning eller begränsning (artikel 26)
  • hur klagomål och prövning ska hanteras (artikel 27)
  • hur DSA hanterar upprepade överträdelser och missbruk (artiklarna 28–30)
  • hur dessa regler kopplar vidare till onlineplattformar och senare kapitel (artiklarna 31–33).

> Målbild: Efter modulen ska du kunna beskriva hur ett DSA‑kompatibelt notice‑and‑action‑system ser ut, vilka informationskrav som gäller mot användare och hur missbruk av systemen ska hanteras.

Fortsätt steg för steg – varje del bygger vidare på föregående.

Artikel 25: Vad är ett notice-and-action-system?

Artikel 25 kräver att alla värdtjänster (t.ex. molnlagring, webbhotell, sociala medier, marknadsplatser) har lättillgängliga och användarvänliga mekanismer för att anmäla olagligt innehåll.

Kärnidé

Ett notice-and-action-system är ett formellt flöde:

  1. Anmälan (notice) – någon anmäler innehåll som påstås vara olagligt.
  2. Bedömning – leverantören bedömer om innehållet faktiskt är olagligt eller bryter mot villkoren.
  3. Agerande (action) – t.ex. ta bort innehållet, begränsa åtkomst, eller låta det ligga kvar.
  4. Information – användare informeras om beslutet (artikel 26).

Minimikrav enligt artikel 25

Ett DSA‑kompatibelt system ska bl.a.:

  • Vara lätt att hitta (t.ex. länk i sidfot, hjälpcenter).
  • Vara elektroniskt och gratis att använda.
  • Möjliggöra att anmälaren anger:
  • en tillräckligt motiverad förklaring till varför innehållet skulle vara olagligt,
  • exakt plats (t.ex. URL, inläggs-ID),
  • sina kontaktuppgifter (med undantag för vissa typer av anmälningar, t.ex. från betrodda anmälare),
  • en försäkran om god tro att uppgifterna är korrekta.
  • Skicka en bekräftelse på att anmälan mottagits.

När anmälan innehåller alla obligatoriska uppgifter ska den anses ge upphov till faktisk kännedom om olagligt innehåll (vilket är centralt för ansvar enligt artikel 18). Detta knyter direkt an till ansvarsbegränsningarna från kapitel II.

Exempel: Ett korrekt notice-and-action-flöde

Föreställ dig en bilddelningsplattform som är en värdtjänst enligt DSA.

  1. Användaren Anna ser en bild som innehåller upphovsrättsskyddat material som hon äger rättigheterna till.
  2. Hon klickar på knappen "Anmäl olagligt innehåll" under bilden.
  3. Ett formulär öppnas där hon måste ange:
  • Varför bilden är olaglig: "Jag är upphovsrättsinnehavare, bilden används utan tillstånd".
  • Länk/ID till bilden.
  • Kontaktuppgifter (e‑postadress).
  • En kryssruta: "Jag försäkrar att dessa uppgifter är korrekta och lämnade i god tro".
  1. När hon skickar in får hon automatiskt ett e‑postkvitto: "Vi har mottagit din anmälan".
  2. Plattformens modereringsteam bedömer ärendet. De konstaterar att bilden sannolikt gör intrång i Annas upphovsrätt.
  3. De tar bort bilden och skickar:
  • ett meddelande till uppladdaren (med motivering enligt artikel 26),
  • ett besked till Anna om att åtgärd har vidtagits.

> Observera: Om formuläret hade saknat möjlighet att ange motivering eller exakt plats, eller om Anna inte fått någon bekräftelse, skulle plattformen inte uppfylla artikel 25.

Designa ett enkelt notice-formulär

Föreställ dig att du är juridiskt ansvarig för en liten kodplattform (tänk "mini‑GitHub") som nu måste följa DSA.

Uppgift: Skissa i punktform hur ditt anmälningsformulär ska se ut för att uppfylla artikel 25.

Skriv (för dig själv eller i anteckningar):

  1. Vilka fält ska vara obligatoriska? (tips: motivering, plats, kontakt, god tro)
  2. Hur säkerställer du att formuläret är lättillgängligt för användare?
  3. Hur ska systemet automatiskt skicka bekräftelse på mottagen anmälan?

> Reflektera: Vilka fält skulle du helst vilja ta bort för att göra formuläret enklare – och vilka kan du inte ta bort utan att bryta mot DSA?

Artikel 26: Motiveringsskyldighet och meddelanden till användare

Artikel 26 är central för transparens och rättssäkerhet. När en värdtjänst tar bort eller begränsar innehåll eller konton måste den ge en specifik och begriplig motivering till den användare som drabbas.

Detta gäller oavsett om åtgärden beror på:

  • olagligt innehåll (t.ex. hatbrott, upphovsrättsintrång), eller
  • brott mot plattformens användarvillkor (t.ex. nakenhet, spam), även om innehållet inte är olagligt i sig.

Motiveringen ska bl.a. innehålla:

  • Vilket innehåll åtgärden avser (t.ex. länk, inläggs-ID).
  • Vilken typ av åtgärd som vidtas:
  • borttagning,
  • avstängning,
  • demonetisering,
  • begränsad synlighet etc.
  • Den specifika grunden:
  • vilken lagbestämmelse eller
  • vilket villkor i användaravtalet som åberopas.
  • En kort faktisk motivering (inte bara standardtext).
  • Information om:
  • möjligheten att använda intern klagomålsmekanism (artikel 27),
  • eventuella alternativa tvistlösningsorgan eller rättsmedel.

Dessutom ska beslut loggas i den så kallade databasen för beslut om innehållsmoderering (artikel 24), så att tillsynsmyndigheter och forskare kan analysera mönster (med hänsyn till dataskydd). Denna databas har utvecklats och tagits i drift successivt efter att DSA började gälla fullt ut 2024.

Kunskapscheck: Vad måste motiveringen innehålla?

Välj det alternativ som bäst motsvarar DSA:s krav i artikel 26.

En plattform tar bort ett inlägg som anses vara hatpropaganda enligt nationell straffrätt. Vilket av följande är **tillräckligt** enligt artikel 26?

  1. A. Ett kort meddelande: "Ditt inlägg har tagits bort då det bryter mot våra regler."
  2. B. Ett meddelande som anger vilket inlägg det gäller, vilken lagbestämmelse och/eller vilket exakt villkor i användaravtalet som åberopas, samt kort förklarar varför inlägget omfattas.
  3. C. Inget meddelande behövs eftersom innehållet är klart olagligt.
Show Answer

Answer: B) B. Ett meddelande som anger vilket inlägg det gäller, vilken lagbestämmelse och/eller vilket exakt villkor i användaravtalet som åberopas, samt kort förklarar varför inlägget omfattas.

Artikel 26 kräver en **specifik motivering**: vilket innehåll, vilken åtgärd, vilken rättslig eller avtalsmässig grund, samt en kort faktabeskrivning. Alternativ B uppfyller detta. A är för generellt, C strider direkt mot DSA.

Artikel 27: Klagomåls- och prövningsmekanismer

Artikel 27 kräver att värdtjänster – särskilt när de också är onlineplattformar – har effektiva och lättanvända interna klagomålsmekanismer.

Nyckelelement:

  • Användare vars innehåll eller konto påverkats ska kunna överklaga beslutet via ett internt klagomålssystem.
  • Klagomålen ska hanteras inom rimlig tid och av personer eller system som kan göra en ny, oberoende bedömning.
  • Resultatet av klagomålet ska meddelas med motivering, på liknande sätt som enligt artikel 26.
  • Användare ska informeras om möjligheten att:
  • vända sig till certifierade organ för alternativ tvistlösning (ADR),
  • använda out‑of‑court dispute settlement enligt senare artiklar i DSA,
  • eller gå till domstol.

> Koppling: För mycket stora onlineplattformar (VLOPs) och mycket stora onlinesökmotorer (VLOSEs) finns ännu mer långtgående krav i senare kapitel (t.ex. riskbedömningar, oberoende revision). Men grunden – rätt till motivering och klagomål – finns redan här i artiklarna 26–27.

Fallstudie: Hur skulle du hantera ett klagomål?

Anta att en användare fått sitt konto tillfälligt avstängt p.g.a. misstänkt spam och får ett motiverat besked enligt artikel 26.

Användaren skickar ett klagomål där hen förklarar:

> "Jag driver ett litet företag och skickade ut många meddelanden om en laglig kampanj. Jag har inte brutit mot lagen eller era villkor. Snälla återaktivera mitt konto."

Reflektionsfrågor (fundera själv):

  1. Vilka uppgifter behöver din plattform gå igenom för att behandla klagomålet rättssäkert?
  2. Vilka möjliga utfall finns (håll kvar avstängning, kortare avstängning, full återaktivering)?
  3. Hur skulle du motivera beslutet tillbaka till användaren så att det uppfyller artikel 26 och 27?

Försök formulera en kort beslutsmotivering i 3–4 meningar i dina anteckningar.

Artiklarna 28–30: Upprepade överträdelser och missbruk

DSA vill både skydda mot systematiska regelbrott och mot missbruk av anmälnings- och klagomålssystemen.

1. Upprepade överträdelser (artikel 28)

Värdtjänster – särskilt onlineplattformar – ska ha tydliga och proportionerliga regler för hur de hanterar användare som upprepade gånger:

  • publicerar olagligt innehåll, eller
  • bryter mot plattformens villkor.

Åtgärder kan t.ex. vara:

  • tillfälliga begränsningar (t.ex. färre inlägg per dag),
  • tillfällig avstängning av kontot,
  • i allvarliga fall permanent avstängning.

Åtgärderna ska:

  • vara förutsebara (beskrivna i användarvillkoren),
  • vara proportionerliga (inte mer ingripande än nödvändigt),
  • motiveras enligt artikel 26.

2. Missbruk av anmälningssystem (artikel 29)

DSA erkänner risken att anmälningssystemen själva kan användas för:

  • trakasserier,
  • konkurrensmedvetna sabotagenotiser,
  • massanmälningar för att tysta legitima röster.

Plattformar ska därför:

  • övervaka mönster av uppenbart ogrundade anmälningar,
  • kunna vidta åtgärder mot användare som systematiskt missbrukar systemen, t.ex.:
  • begränsa deras möjlighet att göra anmälningar under en tid,
  • i extrema fall stänga av konton.

3. Missbruk av klagomålsmekanismer (artikel 30)

Liknande princip gäller för klagomålssystemet:

  • om en användare systematiskt lämnar uppenbart ogrundade klagomål, får plattformen införa proportionerliga begränsningar.

> Viktigt: Åtgärder mot missbruk får inte användas för att tysta legitima anmälningar eller klagomål. Det krävs en tydlig, dokumenterad missbrukshistorik och åtgärderna måste motiveras och dokumenteras.

Kunskapscheck: Missbruk av anmälningssystem

Testa din förståelse av artiklarna 28–30.

En användare har gjort över 200 anmälningar på en vecka. De flesta gäller konkurrerande butiker och visar sig vara ogrundade. Vad är **förenligt med DSA**?

  1. A. Omedelbart permanent avstänga användaren utan motivering.
  2. B. Införa en tidsbegränsad spärr för att skicka nya anmälningar, efter dokumenterad bedömning att det rör sig om uppenbart missbruk, och meddela användaren med motivering.
  3. C. Ignorera alla framtida anmälningar från användaren utan att informera hen.
Show Answer

Answer: B) B. Införa en tidsbegränsad spärr för att skicka nya anmälningar, efter dokumenterad bedömning att det rör sig om uppenbart missbruk, och meddela användaren med motivering.

Artikel 29 tillåter proportionerliga åtgärder mot systematiskt missbruk, men kräver **motivering och proportionalitet**. Alternativ B stämmer med detta. A är oproportionerligt och omotiverat, C strider mot transparenskraven.

Artiklarna 31–33: Ytterligare skyldigheter och koppling till onlineplattformar

Artiklarna 31–33 fungerar som en brygga mellan grundläggande värdtjänstregler och de mer detaljerade reglerna för onlineplattformar och mycket stora tjänster i senare kapitel.

Utan att gå in på alla tekniska detaljer (som du möter i kommande modul) är poängen att:

  • Värdtjänster kan behöva samarbeta med myndigheter och lämna viss information (t.ex. om hur notice-and-action-systemet fungerar i praktiken).
  • De ska kunna ge dataåtkomst till behöriga myndigheter och – i vissa fall – forskare, för att möjliggöra tillsyn och forskning om systemiska risker.
  • De måste säkerställa att deras processer för anmälan, motivering, klagomål och hantering av missbruk hänger ihop med:
  • riskbedömningar,
  • transparensrapporter,
  • och särskilda skyldigheter för VLOPs/VLOSEs.

> Tänk på strukturen i DSA:

> - Kapitel II: "Om du uppfyller vissa villkor kan du begränsa ditt ansvar".

> - Kapitel III avsnitt 1: "Alla förmedlingstjänster måste göra X".

> - Kapitel III avsnitt 2–3 (denna modul): "Värdtjänster måste dessutom ha fungerande notice‑and‑action, motivering, klagomål och skydd mot missbruk".

> - Senare kapitel: "Onlineplattformar (särskilt mycket stora) får ännu fler skyldigheter".

Repetition: Nyckelbegrepp

Använd korten för att repetera centrala begrepp från artiklarna 25–33.

Notice-and-action-system (artikel 25)
Ett system där användare kan anmäla (notice) påstått olagligt innehåll och där värdtjänsten bedömer och vidtar åtgärder (action), med vissa minimikrav på formulär, bekräftelse och hantering.
Faktisk kännedom (kopplat till artikel 18 och 25)
När en värdtjänst får en tillräckligt detaljerad och korrekt anmälan om olagligt innehåll anses den ha faktisk kännedom och måste agera skyndsamt för att behålla sin ansvarsbegränsning.
Motiveringsskyldighet (artikel 26)
Kravet att informera berörda användare om varför innehåll eller konton tas bort eller begränsas, inklusive vilken åtgärd som vidtas, vilket innehåll det gäller, rättslig/avtalsmässig grund och en kort faktamotivering.
Intern klagomålsmekanism (artikel 27)
Ett system där användare kan överklaga modereringsbeslut och få en ny, oberoende prövning inom rimlig tid, med motiverat beslut.
Upprepade överträdelser (artikel 28)
När en användare återkommande publicerar olagligt eller regelstridigt innehåll. Plattformen får införa proportionerliga åtgärder, som tillfällig eller permanent avstängning, om detta tydligt framgår av villkoren.
Missbruk av anmälningssystem (artikel 29)
Systematiskt och uppenbart ogrundat användande av anmälningsfunktionen, t.ex. massanmälningar för att skada konkurrenter. Plattformen får begränsa möjligheten att anmäla på ett proportionerligt sätt.
Missbruk av klagomålsmekanismer (artikel 30)
Upprepade, uppenbart ogrundade klagomål på modereringsbeslut. Plattformen får införa proportionerliga begränsningar efter dokumenterad bedömning.
Koppling till onlineplattformar (artiklarna 31–33)
Artiklar som knyter samman värdtjänsternas grundläggande skyldigheter med de mer avancerade reglerna för onlineplattformar och mycket stora tjänster, bl.a. genom krav på samarbete med myndigheter och dataåtkomst.

Key Terms

VLOP/VLOSE
Mycket stora onlineplattformar (Very Large Online Platforms) och mycket stora onlinesökmotorer (Very Large Online Search Engines) med minst 45 miljoner genomsnittliga månatliga användare i EU. Omfattas av särskilt stränga krav i DSA.
Värdtjänst
En tjänst som lagrar information på begäran av en användare (t.ex. webbhotell, sociala medier, molnlagring). Definieras i artikel 3 g DSA.
Onlineplattform
En typ av värdtjänst som, på användares begäran, lagrar och sprider information till allmänheten (t.ex. sociala medier, marknadsplatser). Har ytterligare skyldigheter i DSA.
Faktisk kännedom
Den nivå av vetskap om olagligt innehåll som gör att en värdtjänst måste agera skyndsamt för att behålla ansvarsbegränsning enligt DSA, ofta utlösts av en korrekt utformad anmälan.
Notice-and-action
Process där användare eller tredje part anmäler påstått olagligt innehåll till en värdtjänst (notice) som sedan bedömer och vidtar lämpliga åtgärder (action).
Missbruk av system
Systematiskt och uppenbart ogrundat användande av anmälnings- eller klagomålsmekanismer, vilket kan leda till proportionerliga motåtgärder enligt artiklarna 29–30.
Olagligt innehåll
All information som i sig, eller genom sin koppling till en aktivitet, inte överensstämmer med EU-rätten eller nationell rätt (t.ex. hatbrott, upphovsrättsintrång, olaglig handel).
Motiveringsskyldighet
Skyldigheten enligt artikel 26 DSA att ge användare en tydlig, specifik motivering när deras innehåll eller konton påverkas genom modereringsåtgärder.
Intern klagomålsmekanism
Ett internt system hos tjänsteleverantören där användare kan bestrida modereringsbeslut och få en ny prövning.
Digital Services Act (DSA)
EU-förordning (EU) 2022/2065 om en inre marknad för digitala tjänster, fullt tillämplig i EU sedan 17 februari 2024. Reglerar ansvar och skyldigheter för digitala förmedlingstjänster.