Get the App

Chapter 7 of 12

Kapitel III avsnitt 5: Mycket stora onlineplattformar och sökmotorer (artiklarna 44–52)

Denna modul går igenom de särskilt långtgående skyldigheter som gäller för mycket stora onlineplattformar (VLOP) och mycket stora onlinesökmotorer (VLOSE), inklusive riskbedömningar, riskreducerande åtgärder och oberoende granskningar.

15 min readsv

Översikt: Vad handlar artiklarna 44–52 om?

I den här modulen går vi igenom Kapitel III avsnitt 5 i DSA (Digital Services Act), dvs. artiklarna 44–52. Dessa regler gäller endast för:

  • Mycket stora onlineplattformar (VLOP)
  • Mycket stora onlinesökmotorer (VLOSE)

De har särskilt långtgående skyldigheter eftersom deras tjänster kan påverka miljoner användare och hela samhällen.

Fokus i artiklarna 44–52:

  • Art. 44–45: Systemiska risker och årliga riskbedömningar
  • Art. 46–47: Riskreducerande åtgärder och krishanteringsmekanismer
  • Art. 48–49: Oberoende granskningar (audits) och efterlevnadsfunktioner
  • Art. 50–52: Transparens, dataåtkomst för forskare och annonsbibliotek

> Koppling bakåt: I tidigare moduler såg du generella skyldigheter för värdtjänster och onlineplattformar. Här bygger vi vidare men på en högre nivå av krav för de allra största aktörerna.

Mål med modulen (på 15 min):

  1. Förstå vad som utmärker en VLOP/VLOSE och vilka tröskelvärden som gäller.
  2. Kunna analysera kraven på riskbedömning och riskhantering (art. 44–47).
  3. Förstå hur oberoende granskningar och dataåtkomst för forskare är utformade i DSA (art. 48–52).

Vad är en VLOP och en VLOSE? (tröskelvärden och utnämning)

Tröskelvärden enligt DSA

DSA definierar mycket stora tjänster utifrån antalet genomsnittliga månatliga aktiva mottagare i EU:

  • Tröskel: minst 45 miljoner användare i EU (≈ 10 % av EU:s befolkning)
  • Gäller både:
  • Mycket stora onlineplattformar (VLOP) – t.ex. sociala medier, marknadsplatser
  • Mycket stora onlinesökmotorer (VLOSE) – t.ex. globala sökmotorer

Vem bestämmer om en tjänst är VLOP/VLOSE?

  • Europeiska kommissionen utser formellt vilka tjänster som är VLOP/VLOSE genom beslut.
  • Leverantören måste först rapportera sina användarsiffror (enligt art. 24) och uppdatera dem minst en gång per år.
  • När kommissionen beslutat att en tjänst är VLOP/VLOSE:
  • Tjänsten får särskilda extra skyldigheter (artiklarna 33–43 + 44–52).
  • Vissa tidsfrister börjar löpa, t.ex. för att göra första riskbedömningen.

Viktig skillnad mot "vanliga" onlineplattformar

Alla onlineplattformar måste följa kraven i kapitel III avsnitt 4 (t.ex. interna klagomålssystem, betrodda anmälare). Endast VLOP/VLOSE måste dessutom:

  • Göra årliga, omfattande riskbedömningar (art. 34 är allmän transparens, art. 44 bygger vidare med systemiska risker).
  • Vidta proportionerliga riskreducerande åtgärder (art. 45–46).
  • Genomgå oberoende externa granskningar varje år (art. 37 för transparens, art. 48 specifikt för VLOP/VLOSE).
  • Ge utökad dataåtkomst till forskare (art. 40 generellt, art. 40.8–40.12 och art. 50–52 skärper för VLOP/VLOSE).

Exempel: Är detta en VLOP eller inte?

Föreställ dig följande tjänster:

  1. ShopWorld – en stor online-marknadsplats som har ~60 miljoner månatliga aktiva användare i EU.
  2. PicTalk – en bildbaserad social medieplattform med ~20 miljoner användare i EU.
  3. SearchMax – en sökmotor med ~120 miljoner månatliga användare i EU.

Klassificering enligt DSA

  • ShopWorld
  • Över 45 miljoner användare i EU → uppfyller tröskeln.
  • Typ av tjänst: onlineplattform → kan utses till VLOP.
  • PicTalk
  • 20 miljoner användare → under tröskelvärdet.
  • Är en onlineplattform men inte mycket stor → omfattas av avsnitt 4, men inte av avsnitt 5.
  • SearchMax
  • 120 miljoner användare → klart över tröskeln.
  • Typ av tjänst: onlinesökmotor → kan utses till VLOSE.

> Poäng: Det är inte bara storleken som spelar roll, utan också typen av tjänst. Ett stort nyhetsmedium med egen webbplats är inte automatiskt en VLOP om det inte fungerar som en onlineplattform i DSA:s mening (dvs. förmedlar användargenererat innehåll till andra användare).

Snabbkoll: Tröskelvärden och begrepp

Testa om du har koll på grunderna kring VLOP/VLOSE.

Vilket påstående stämmer bäst med DSA:s regler om VLOP/VLOSE?

  1. En tjänst är VLOP/VLOSE om den har mer än 45 miljoner användare globalt.
  2. En tjänst är VLOP/VLOSE om Europeiska kommissionen har utsett den och den har minst 45 miljoner månatliga aktiva användare i EU.
  3. Alla onlineplattformar är automatiskt VLOP när de når 1 miljon användare i EU.
Show Answer

Answer: B) En tjänst är VLOP/VLOSE om Europeiska kommissionen har utsett den och den har minst 45 miljoner månatliga aktiva användare i EU.

Det avgörande är **antalet månatliga aktiva mottagare i EU (minst 45 miljoner)** och att **Europeiska kommissionen formellt utser tjänsten** som VLOP/VLOSE. Globalt användarantal eller 1-miljonströskel används inte i DSA för denna status.

Systemiska risker och årliga riskbedömningar (art. 44–45)

Vad är en "systemisk risk" enligt DSA?

En systemisk risk är en risk som inte bara påverkar enskilda användare, utan kan påverka samhället i stort, t.ex. demokrati, folkhälsa eller grundläggande rättigheter.

Enligt artikel 34 (generellt) och särskilt artikel 44–45 för VLOP/VLOSE ska följande risktyper bedömas:

  1. Spridning av olagligt innehåll
  • T.ex. terrorpropaganda, barnpornografi, olagligt hatbrott.
  1. Inverkan på grundläggande rättigheter
  • Yttrandefrihet, skydd av personuppgifter, icke-diskriminering, barns rättigheter m.m.
  1. Inverkan på demokratiska processer och offentlig debatt
  • Desinformation kring val, koordinerade påverkanskampanjer.
  1. Inverkan på folkhälsa, minderåriga, fysisk och psykisk hälsa
  • T.ex. spridning av antivaccinationsdesinformation, självskadeinnehåll, ätstörningsinnehåll.
  1. Inverkan kopplat till könsbaserat våld eller skydd av sårbara grupper
  • T.ex. riktade trakasserier mot minoriteter.

Krav på VLOP/VLOSE (art. 34 + 44–45)

VLOP/VLOSE måste:

  • Göra en omfattande riskbedömning minst en gång per år.
  • Dessutom vid större förändringar av tjänsten (t.ex. ny rekommendationsalgoritm).
  • Dokumentera metoder, data och resultat.
  • Ta hänsyn till:
  • Hur deras algoritmer fungerar (rekommendationssystem, rangordning, annonsering).
  • Hur designval (t.ex. gränssnitt, notiser) påverkar användarnas beteende.
  • Eventuella negativa effekter för de skyddade intressen som nämns ovan.

> Riskbedömningen är inte bara en formalitet – den är grunden för vilka riskreducerande åtgärder som sedan krävs enligt art. 45–46.

Tillämpa: Identifiera möjliga systemiska risker

Föreställ dig att du är compliance-ansvarig på en mycket stor social medieplattform (VLOP).

Plattformen har:

  • Rekommendationsflöde baserat på engagemang (likes, delningar, visningstid).
  • Möjlighet att skapa öppna grupper.
  • Annonsverktyg där annonsörer kan rikta in sig på ålder, kön, intressen.

Uppgift (reflektionsövning)

  1. Lista minst tre potentiella systemiska risker kopplade till denna plattform, utifrån DSA:s kategorier (olagligt innehåll, grundläggande rättigheter, demokrati, folkhälsa, minderåriga, sårbara grupper).
  2. För varje risk: skriv kort hur plattformens design eller algoritmer kan förstärka risken.

> Skriv gärna ned dina svar i punktform. Jämför sedan med exemplet nedan.

---

Möjlig lösning (för egen jämförelse):

  • Risk 1: Spridning av desinformation inför val
  • Engagemangsbaserat flöde kan prioritera polariserande och uppseendeväckande innehåll, vilket gör desinformation mer synlig.
  • Risk 2: Hat och trakasserier mot minoriteter
  • Öppna grupper kan bli ekokammare där hat normaliseras och sprids, särskilt om modereringen är svag.
  • Risk 3: Negativ påverkan på barns psykiska hälsa
  • Rekommendationssystemet kan föreslå mer av samma typ av innehåll (t.ex. kroppsideal, självskadeinnehåll) när en minderårig visat intresse för det.
  • Risk 4: Diskriminering genom annonsering
  • Riktad annonsering kan användas för att exkludera vissa grupper från jobberbjudanden eller bostadsannonser.

Riskreducerande åtgärder och krishantering (art. 46–47)

När riskerna är identifierade (art. 44–45) måste VLOP/VLOSE agera.

Artikel 45/46: Riskreducerande åtgärder

VLOP/VLOSE ska vidta rimliga, proportionerliga och effektiva åtgärder för att minska systemiska risker. Exempel på åtgärdskategorier:

  1. Ändringar i design och funktioner
  • Justera rekommendationssystem (t.ex. minska vikt för extremt polariserande innehåll).
  • Införa starkare standardinställningar för skydd av minderåriga.
  1. Förstärkt moderering och resurser
  • Fler moderatorer, bättre utbildning.
  • Förbättrade automatiska upptäcktsverktyg, men med mänsklig kontroll.
  1. Begränsning av vissa typer av annonsering
  • Förbjuda riktad annonsering baserad på känsliga uppgifter.
  • Begränsa annonser riktade till minderåriga.
  1. Användarverktyg och mediekunnighet
  • Lättare att rapportera olagligt innehåll.
  • Information till användare om hur rekommendationssystem fungerar.
  1. Samarbete med betrodda anmälare, faktagranskare m.m.

> Åtgärderna ska stå i rimlig proportion till riskernas art, omfattning och allvar.

Artikel 47: Krishanteringsmekanismer

DSA kräver att VLOP/VLOSE kan agera snabbt vid allvarliga kriser som kan påverkas av deras tjänster, t.ex.:

  • En pandemi (spridning av farlig medicinsk desinformation).
  • En väpnad konflikt (koordinerade påverkanskampanjer).
  • Stora naturkatastrofer (falsk information om evakueringar).

Nyckelpunkter:

  • Europeiska kommissionen kan aktivera en krismekanism för en viss händelse.
  • VLOP/VLOSE måste då:
  • Göra en snabb, riktad riskbedömning kopplad till krisen.
  • Vidta tillfälliga, nödvändiga och proportionerliga åtgärder (t.ex. lyfta fram information från myndigheter, begränsa spridning av visst innehåll).
  • Samarbeta med nationella myndigheter och krisresponsaktörer.
  • Åtgärderna ska vara tidsbegränsade och respektera grundläggande rättigheter.

Quiz: Riskhantering och kriser

Testa din förståelse av artiklarna 46–47.

Vilket av följande är ett exempel på en DSA-kompatibel riskreducerande åtgärd för en VLOP?

  1. Att helt förbjuda alla politiska diskussioner på plattformen.
  2. Att justera rekommendationsalgoritmen så att den minskar spridningen av innehåll som upprepade gånger flaggats som desinformation av betrodda anmälare, samtidigt som användarna informeras om ändringen.
  3. Att ignorera rapporter om desinformation eftersom det är upp till användarna att avgöra vad som är sant.
Show Answer

Answer: B) Att justera rekommendationsalgoritmen så att den minskar spridningen av innehåll som upprepade gånger flaggats som desinformation av betrodda anmälare, samtidigt som användarna informeras om ändringen.

Alternativ 2 visar en **proportionerlig** och **riktad** ändring i rekommendationssystemet, med transparens gentemot användarna. Alternativ 1 är överdrivet och inskränker yttrandefriheten onödigt mycket, och alternativ 3 strider mot skyldigheten att hantera systemiska risker.

Oberoende granskningar och efterlevnadsfunktioner (art. 48–49)

Artikel 48: Oberoende granskningar (audits)

VLOP/VLOSE måste genomgå minst en oberoende årlig granskning av hur de uppfyller sina skyldigheter enligt DSA, särskilt:

  • Riskbedömningar (art. 44–45)
  • Riskreducerande åtgärder (art. 46–47)
  • Transparens- och rapporteringskrav

Krav på granskningen:

  • Utförs av en oberoende och kvalificerad granskare.
  • Bygger på standarder eller bästa praxis (kommissionen kan anta mer detaljerade regler/standarder).
  • Resulterar i en granskningsrapport med:
  • Bedömning av efterlevnad.
  • Rekommendationer för förbättring.

VLOP/VLOSE måste:

  • Följa upp rekommendationerna.
  • Redovisa åtgärdsplaner.

Artikel 49: Efterlevnadsfunktioner (compliance)

VLOP/VLOSE måste ha interna strukturer för att säkerställa efterlevnad av DSA:

  • Utnämna en eller flera efterlevnadsansvariga (t.ex. Chief Compliance Officer).
  • Säkerställa att dessa personer har:
  • Tillräcklig ställning i organisationen.
  • Resurser att påverka beslut.
  • Säkerställa intern samordning mellan:
  • Juridik, policy, produktutveckling, data/AI-team, m.m.

> Poängen är att DSA inte bara kräver regler "på papperet" utan också intern styrning som gör att reglerna faktiskt följs i praktiken.

Transparens, forskaråtkomst och annonsbibliotek (art. 50–52)

Artikel 50: Transparensrapportering för VLOP/VLOSE

Utöver de allmänna transparenskraven (art. 15, 24, 42) måste VLOP/VLOSE:

  • Lämna mer detaljerade transparensrapporter, t.ex. om:
  • Riskbedömningar och vidtagna åtgärder.
  • Användning av rekommendationssystem.
  • Resultat av oberoende granskningar (i lämplig omfattning).

Artikel 51: Dataåtkomst för forskare

För att oberoende forskning ska kunna granska effekterna av VLOP/VLOSE måste dessa tjänster:

  • Ge behöriga forskare tillgång till relevant data på begäran, om:
  • Forskningen syftar till att analysera systemiska risker eller deras begränsning.
  • Forskaren uppfyller vissa kvalifikations- och etikkrav.

Dataåtkomst ska:

  • Vara säker och skydda personuppgifter (samspel med GDPR).
  • Vara proportionerlig – bara den data som behövs.
  • Ofta ske via särskilda gränssnitt eller "researcher APIs".

Myndigheter (t.ex. Digital Services Coordinators) kan hjälpa till att:

  • Bedöma forskarens kvalifikationer.
  • Lösa tvister om vilken data som ska lämnas ut.

Artikel 52: Annonsbibliotek

VLOP (och i viss mån VLOSE med annonser) måste ha ett offentligt, sökbart annonsbibliotek där man kan se t.ex.:

  • Vilka annonser som visats.
  • Vem som betalat för annonsen.
  • Vilka målgrupper som riktats in (t.ex. ålder, kön, intressen).
  • Period och kontext där annonsen visats.

Syfte:

  • Öka insynen i digital annonsering.
  • Underlätta för forskare, journalister och allmänhet att upptäcka:
  • Politisk mikromålning.
  • Diskriminerande annonspraktiker.
  • Koordinerade påverkanskampanjer.

Repetition av nyckelbegrepp

Använd korten för att repetera centrala begrepp från artiklarna 44–52.

VLOP (Very Large Online Platform)
Onlineplattform med minst 45 miljoner månatliga aktiva mottagare i EU, formellt utsedd av Europeiska kommissionen, och därmed underkastad särskilda skyldigheter i DSA kapitel III avsnitt 5.
VLOSE (Very Large Online Search Engine)
Onlinesökmotor med minst 45 miljoner månatliga aktiva mottagare i EU, utsedd av Europeiska kommissionen och omfattad av samma typ av förstärkta skyldigheter som VLOP.
Systemisk risk
En risk som påverkar samhället i stort, t.ex. grundläggande rättigheter, demokratiska processer, folkhälsa eller säkerhet, snarare än enbart enskilda användare.
Årlig riskbedömning (art. 44–45)
En återkommande, dokumenterad analys som VLOP/VLOSE måste göra av hur deras tjänster bidrar till systemiska risker, inklusive effekter av algoritmer och designval.
Riskreducerande åtgärder (art. 46)
Rimliga, proportionerliga och effektiva åtgärder som VLOP/VLOSE måste vidta för att minska identifierade systemiska risker, t.ex. ändringar i algoritmer, moderering, användarverktyg.
Krishanteringsmekanism (art. 47)
Ett särskilt förfarande där kommissionen kan kräva att VLOP/VLOSE vidtar tidsbegränsade, proportionerliga åtgärder vid allvarliga kriser, t.ex. pandemier eller krig.
Oberoende granskning (audit, art. 48)
Årlig extern granskning av hur en VLOP/VLOSE följer DSA, utförd av en oberoende, kvalificerad part, med rapport och rekommendationer.
Efterlevnadsfunktion (art. 49)
Intern struktur och ansvariga personer (t.ex. compliance officer) inom VLOP/VLOSE som säkerställer att DSA-kraven implementeras och följs.
Dataåtkomst för forskare (art. 51)
Skyldighet för VLOP/VLOSE att ge behöriga forskare tillgång till nödvändig data för att studera systemiska risker, med respekt för GDPR och säkerhet.
Annonsbibliotek (art. 52)
Offentligt, sökbart register över annonser på VLOP (och i vissa fall VLOSE) med information om annonsör, målgrupp, visningsperiod m.m., för ökad transparens.

Key Terms

VLOP
Very Large Online Platform – mycket stor onlineplattform med minst 45 miljoner månatliga aktiva mottagare i EU, utsedd av Europeiska kommissionen.
VLOSE
Very Large Online Search Engine – mycket stor onlinesökmotor med minst 45 miljoner månatliga aktiva mottagare i EU, utsedd av Europeiska kommissionen.
Krishantering
Särskilda procedurer för att snabbt hantera risker vid allvarliga samhällskriser, i samarbete med myndigheter.
Riskbedömning
Strukturerad analys av vilka risker en tjänst skapar eller förstärker, och hur allvarliga de är.
Systemisk risk
Risk som kan få omfattande samhälleliga konsekvenser, t.ex. för demokrati, grundläggande rättigheter eller folkhälsa.
Annonsbibliotek
Offentligt arkiv över annonser som visar vem som annonserat, mot vilka målgrupper och när annonserna visades.
Dataåtkomst för forskare
Möjlighet för kvalificerade forskare att få tillgång till plattformsdata för att studera t.ex. desinformation eller påverkan på demokrati.
Riskreducerande åtgärder
Konkreta åtgärder för att minska identifierade risker, t.ex. justering av algoritmer eller modereringspraxis.
Oberoende granskning (audit)
Extern, professionell genomgång av hur väl en aktör följer lagstiftning eller standarder.
Efterlevnadsfunktion (compliance)
Organisatorisk funktion som säkerställer att företaget följer relevanta lagar och regler.