Post 1 av 5117 träffar
Föregående
·
En åldersgräns till skydd för barns hälsa och trygghet i digitala miljöer, Dir. 2025:91
Departement: Socialdepartementet
Beslut: 2025-10-09
Dir.2025:91
Kommittédirektiv
En åldersgräns till skydd för barns hälsa och trygghet i
digitala miljöer
Beslut vid regeringssammanträde den 9 oktober 2025.
Sammanfattning
En särskild utredare ska bl.a. analysera förutsättningarna för
att införa en åldersgräns för barns användning av sociala
medier. Syftet är att stärka skyddet för barns hälsa och
trygghet i digitala miljöer.
Utredaren ska bl.a.
* analysera förutsättningarna för att införa en åldersgräns i
Sverige för barns användning av sociala medier,
* analysera och ta ställning till om det, med hänsyn tagen
till grundläggande fri- och rättigheter, bör införas en
åldersgräns för barns användning av sociala medier, och om
möjligt föreslå en sådan åldersgräns
* om det inte bedöms möjligt att lämna förslag på en
åldersgräns för sociala medier, analysera förutsättningarna
för att höja åldern för när barn kan lämna samtycke till att
deras personuppgifter behandlas för informationssamhällets
tjänster och lämna sådana författningsförslag,
följa det arbete med åldersverifiering som initierats inom EU.
* Den del av uppdraget som avser förslag på en åldersgräns för
användning av sociala medier eller höjd ålder för när barn kan
lämna samtycke till att deras personuppgifter behandlas för
informationssamhällets tjänster ska redovisas senast den 12
juni 2026. Övriga delar av uppdraget ska redovisas senast den
14 november 2026.
Uppdraget att analysera förutsättningarna för att införa en
åldersgräns i Sverige för barns användning av sociala medier
Nuvarande reglering av åldersgränser i digitala miljöer
När informationssamhällets tjänster erbjuds direkt till ett
barn, ska behandling av personuppgifter som rör barnet vara
tillåten om barnet är minst 16 år. Om barnet är under 16 år
ska sådan behandling vara tillåten endast om och i den mån
samtycke ges eller godkänns av den person som har
föräldraansvar för barnet. Medlemsstaterna får i sin
nationella rätt föreskriva en lägre ålder i detta syfte, under
förutsättning att denna lägre ålder inte är under 13 år. Detta
framgår av artikel 6.1 a och 8 i EU:s dataskyddsförordning.
Sverige har valt att föreskriva en åldersgräns på 13 år för
när behandling av personuppgifter är tillåten med stöd av
barnets samtycke vid erbjudande av informationssamhällets
tjänster direkt till ett barn (2 kap. 4 § lagen [2018:218] med
kompletterande bestämmelser till EU:s dataskyddsförordning
(förkortad dataskyddslagen) och prop. 2017/18:105 s. 64). Om
barnet är under 13 år, är sådan behandling tillåten endast om
samtycke ges eller godkänns av den som har föräldraansvar för
barnet. När åldersgränsen om 13 år föreslogs, framhölls i
propositionen att tillgången till information via söktjänster
och deltagandet i olika onlineaktiviteter har stor social
betydelse för barn och unga. Vidare framhölls att barn och
unga, genom olika tjänster på internet, kan ta del av
information, bilda sin egen åsikt och förmedla sina tankar på
ett enkelt sätt och därigenom utöva flera av de fri- och
rättigheter som kommer till uttryck i FN:s konvention om
barnets rättigheter (barnkonventionen). Det bedömdes vid
tidpunkten för förslaget finnas tillräckliga skyddsmekanismer
för att skydda barn både i dataskyddsregleringen och inom
marknadsrätten. Samtidigt angavs att det kan finnas anledning
att vid behov återkomma till frågan och i framtiden utvärdera
konsekvenserna av den reglerade åldersgränsen (prop.
2017/18:105 s. 71–73).
Den digitala miljön har förändrats och barn och unga kan
påverkas negativt
Digitala tjänsters utformning har utvecklats i hög takt och
sedan EU:s dataskyddsförordning trädde i kraft har både
tjänsterna som erbjuds och användningen av dessa delvis
förändrats. Samtidigt som digitala medier skapar nya ytor för
social interaktion och det finns positiva aspekter av ungas
medieanvändning är tiden barn tillbringar med digitala medier
i dag mycket omfattande och i synnerhet läggs mycket tid på
sociala medier. I Mediemyndighetens enkät Ungar och Medier
(2023) framgår att 91?procent av barn och unga (13–18 år)
använder sociala medier dagligen. Bland barn i den yngre
åldersgruppen 9–12 år är omkring 51 procent dagliga användare.
Detta är särskilt uppseendeväckande i ljuset av den
13-årsgräns som beskrivits ovan. I enkäten framgår även att
cirka 50?procent av tonåringarna själva anser att de använder
mobilen för mycket, och att det leder till att de inte gör
andra saker de borde, som t.ex. läxor och gå och lägga sig.
Därtill framgår i enkätstudien Skolbarns hälsovanor (2021/22)
att 7–12?procent av flickor och 4–6?procent av pojkar har
symptom på problematisk användning av sociala medier –
liknande ett beroende. Det är vanligare att unga med
funktionsnedsättning har en intensiv användning av
elektroniska medier och problematisk användning av sociala
medier jämfört med andra unga. Vidare framgår av Statens
skolinspektions granskning Läsfrämjande arbete i grundskolan
(2022) t.ex. att digitala verktyg kan påverka elevernas
inlärning och studiero, exempelvis genom att elever och
skolpersonal blir distraherade av push-notiser. De digitala
enheterna används främst till skolarbete, men även till annat
än skolarbete (U2024/01728). I den internationella studien
Pisa 2022 uppgav omkring 70 procent av eleverna att de varje
dag använder digitala enheter till annat än skolarbete under
skoltid.
Även digitala tjänsters innehåll och olika funktioner kan vara
både olämpliga och direkt skadliga och leda till negativa
effekter för barns hälsa och välbefinnande. Riskerna kan
handla om att barn exponeras för våldsamt eller sexualiserat
material, gromning, förnedrande praktiker eller psykiskt våld.
Unga med neuropsykiatriska funktionsnedsättningar är mer
utsatta för negativa konsekvenser, i form av t.ex. nätmobbning
och gromning. Av barn i åldern 9–12 år har 15 procent också
sett obehagliga bilder på t.ex. döda människor från krig,
olyckor eller skjutningar i sina sociala medier. Även
pornografiskt material som kan innehålla våldsamma och
förnedrande praktiker som barn inte bör ta del av är i dag
lätt tillgängligt via vissa digitala plattformar. I studien
Unga, sex och internet efter #metoo (Svedin m.fl. 2021)
framkom att bland de svarande hade 90 procent av pojkarna, 60
procent av flickorna och 84 procent av de som inte definierar
sig som pojke eller flicka tittat på pornografi. Ytterligare
en risk är att sociala medier i dag utgör en växande arena där
unga riskerar att rekryteras in i kriminella nätverk.
Forskning visar också ett tydligt samband mellan omfattande
skärmanvändning och ökad psykisk ohälsa hos unga. Omfattande
skärmtid kan leda till passivitet genom att det stimulerar ett
mer stillasittande liv och tränger undan sådant som är
avgörande för barns psykiska och fysiska hälsa – som fysisk
aktivitet, sömn och fysiska sociala relationer. Forskning
visar också att små barn (under fem år) som använder skärmar
mycket kan få sämre sömn och ökad aggressivitet. Visst
innehåll i sociala medier kan också bidra till en osund
jämförelsekultur med idealiserade och ofta redigerade bilder
av andras liv, utseende och prestationer vilket kan leda till
försämrad självkänsla och orealistiska förväntningar på hur
man ska se ut och leva. Omfattande skärmtid kan också få
negativ effekt på kunskapsresultaten i skolan. Av Statens
skolinspektions tematiska tillsyn Användning av mobiltelefoner
och annan elektronisk kommunikationsutrustning i
undervisningen framgår också att många elever ägnar sig åt en
stor bredd av otillåtna aktiviteter på digitala enheter som
skolan tillhandahåller, däribland till att använda sociala
medier.
En förklaring till att användningen av sociala medier är
omfattande kan vara den förändring som skett i hur dessa
tjänster i dag är utformade, t.ex. att innehållet delvis har
skiftat från social interaktion mellan användare till alltmer
algoritmstyrda flöden och en design som stimulerar ökad
användning och beroendeframkallande mekanismer, för att driva
engagemang och annonsintäkter. Sociala medier använder
tekniker för att hålla kvar användaren så länge som möjligt,
såsom endless scroll, notiser, gillamarkeringar och
belöningssystem. Detta är funktioner som kan trigga hjärnans
belöningscentrum – särskilt hos barn med ännu inte fullt
utvecklad impulskontroll. Algoritmer förstärker detta genom
att anpassa innehållet efter vad användaren interagerar mest
med, vilket skapar en loop eller spiral som kan leda till
överanvändning, beroendeliknande beteenden och att användaren
leds in i mer extremt innehåll över tid.
Regeringen har vidtagit åtgärder
Regeringen har vidtagit ett flertal åtgärder för att öka
skyddet för barn och unga i de digitala miljöerna.
Folkhälsomyndigheten har t.ex. på regeringens uppdrag tagit
fram åldersanspassad vägledning och rekommendationer för
digital medieanvändning för barn och unga (S2023/01669), där
myndigheten bl.a. rekommenderar att barn ska undvika appar som
styrs av algoritmer. Regeringen har även gett Mediemyndigheten
i uppdrag att genomföra en nationell satsning för stärkt
medie- och informationskunnighet i en tid av artificiell
intelligens och desinformation (Ku2024/00419). I tillägg till
detta uppdrag har myndigheten fått i uppdrag att ytterligare
fördjupa arbetet med särskilt fokus på de möjligheter och
risker som AI kan medföra. I departementspromemorian Ett
nationellt mobilförbud i de obligatoriska skolformerna och
fritidshemmet (Ds 2025:9) lämnas förslag på ett nationellt
mobilförbud på skoltid i de obligatoriska skolformerna och
fritidshemmet och att det ska bli obligatoriskt att samla in
elevers mobiltelefoner under hela skoldagen. Promemorian
bereds för närvarande i Regeringskansliet.
Andra länder överväger eller har infört åldersgränser för
sociala medier
Andra länder har infört eller planerar att införa regleringar
för barns användande av sociala medier. I Frankrike har man
t.ex. beslutat att barn under 15 år inte får skapa konton på
sociala medier utan förälders samtycke. I Spanien planerar man
att höja den ”digitala myndighetsåldern” till 16 år och i
Australien har man nyligen antagit lagen ”the Online Safety
Amendment (Social Media Minimum Age) Bill 2024”. Lagen
förbjuder barn under 16 år att ha konton på Tiktok, Instagram,
Facebook, Snapchat, Reddit och X. Enligt lagen är det inte
heller tillåtet för den som har föräldraansvaret för barnet
att ge samtycke – barn under 16 år får inte använda dessa
plattformar alls. Tjänster med syfte för utbildning eller
hälsa, t.ex. Youtube Kids, Google Classroom och Messenger
Kids, omfattas inte av lagen.
Det finns behov av att utreda förutsättningarna för en
åldersgräns för barns användning av sociala medier
Utifrån sociala mediers utformning i dag och den kunskap som
numera finns om de negativa effekter användningen av sociala
medier kan medföra för barns hälsa, säkerhet och trygghet,
kunskapsresultat i skolan samt de initiativ som tagits i andra
länder finns anledning att även i Sverige se över
förutsättningarna för att införa en åldersgräns för barns
användning av sociala medier, eller, om det inte bedöms
möjligt, analysera förutsättningarna för att höja den
befintliga åldersgränsen för barns möjligheter att ta del av
informationssamhällets tjänster (2 kap. 4 § dataskyddslagen).
I valet av ålder bör den internationella utvecklingen och
behovet av skydd för barns fri- och rättigheter särskilt
beaktas.
Utgångspunkter för uppdraget
Begreppen informationssamhällets tjänster och sociala medier
Med informationssamhällets tjänster avses tjänster som
vanligtvis utförs mot ersättning på distans, på elektronisk
väg och på individuell begäran av en tjänstemottagare (se
artikel 4.25 i EU:s dataskyddsförordning och artikel 1.1 b i
direktiv 2015/1535). Det finns ingen vedertagen definition av
begreppet sociala medier men tjänster som t.ex. Tiktok,
Instagram, Youtube och Snapchat brukar omnämnas som sociala
medier. Sociala funktioner såsom chattar förekommer även i
spelplattformar, såsom Roblox. Enligt AV-direktivet kan
sociala medier omfattas av begreppet videodelningsplattformar.
Videodelningsplattformar omfattas i sin tur av begreppet
onlineplattformar enligt Europaparlamentets och rådets
förordning (EU) 2022/2065 av den 19 oktober 2022 om en inre
marknad för digitala tjänster (Digital Services Act, DSA).
Dessa plattformar möjliggör att användare publicerar, sprider
och interagerar med innehåll som kan nå en bred allmänhet.
Tjänster som Tiktok, Instagram, Youtube och Snapchat men även
videodelningsplattformar för spridning av pornografi omfattas
därmed av AV-direktivets och DSA:s regler för användarskydd.
För att en åldersgräns ska få avsedd effekt är det centralt
att definiera vilka av informationssamhällets tjänster som
innebär en risk för barn och som ska omfattas av en
åldersgräns. Utredaren bör i sitt arbete utgå från hur
begreppet sociala medier används i dag.
Rättsliga aspekter att beakta i förhållande till nya och
ändrade åldersgränser
Åldersgränser väcker frågor om dels skyddet av barns hälsa och
välbefinnande, dels barns rätt till information och uttryck.
Flera artiklar i barnkonventionen slår fast att barn har rätt
att skyddas från risker och skadliga upplevelser – även på
nätet. Artikel 19 lyfter t.ex. barns rätt att skyddas mot alla
former av våld, övergrepp och utnyttjande, även psykiskt våld
– vilket kan inkludera nätmobbning, gromning och skadligt
innehåll. I barnkonventionen anges också att
konventionsstaterna ska tillförsäkra det barn som är i stånd
att bilda egna åsikter rätten att fritt uttrycka dessa i alla
frågor som rör barnet och att barnets åsikter ska tillmätas
betydelse i förhållande till barnets ålder och mognad.
Samtidigt som barnet har rätt till yttrande- och
informationsfrihet behöver det finnas ett skydd för barnet när
dess personuppgifter behandlas. Vid avvägningen måste också
hänsyn tas till barnets rätt till integritet. Ju äldre barnet
blir, desto mindre blir dess behov av skydd och desto större
tyngd ska tillmätas rätten till yttrande- och
informationsfrihet. Sedan den 1 januari 2020 gäller
barnkonventionen som svensk lag (lagen [2018:1197] om Förenta
nationernas konvention om barnets rättigheter).
Enligt yttrandefrihetsgrundlagen (YGL) är var och en gentemot
det allmänna tillförsäkrad rätt att i bl.a. ljudradio, tv och
andra tekniska upptagningar offentligen uttrycka tankar,
åsikter och känslor och i övrigt lämna uppgifter i vilket ämne
som helst. Webbplatser på internet kan under vissa
förutsättningar ha grundlagsskydd (1 kap. 4 § YGL). De
webbsidor som omfattas av skyddet är både sådana som
tillhandahålls av mer traditionella massmedieföretag och
sådana som tillhandahålls av andra aktörer som har s.k.
frivilligt grundlagsskydd (utgivningsbevis för en databas).
Yttrandefrihetsgrundlagen bygger på ett antal grundprinciper.
För framställningar på webbsidor som omfattas av
yttrandefrihetsgrundlagen gäller t.ex. ett generellt förbud
mot censur (förhandsgranskning). Andra åtgärder som innebär
förbud eller hinder mot framställning, offentliggörande eller
spridning av program eller upptagningar på grund av
innehållet, får inte heller vidtas av det allmänna, om det
inte finns stöd för åtgärderna i yttrandefrihetsgrundlagen.
Ett tvingande krav på åldersverifiering, vilket i praktiken
skulle innebära ett förbud mot överföringar från en webbsida
till en viss grupp, kan komma i konflikt med dessa
grundprinciper.
Enligt regeringsformen (RF) är var och en gentemot det
allmänna tillförsäkrad yttrandefrihet: frihet att i tal,
skrift eller bild eller på annat sätt meddela upplysningar
samt uttrycka tankar, åsikter och känslor. På samma sätt är
var och en tillförsäkrad informationsfrihet: frihet att
inhämta och ta emot upplysningar samt att i övrigt ta del av
andras yttranden. Ett likartat skydd följer av artikel 10 i
den europeiska konventionen angående skydd för de mänskliga
rättigheterna och de grundläggande friheterna (EKMR).
Yttrande- och informationsfriheterna i RF och EKMR får
begränsas genom lag, men endast om vissa angivna
förutsättningar är uppfyllda. Begränsningar i dessa friheter
måste bl.a. alltid vara proportionerliga och får inte gå
utöver vad som är nödvändigt med hänsyn till ändamålet.
Begränsningar av barns och ungas möjligheter att ta del av
innehåll på sociala medier alternativt informationssamhällets
tjänster, kan utgöra en begränsning av yttrande- och
informationsfriheterna. Det måste säkerställas att de
överväganden som görs och att de förslag som lämnas på
begränsningar av barns och ungas möjligheter att ta del av
innehåll på sociala medier, alternativt informationssamhällets
tjänster, är förenliga med grundlagarna, EKMR, EU-rätten och
Sveriges andra internationella åtaganden. Syftet med
utredningen är att stärka skyddet för barns och ungas hälsa,
välmående och trygghet i den digitala miljön utan att
inskränka deras rätt till yttrande- och informationsfrihet mer
än nödvändigt.
Därutöver måste även förhållandet till EU:s
dataskyddsförordning och dataskyddslagen samt övrig
dataskyddsreglering av relevans beaktas.
Utredaren ska därför
* analysera förutsättningarna för att införa en åldersgräns i
Sverige för barns användning av sociala medier,
* analysera och ta ställning till om det, med hänsyn tagen
till grundläggande fri- och rättigheter, bör införas en
åldersgräns för barns användning av sociala medier, och om
möjligt föreslå en sådan åldersgräns
om det inte bedöms möjligt att lämna förslag på en åldersgräns
för sociala medier, analysera förutsättningarna för att höja
åldern för när barn kan lämna samtycke till att deras
personuppgifter behandlas för informationssamhällets tjänster,
och lämna sådana författningsförslag,
* analysera förutsättningarna för att begränsa möjligheten för
den som har föräldraansvar att lämna samtycke för barnets
användning av sociala medier eller informationssamhällets
tjänster, och om det bedöms möjligt lämna sådana förslag och,
* lämna nödvändiga författningsförslag.
Det ingår inte i uppdraget att överväga eller föreslå
grundlagsändringar.
Uppdraget att följa arbetet med åldersverifiering på EU-nivå
Åtgärder på EU-nivå med att skydda barn i digitala miljöer är
avgörande. Det beror till stor del på att de plattformar som i
stor utsträckning kommer att beröras av en åldersgräns för
användning av sociala medier i Sverige, t.ex. Tiktok, Snapchat
och Instagram inte är etablerade i Sverige och därför inte
lyder under svensk jurisdiktion. Arbetet som pågår på EU-nivå
med skydd av minderåriga och initiativen som ska göra det
möjligt för plattformar att använda åldersverifiering behöver
därför följas. Det gäller bl.a. de tekniska lösningar som är
under utveckling med en särskild app för åldersverifiering och
en europeisk digital identitet som möjliggör säker
åldersverifiering.
Krav på plattformar för att skydda minderåriga
Förordningen om en inre marknad för digitala tjänster (DSA)
har varit i kraft sedan februari 2024. DSA innehåller bl.a.
krav på att leverantörer av onlineplattformar som är
tillgängliga för minderåriga, dvs. personer under 18 år, ska
införa åtgärder för att säkerställa en hög nivå av integritet,
säkerhet och trygghet för minderåriga (artikel 28). Enligt
artikel 34 ska leverantörer av mycket stora onlineplattformar
och onlinesökmotorer också bedöma vilka risker deras
verksamheter innebär utifrån en rad olika aspekter, varav en
är negativa effekter för minderåriga. EU-kommissionen har
tagit fram riktlinjer för att stödja plattformar som är
tillgängliga för minderåriga när det gäller att uppfylla
kraven i artikel 28 i DSA. I riktlinjerna rekommenderas
leverantörerna av plattformarna att använda ålderskontroller,
i form av bl.a. åldersverifiering, om de bedömer att deras
tjänster kan innebära risker för barns och ungas trygghet och
säkerhet online. Rekommendationen gäller under förutsättning
att metoderna för ålderssäkring är korrekta, tillförlitliga,
robusta, icke-påträngande och icke-diskriminerande.
Plattformarna bör säkerställa att de åtgärder de vidtar inte
på ett oproportionerligt eller otillbörligt sätt begränsar
barns rättigheter. EU-kommissionen kommer att använda
riktlinjerna för att bedöma efterlevnaden av artikel 28 DSA.
Det är dock frivilligt för en plattformsleverantör att följa
riktlinjerna. Mediemyndigheten är tillsynsmyndighet för att se
till att kraven i artikel 28 är uppfyllda vad gäller svenska
aktörer. Leverantörer av mycket stora onlineplattformar och
onlinesökmotorer faller dock i första hand under
EU-kommissionens tillsynsansvar.
Utöver DSA finns även AV-direktivet som reglerar audiovisuella
medietjänster (tv och beställ-tv) och videodelningsplattformar
(t.ex. Youtube och Instagram). AV-direktivet kräver bl.a. att
medlemsländerna ser till att videodelningsplattformar under
deras jurisdiktion skyddar minderåriga från innehåll som kan
skada deras fysiska, mentala eller moraliska utveckling.
AV-direktivet är till största del genomfört i svensk rätt
genom radio- och tv-lagen (2010:696) och Mediemyndigheten är
tillsynsmyndighet för plattformar under svensk jurisdiktion.
Åldersverifiering för att säkerställa att åldersgränser följs
Åldersgränser kan utgöra ett visst skydd för barn och unga i
förhållande till användning av olika digitala tjänster. Vissa
sociala medieplattformar, t.ex. Instagram och Tiktok, har egna
åldersgränser eller åldersrekommendationer för användandet av
deras tjänster. Åldersgränsen är ofta 13 år och beror framför
allt på att det enligt amerikansk rätt (Children’s Online
Privacy Protection Act, COPPA) är förbjudet för företag att
samla in personuppgifter från barn under 13 år utan föräldrars
samtycke. Eftersom många digitala plattformar har sina servrar
och sin juridiska bas i USA, anpassar de sina tjänster globalt
efter COPPA – även i länder där andra regler gäller. En
förutsättning för att åldersgränser ska utgöra ett skydd är
att de efterlevs. Ett sätt att säkerställa att åldersgränser
följs kan vara att en social medieplattform väljer att använda
åldersverifiering. Åldersverifiering är en process för att
säkerställa att en användare uppfyller en viss åldersgräns
innan den får tillgång till en tjänst, produkt eller ett
digitalt innehåll. Åldersverifiering är inte detsamma som
identifiering. Tjänster som utvecklas för integritetsbevarande
åldersverifiering ska endast verifiera att personen i fråga
har uppnått rätt ålder för att använda den aktuella tjänsten.
En sådan tjänst ska alltså inte innebära att inhämta uppgifter
om personens identitet och därmed få kännedom om vilken person
som använder vilken tjänst.
Inom ramarna för DSA har en teknisk lösning (app) avsedd för
integritetsbevarande åldersverifiering presenterats i juni
2025. Appen är ett övergripande tekniskt ramverk,
anpassningsbart för varje enskild medlemsstats nationella
förutsättningar. Syftet med det tekniska ramverket är att göra
det möjligt för användare av webbtjänster att bevisa sin ålder
genom att presentera ett elektroniskt intyg via en särskild
applikation (white label app) på ett integritetsbevarande sätt
för att få åtkomst till åldersbegränsat innehåll. Appen är
primärt tänkt att användas vid verifiering av ålder för
onlinetjänster som erbjuder åldersbegränsat innehåll eller
tjänster, t.ex. pornografiskt eller våldsamt material, spel om
pengar samt köp av åldersbegränsade produkter (alkohol och
tobak), och kommer därför att vara programmerad för en
åldersgräns på 18 år. Appen är inte tvingande för
plattformsleverantörer att använda, men kan vara ett sätt för
leverantörerna att uppfylla kraven i DSA.
Inom EU pågår också arbete med anpassningar till de nya
bestämmelserna i Europaparlamentets och rådets förordning (EU)
2014/1183 av den 11 april 2024 om ändring av förordning (EU)
nr 910/2014 vad gäller inrättandet av ett europeiskt ramverk
för digital identitet. Anpassningarna innebär bl.a. att
medlemsländerna ska tillhandahålla så kallade europeiska
digitala plånböcker som ska göra det möjligt för fysiska och
juridiska personer att på ett säkert sätt dela, begära och
kombinera identitetsuppgifter till förlitande part. Användare
av digitala plånböcker ska på ett smidigt sätt kunna dela med
sig av information om vem de är, exempelvis ska de kunna
bekräfta sin ålder. Arbetet med identitetsplånboken kan ha
bäring på arbetet med åldersverifiering genom de tekniska
lösningar som kommer att finnas till hands genom EU-plånboken.
Utredaren ska därför
* följa det arbete med åldersverifiering som initierats av EU,
* analysera de rättsliga skyldigheter som finns för skydd av
minderåriga i bl.a. AV-direktivet och DSA samt hur
plattformsleverantörernas lösningar för åldersverifiering
förhåller sig till dessa skyldigheter, och
* analysera hur de förslag som lämnas av utredningen gällande
en svensk åldersgräns kan fungera tillsammans med de åtgärder
för åldersverifiering som planeras inom EU och i Sverige.
Kostnadsberäkningar och andra konsekvensbeskrivningar
Utredaren ska redogöra för förslagens konsekvenser i enlighet
med förordningen (2024:183) om konsekvensutredningar.
Utredaren ska beskriva och beräkna förslagens
samhällsekonomiska och offentligfinansiella effekter samt
kvantifiera och värdera dessa. Om förslagen medför
kostnadsökningar för staten, regionerna eller kommunerna, ska
utredaren föreslå hur dessa ska finansieras enligt 15 §
kommittéförordningen (1998:1474). Utredaren ska därtill
särskilt redogöra för förslagens konsekvenser för barns hälsa,
trygghet och kunskapsutveckling i de digitala miljöerna.
Utredaren ska också redogöra för förslagens konsekvenser för
jämställdheten, med fokus på de jämställdhetspolitiska
delmålen jämställd hälsa och att mäns våld mot kvinnor ska
upphöra.
Utredaren ska analysera samtliga frågeställningar med
utgångspunkt i folkhälsopolitiken och mediepolitiken. Där så
är relevant ska även utbildningspolitiken beaktas. Utredaren
ska säkerställa att de analyser och förslag som lämnas är
förenliga med grundlagarna, EU-rättsliga krav, EKMR, FN:s
konvention om barnets rättigheter (barnkonventionen) och FN:s
konvention om rättigheter för personer med
funktionsnedsättning samt Sveriges andra internationella
åtaganden. Viktiga ställningstaganden som har gjorts vid
utformningen av förslagen ska beskrivas liksom alternativa
lösningar som övervägts samt skälen till att de har valts bort.
Arbetets genomförande, kontakter och redovisning av uppdraget
Utredaren ska hålla sig informerad om och beakta relevant
arbete som bedrivs inom utredningsväsendet och inom EU, samt
ta del av internationella erfarenheter i de aktuella frågorna,
särskilt från länder inom EU. Framför allt bör utredaren
beakta det arbete som görs i Grekland, Norge, Spanien,
Frankrike och Australien. Utredaren ska genomgående beakta ett
barnperspektiv. Utredaren ska inhämta synpunkter från berörda
myndigheter och, i den utsträckning det är lämpligt, även från
organisationer och företag.
* Den del av uppdraget som avser förslag på en åldersgräns för
användning av sociala medier eller höjd ålder för när barn kan
lämna samtycke till att deras personuppgifter behandlas för
informationssamhällets tjänster ska redovisas senast den 12
juni 2026. Övriga delar av uppdraget ska redovisas senast den
14 november 2026.