Regeringskansliets rättsdatabaser

Regeringskansliets rättsdatabaser innehåller lagar, förordningar, kommittédirektiv och kommittéregistret.

Testa betasidan för Regeringskansliets rättsdatabaser

Söker du efter lagar och förordningar? Testa gärna betasidan för den nya webbplatsen för Regeringskansliets rättsdatabaser.

Klicka här för att komma dit

 
Post 1 av 5117 träffar
Föregående
·
En åldersgräns till skydd för barns hälsa och trygghet i digitala miljöer, Dir. 2025:91
Departement: Socialdepartementet
Beslut: 2025-10-09
Dir.2025:91 Kommittédirektiv En åldersgräns till skydd för barns hälsa och trygghet i digitala miljöer Beslut vid regeringssammanträde den 9 oktober 2025. Sammanfattning En särskild utredare ska bl.a. analysera förutsättningarna för att införa en åldersgräns för barns användning av sociala medier. Syftet är att stärka skyddet för barns hälsa och trygghet i digitala miljöer. Utredaren ska bl.a. * analysera förutsättningarna för att införa en åldersgräns i Sverige för barns användning av sociala medier, * analysera och ta ställning till om det, med hänsyn tagen till grundläggande fri- och rättigheter, bör införas en åldersgräns för barns användning av sociala medier, och om möjligt föreslå en sådan åldersgräns * om det inte bedöms möjligt att lämna förslag på en åldersgräns för sociala medier, analysera förutsättningarna för att höja åldern för när barn kan lämna samtycke till att deras personuppgifter behandlas för informationssamhällets tjänster och lämna sådana författningsförslag, följa det arbete med åldersverifiering som initierats inom EU. * Den del av uppdraget som avser förslag på en åldersgräns för användning av sociala medier eller höjd ålder för när barn kan lämna samtycke till att deras personuppgifter behandlas för informationssamhällets tjänster ska redovisas senast den 12 juni 2026. Övriga delar av uppdraget ska redovisas senast den 14 november 2026. Uppdraget att analysera förutsättningarna för att införa en åldersgräns i Sverige för barns användning av sociala medier Nuvarande reglering av åldersgränser i digitala miljöer När informationssamhällets tjänster erbjuds direkt till ett barn, ska behandling av personuppgifter som rör barnet vara tillåten om barnet är minst 16 år. Om barnet är under 16 år ska sådan behandling vara tillåten endast om och i den mån samtycke ges eller godkänns av den person som har föräldraansvar för barnet. Medlemsstaterna får i sin nationella rätt föreskriva en lägre ålder i detta syfte, under förutsättning att denna lägre ålder inte är under 13 år. Detta framgår av artikel 6.1 a och 8 i EU:s dataskyddsförordning. Sverige har valt att föreskriva en åldersgräns på 13 år för när behandling av personuppgifter är tillåten med stöd av barnets samtycke vid erbjudande av informationssamhällets tjänster direkt till ett barn (2 kap. 4 § lagen [2018:218] med kompletterande bestämmelser till EU:s dataskyddsförordning (förkortad dataskyddslagen) och prop. 2017/18:105 s. 64). Om barnet är under 13 år, är sådan behandling tillåten endast om samtycke ges eller godkänns av den som har föräldraansvar för barnet. När åldersgränsen om 13 år föreslogs, framhölls i propositionen att tillgången till information via söktjänster och deltagandet i olika onlineaktiviteter har stor social betydelse för barn och unga. Vidare framhölls att barn och unga, genom olika tjänster på internet, kan ta del av information, bilda sin egen åsikt och förmedla sina tankar på ett enkelt sätt och därigenom utöva flera av de fri- och rättigheter som kommer till uttryck i FN:s konvention om barnets rättigheter (barnkonventionen). Det bedömdes vid tidpunkten för förslaget finnas tillräckliga skyddsmekanismer för att skydda barn både i dataskyddsregleringen och inom marknadsrätten. Samtidigt angavs att det kan finnas anledning att vid behov återkomma till frågan och i framtiden utvärdera konsekvenserna av den reglerade åldersgränsen (prop. 2017/18:105 s. 71–73). Den digitala miljön har förändrats och barn och unga kan påverkas negativt Digitala tjänsters utformning har utvecklats i hög takt och sedan EU:s dataskyddsförordning trädde i kraft har både tjänsterna som erbjuds och användningen av dessa delvis förändrats. Samtidigt som digitala medier skapar nya ytor för social interaktion och det finns positiva aspekter av ungas medieanvändning är tiden barn tillbringar med digitala medier i dag mycket omfattande och i synnerhet läggs mycket tid på sociala medier. I Mediemyndighetens enkät Ungar och Medier (2023) framgår att 91?procent av barn och unga (13–18 år) använder sociala medier dagligen. Bland barn i den yngre åldersgruppen 9–12 år är omkring 51 procent dagliga användare. Detta är särskilt uppseendeväckande i ljuset av den 13-årsgräns som beskrivits ovan. I enkäten framgår även att cirka 50?procent av tonåringarna själva anser att de använder mobilen för mycket, och att det leder till att de inte gör andra saker de borde, som t.ex. läxor och gå och lägga sig. Därtill framgår i enkätstudien Skolbarns hälsovanor (2021/22) att 7–12?procent av flickor och 4–6?procent av pojkar har symptom på problematisk användning av sociala medier – liknande ett beroende. Det är vanligare att unga med funktionsnedsättning har en intensiv användning av elektroniska medier och problematisk användning av sociala medier jämfört med andra unga. Vidare framgår av Statens skolinspektions granskning Läsfrämjande arbete i grundskolan (2022) t.ex. att digitala verktyg kan påverka elevernas inlärning och studiero, exempelvis genom att elever och skolpersonal blir distraherade av push-notiser. De digitala enheterna används främst till skolarbete, men även till annat än skolarbete (U2024/01728). I den internationella studien Pisa 2022 uppgav omkring 70 procent av eleverna att de varje dag använder digitala enheter till annat än skolarbete under skoltid. Även digitala tjänsters innehåll och olika funktioner kan vara både olämpliga och direkt skadliga och leda till negativa effekter för barns hälsa och välbefinnande. Riskerna kan handla om att barn exponeras för våldsamt eller sexualiserat material, gromning, förnedrande praktiker eller psykiskt våld. Unga med neuropsykiatriska funktionsnedsättningar är mer utsatta för negativa konsekvenser, i form av t.ex. nätmobbning och gromning. Av barn i åldern 9–12 år har 15 procent också sett obehagliga bilder på t.ex. döda människor från krig, olyckor eller skjutningar i sina sociala medier. Även pornografiskt material som kan innehålla våldsamma och förnedrande praktiker som barn inte bör ta del av är i dag lätt tillgängligt via vissa digitala plattformar. I studien Unga, sex och internet efter #metoo (Svedin m.fl. 2021) framkom att bland de svarande hade 90 procent av pojkarna, 60 procent av flickorna och 84 procent av de som inte definierar sig som pojke eller flicka tittat på pornografi. Ytterligare en risk är att sociala medier i dag utgör en växande arena där unga riskerar att rekryteras in i kriminella nätverk. Forskning visar också ett tydligt samband mellan omfattande skärmanvändning och ökad psykisk ohälsa hos unga. Omfattande skärmtid kan leda till passivitet genom att det stimulerar ett mer stillasittande liv och tränger undan sådant som är avgörande för barns psykiska och fysiska hälsa – som fysisk aktivitet, sömn och fysiska sociala relationer. Forskning visar också att små barn (under fem år) som använder skärmar mycket kan få sämre sömn och ökad aggressivitet. Visst innehåll i sociala medier kan också bidra till en osund jämförelsekultur med idealiserade och ofta redigerade bilder av andras liv, utseende och prestationer vilket kan leda till försämrad självkänsla och orealistiska förväntningar på hur man ska se ut och leva. Omfattande skärmtid kan också få negativ effekt på kunskapsresultaten i skolan. Av Statens skolinspektions tematiska tillsyn Användning av mobiltelefoner och annan elektronisk kommunikationsutrustning i undervisningen framgår också att många elever ägnar sig åt en stor bredd av otillåtna aktiviteter på digitala enheter som skolan tillhandahåller, däribland till att använda sociala medier. En förklaring till att användningen av sociala medier är omfattande kan vara den förändring som skett i hur dessa tjänster i dag är utformade, t.ex. att innehållet delvis har skiftat från social interaktion mellan användare till alltmer algoritmstyrda flöden och en design som stimulerar ökad användning och beroendeframkallande mekanismer, för att driva engagemang och annonsintäkter. Sociala medier använder tekniker för att hålla kvar användaren så länge som möjligt, såsom endless scroll, notiser, gillamarkeringar och belöningssystem. Detta är funktioner som kan trigga hjärnans belöningscentrum – särskilt hos barn med ännu inte fullt utvecklad impulskontroll. Algoritmer förstärker detta genom att anpassa innehållet efter vad användaren interagerar mest med, vilket skapar en loop eller spiral som kan leda till överanvändning, beroendeliknande beteenden och att användaren leds in i mer extremt innehåll över tid. Regeringen har vidtagit åtgärder Regeringen har vidtagit ett flertal åtgärder för att öka skyddet för barn och unga i de digitala miljöerna. Folkhälsomyndigheten har t.ex. på regeringens uppdrag tagit fram åldersanspassad vägledning och rekommendationer för digital medieanvändning för barn och unga (S2023/01669), där myndigheten bl.a. rekommenderar att barn ska undvika appar som styrs av algoritmer. Regeringen har även gett Mediemyndigheten i uppdrag att genomföra en nationell satsning för stärkt medie- och informationskunnighet i en tid av artificiell intelligens och desinformation (Ku2024/00419). I tillägg till detta uppdrag har myndigheten fått i uppdrag att ytterligare fördjupa arbetet med särskilt fokus på de möjligheter och risker som AI kan medföra. I departementspromemorian Ett nationellt mobilförbud i de obligatoriska skolformerna och fritidshemmet (Ds 2025:9) lämnas förslag på ett nationellt mobilförbud på skoltid i de obligatoriska skolformerna och fritidshemmet och att det ska bli obligatoriskt att samla in elevers mobiltelefoner under hela skoldagen. Promemorian bereds för närvarande i Regeringskansliet. Andra länder överväger eller har infört åldersgränser för sociala medier Andra länder har infört eller planerar att införa regleringar för barns användande av sociala medier. I Frankrike har man t.ex. beslutat att barn under 15 år inte får skapa konton på sociala medier utan förälders samtycke. I Spanien planerar man att höja den ”digitala myndighetsåldern” till 16 år och i Australien har man nyligen antagit lagen ”the Online Safety Amendment (Social Media Minimum Age) Bill 2024”. Lagen förbjuder barn under 16 år att ha konton på Tiktok, Instagram, Facebook, Snapchat, Reddit och X. Enligt lagen är det inte heller tillåtet för den som har föräldraansvaret för barnet att ge samtycke – barn under 16 år får inte använda dessa plattformar alls. Tjänster med syfte för utbildning eller hälsa, t.ex. Youtube Kids, Google Classroom och Messenger Kids, omfattas inte av lagen. Det finns behov av att utreda förutsättningarna för en åldersgräns för barns användning av sociala medier Utifrån sociala mediers utformning i dag och den kunskap som numera finns om de negativa effekter användningen av sociala medier kan medföra för barns hälsa, säkerhet och trygghet, kunskapsresultat i skolan samt de initiativ som tagits i andra länder finns anledning att även i Sverige se över förutsättningarna för att införa en åldersgräns för barns användning av sociala medier, eller, om det inte bedöms möjligt, analysera förutsättningarna för att höja den befintliga åldersgränsen för barns möjligheter att ta del av informationssamhällets tjänster (2 kap. 4 § dataskyddslagen). I valet av ålder bör den internationella utvecklingen och behovet av skydd för barns fri- och rättigheter särskilt beaktas. Utgångspunkter för uppdraget Begreppen informationssamhällets tjänster och sociala medier Med informationssamhällets tjänster avses tjänster som vanligtvis utförs mot ersättning på distans, på elektronisk väg och på individuell begäran av en tjänstemottagare (se artikel 4.25 i EU:s dataskyddsförordning och artikel 1.1 b i direktiv 2015/1535). Det finns ingen vedertagen definition av begreppet sociala medier men tjänster som t.ex. Tiktok, Instagram, Youtube och Snapchat brukar omnämnas som sociala medier. Sociala funktioner såsom chattar förekommer även i spelplattformar, såsom Roblox. Enligt AV-direktivet kan sociala medier omfattas av begreppet videodelningsplattformar. Videodelningsplattformar omfattas i sin tur av begreppet onlineplattformar enligt Europaparlamentets och rådets förordning (EU) 2022/2065 av den 19 oktober 2022 om en inre marknad för digitala tjänster (Digital Services Act, DSA). Dessa plattformar möjliggör att användare publicerar, sprider och interagerar med innehåll som kan nå en bred allmänhet. Tjänster som Tiktok, Instagram, Youtube och Snapchat men även videodelningsplattformar för spridning av pornografi omfattas därmed av AV-direktivets och DSA:s regler för användarskydd. För att en åldersgräns ska få avsedd effekt är det centralt att definiera vilka av informationssamhällets tjänster som innebär en risk för barn och som ska omfattas av en åldersgräns. Utredaren bör i sitt arbete utgå från hur begreppet sociala medier används i dag. Rättsliga aspekter att beakta i förhållande till nya och ändrade åldersgränser Åldersgränser väcker frågor om dels skyddet av barns hälsa och välbefinnande, dels barns rätt till information och uttryck. Flera artiklar i barnkonventionen slår fast att barn har rätt att skyddas från risker och skadliga upplevelser – även på nätet. Artikel 19 lyfter t.ex. barns rätt att skyddas mot alla former av våld, övergrepp och utnyttjande, även psykiskt våld – vilket kan inkludera nätmobbning, gromning och skadligt innehåll. I barnkonventionen anges också att konventionsstaterna ska tillförsäkra det barn som är i stånd att bilda egna åsikter rätten att fritt uttrycka dessa i alla frågor som rör barnet och att barnets åsikter ska tillmätas betydelse i förhållande till barnets ålder och mognad. Samtidigt som barnet har rätt till yttrande- och informationsfrihet behöver det finnas ett skydd för barnet när dess personuppgifter behandlas. Vid avvägningen måste också hänsyn tas till barnets rätt till integritet. Ju äldre barnet blir, desto mindre blir dess behov av skydd och desto större tyngd ska tillmätas rätten till yttrande- och informationsfrihet. Sedan den 1 januari 2020 gäller barnkonventionen som svensk lag (lagen [2018:1197] om Förenta nationernas konvention om barnets rättigheter). Enligt yttrandefrihetsgrundlagen (YGL) är var och en gentemot det allmänna tillförsäkrad rätt att i bl.a. ljudradio, tv och andra tekniska upptagningar offentligen uttrycka tankar, åsikter och känslor och i övrigt lämna uppgifter i vilket ämne som helst. Webbplatser på internet kan under vissa förutsättningar ha grundlagsskydd (1 kap. 4 § YGL). De webbsidor som omfattas av skyddet är både sådana som tillhandahålls av mer traditionella massmedieföretag och sådana som tillhandahålls av andra aktörer som har s.k. frivilligt grundlagsskydd (utgivningsbevis för en databas). Yttrandefrihetsgrundlagen bygger på ett antal grundprinciper. För framställningar på webbsidor som omfattas av yttrandefrihetsgrundlagen gäller t.ex. ett generellt förbud mot censur (förhandsgranskning). Andra åtgärder som innebär förbud eller hinder mot framställning, offentliggörande eller spridning av program eller upptagningar på grund av innehållet, får inte heller vidtas av det allmänna, om det inte finns stöd för åtgärderna i yttrandefrihetsgrundlagen. Ett tvingande krav på åldersverifiering, vilket i praktiken skulle innebära ett förbud mot överföringar från en webbsida till en viss grupp, kan komma i konflikt med dessa grundprinciper. Enligt regeringsformen (RF) är var och en gentemot det allmänna tillförsäkrad yttrandefrihet: frihet att i tal, skrift eller bild eller på annat sätt meddela upplysningar samt uttrycka tankar, åsikter och känslor. På samma sätt är var och en tillförsäkrad informationsfrihet: frihet att inhämta och ta emot upplysningar samt att i övrigt ta del av andras yttranden. Ett likartat skydd följer av artikel 10 i den europeiska konventionen angående skydd för de mänskliga rättigheterna och de grundläggande friheterna (EKMR). Yttrande- och informationsfriheterna i RF och EKMR får begränsas genom lag, men endast om vissa angivna förutsättningar är uppfyllda. Begränsningar i dessa friheter måste bl.a. alltid vara proportionerliga och får inte gå utöver vad som är nödvändigt med hänsyn till ändamålet. Begränsningar av barns och ungas möjligheter att ta del av innehåll på sociala medier alternativt informationssamhällets tjänster, kan utgöra en begränsning av yttrande- och informationsfriheterna. Det måste säkerställas att de överväganden som görs och att de förslag som lämnas på begränsningar av barns och ungas möjligheter att ta del av innehåll på sociala medier, alternativt informationssamhällets tjänster, är förenliga med grundlagarna, EKMR, EU-rätten och Sveriges andra internationella åtaganden. Syftet med utredningen är att stärka skyddet för barns och ungas hälsa, välmående och trygghet i den digitala miljön utan att inskränka deras rätt till yttrande- och informationsfrihet mer än nödvändigt. Därutöver måste även förhållandet till EU:s dataskyddsförordning och dataskyddslagen samt övrig dataskyddsreglering av relevans beaktas. Utredaren ska därför * analysera förutsättningarna för att införa en åldersgräns i Sverige för barns användning av sociala medier, * analysera och ta ställning till om det, med hänsyn tagen till grundläggande fri- och rättigheter, bör införas en åldersgräns för barns användning av sociala medier, och om möjligt föreslå en sådan åldersgräns om det inte bedöms möjligt att lämna förslag på en åldersgräns för sociala medier, analysera förutsättningarna för att höja åldern för när barn kan lämna samtycke till att deras personuppgifter behandlas för informationssamhällets tjänster, och lämna sådana författningsförslag, * analysera förutsättningarna för att begränsa möjligheten för den som har föräldraansvar att lämna samtycke för barnets användning av sociala medier eller informationssamhällets tjänster, och om det bedöms möjligt lämna sådana förslag och, * lämna nödvändiga författningsförslag. Det ingår inte i uppdraget att överväga eller föreslå grundlagsändringar. Uppdraget att följa arbetet med åldersverifiering på EU-nivå Åtgärder på EU-nivå med att skydda barn i digitala miljöer är avgörande. Det beror till stor del på att de plattformar som i stor utsträckning kommer att beröras av en åldersgräns för användning av sociala medier i Sverige, t.ex. Tiktok, Snapchat och Instagram inte är etablerade i Sverige och därför inte lyder under svensk jurisdiktion. Arbetet som pågår på EU-nivå med skydd av minderåriga och initiativen som ska göra det möjligt för plattformar att använda åldersverifiering behöver därför följas. Det gäller bl.a. de tekniska lösningar som är under utveckling med en särskild app för åldersverifiering och en europeisk digital identitet som möjliggör säker åldersverifiering. Krav på plattformar för att skydda minderåriga Förordningen om en inre marknad för digitala tjänster (DSA) har varit i kraft sedan februari 2024. DSA innehåller bl.a. krav på att leverantörer av onlineplattformar som är tillgängliga för minderåriga, dvs. personer under 18 år, ska införa åtgärder för att säkerställa en hög nivå av integritet, säkerhet och trygghet för minderåriga (artikel 28). Enligt artikel 34 ska leverantörer av mycket stora onlineplattformar och onlinesökmotorer också bedöma vilka risker deras verksamheter innebär utifrån en rad olika aspekter, varav en är negativa effekter för minderåriga. EU-kommissionen har tagit fram riktlinjer för att stödja plattformar som är tillgängliga för minderåriga när det gäller att uppfylla kraven i artikel 28 i DSA. I riktlinjerna rekommenderas leverantörerna av plattformarna att använda ålderskontroller, i form av bl.a. åldersverifiering, om de bedömer att deras tjänster kan innebära risker för barns och ungas trygghet och säkerhet online. Rekommendationen gäller under förutsättning att metoderna för ålderssäkring är korrekta, tillförlitliga, robusta, icke-påträngande och icke-diskriminerande. Plattformarna bör säkerställa att de åtgärder de vidtar inte på ett oproportionerligt eller otillbörligt sätt begränsar barns rättigheter. EU-kommissionen kommer att använda riktlinjerna för att bedöma efterlevnaden av artikel 28 DSA. Det är dock frivilligt för en plattformsleverantör att följa riktlinjerna. Mediemyndigheten är tillsynsmyndighet för att se till att kraven i artikel 28 är uppfyllda vad gäller svenska aktörer. Leverantörer av mycket stora onlineplattformar och onlinesökmotorer faller dock i första hand under EU-kommissionens tillsynsansvar. Utöver DSA finns även AV-direktivet som reglerar audiovisuella medietjänster (tv och beställ-tv) och videodelningsplattformar (t.ex. Youtube och Instagram). AV-direktivet kräver bl.a. att medlemsländerna ser till att videodelningsplattformar under deras jurisdiktion skyddar minderåriga från innehåll som kan skada deras fysiska, mentala eller moraliska utveckling. AV-direktivet är till största del genomfört i svensk rätt genom radio- och tv-lagen (2010:696) och Mediemyndigheten är tillsynsmyndighet för plattformar under svensk jurisdiktion. Åldersverifiering för att säkerställa att åldersgränser följs Åldersgränser kan utgöra ett visst skydd för barn och unga i förhållande till användning av olika digitala tjänster. Vissa sociala medieplattformar, t.ex. Instagram och Tiktok, har egna åldersgränser eller åldersrekommendationer för användandet av deras tjänster. Åldersgränsen är ofta 13 år och beror framför allt på att det enligt amerikansk rätt (Children’s Online Privacy Protection Act, COPPA) är förbjudet för företag att samla in personuppgifter från barn under 13 år utan föräldrars samtycke. Eftersom många digitala plattformar har sina servrar och sin juridiska bas i USA, anpassar de sina tjänster globalt efter COPPA – även i länder där andra regler gäller. En förutsättning för att åldersgränser ska utgöra ett skydd är att de efterlevs. Ett sätt att säkerställa att åldersgränser följs kan vara att en social medieplattform väljer att använda åldersverifiering. Åldersverifiering är en process för att säkerställa att en användare uppfyller en viss åldersgräns innan den får tillgång till en tjänst, produkt eller ett digitalt innehåll. Åldersverifiering är inte detsamma som identifiering. Tjänster som utvecklas för integritetsbevarande åldersverifiering ska endast verifiera att personen i fråga har uppnått rätt ålder för att använda den aktuella tjänsten. En sådan tjänst ska alltså inte innebära att inhämta uppgifter om personens identitet och därmed få kännedom om vilken person som använder vilken tjänst. Inom ramarna för DSA har en teknisk lösning (app) avsedd för integritetsbevarande åldersverifiering presenterats i juni 2025. Appen är ett övergripande tekniskt ramverk, anpassningsbart för varje enskild medlemsstats nationella förutsättningar. Syftet med det tekniska ramverket är att göra det möjligt för användare av webbtjänster att bevisa sin ålder genom att presentera ett elektroniskt intyg via en särskild applikation (white label app) på ett integritetsbevarande sätt för att få åtkomst till åldersbegränsat innehåll. Appen är primärt tänkt att användas vid verifiering av ålder för onlinetjänster som erbjuder åldersbegränsat innehåll eller tjänster, t.ex. pornografiskt eller våldsamt material, spel om pengar samt köp av åldersbegränsade produkter (alkohol och tobak), och kommer därför att vara programmerad för en åldersgräns på 18 år. Appen är inte tvingande för plattformsleverantörer att använda, men kan vara ett sätt för leverantörerna att uppfylla kraven i DSA. Inom EU pågår också arbete med anpassningar till de nya bestämmelserna i Europaparlamentets och rådets förordning (EU) 2014/1183 av den 11 april 2024 om ändring av förordning (EU) nr 910/2014 vad gäller inrättandet av ett europeiskt ramverk för digital identitet. Anpassningarna innebär bl.a. att medlemsländerna ska tillhandahålla så kallade europeiska digitala plånböcker som ska göra det möjligt för fysiska och juridiska personer att på ett säkert sätt dela, begära och kombinera identitetsuppgifter till förlitande part. Användare av digitala plånböcker ska på ett smidigt sätt kunna dela med sig av information om vem de är, exempelvis ska de kunna bekräfta sin ålder. Arbetet med identitetsplånboken kan ha bäring på arbetet med åldersverifiering genom de tekniska lösningar som kommer att finnas till hands genom EU-plånboken. Utredaren ska därför * följa det arbete med åldersverifiering som initierats av EU, * analysera de rättsliga skyldigheter som finns för skydd av minderåriga i bl.a. AV-direktivet och DSA samt hur plattformsleverantörernas lösningar för åldersverifiering förhåller sig till dessa skyldigheter, och * analysera hur de förslag som lämnas av utredningen gällande en svensk åldersgräns kan fungera tillsammans med de åtgärder för åldersverifiering som planeras inom EU och i Sverige. Kostnadsberäkningar och andra konsekvensbeskrivningar Utredaren ska redogöra för förslagens konsekvenser i enlighet med förordningen (2024:183) om konsekvensutredningar. Utredaren ska beskriva och beräkna förslagens samhällsekonomiska och offentligfinansiella effekter samt kvantifiera och värdera dessa. Om förslagen medför kostnadsökningar för staten, regionerna eller kommunerna, ska utredaren föreslå hur dessa ska finansieras enligt 15 § kommittéförordningen (1998:1474). Utredaren ska därtill särskilt redogöra för förslagens konsekvenser för barns hälsa, trygghet och kunskapsutveckling i de digitala miljöerna. Utredaren ska också redogöra för förslagens konsekvenser för jämställdheten, med fokus på de jämställdhetspolitiska delmålen jämställd hälsa och att mäns våld mot kvinnor ska upphöra. Utredaren ska analysera samtliga frågeställningar med utgångspunkt i folkhälsopolitiken och mediepolitiken. Där så är relevant ska även utbildningspolitiken beaktas. Utredaren ska säkerställa att de analyser och förslag som lämnas är förenliga med grundlagarna, EU-rättsliga krav, EKMR, FN:s konvention om barnets rättigheter (barnkonventionen) och FN:s konvention om rättigheter för personer med funktionsnedsättning samt Sveriges andra internationella åtaganden. Viktiga ställningstaganden som har gjorts vid utformningen av förslagen ska beskrivas liksom alternativa lösningar som övervägts samt skälen till att de har valts bort. Arbetets genomförande, kontakter och redovisning av uppdraget Utredaren ska hålla sig informerad om och beakta relevant arbete som bedrivs inom utredningsväsendet och inom EU, samt ta del av internationella erfarenheter i de aktuella frågorna, särskilt från länder inom EU. Framför allt bör utredaren beakta det arbete som görs i Grekland, Norge, Spanien, Frankrike och Australien. Utredaren ska genomgående beakta ett barnperspektiv. Utredaren ska inhämta synpunkter från berörda myndigheter och, i den utsträckning det är lämpligt, även från organisationer och företag. * Den del av uppdraget som avser förslag på en åldersgräns för användning av sociala medier eller höjd ålder för när barn kan lämna samtycke till att deras personuppgifter behandlas för informationssamhällets tjänster ska redovisas senast den 12 juni 2026. Övriga delar av uppdraget ska redovisas senast den 14 november 2026.