Snap Values
Gennemsigtighedsrapport
1. januar 2025 – 30. juni 2025

Udgivet:

1. december 2025

Opdateret:

1. december 2025

Vi udgiver denne gennemsigtighedsrapport to gange om året for at give indsigt i Snaps sikkerhedsindsats. Som en del af vores forpligtelse til sikkerhed og gennemsigtighed stræber vi konstant efter at gøre disse rapporter mere omfattende og informative for de mange interessenter, der er meget interesserede i vores indholdsmoderering, vores tilgang til retshåndhævelse og sikkerheden og trivsel i Snapchat-fællesskabet. 

Denne gennemsigtighedsrapport dækker første halvdel af 2025 (1. januar til 30. juni). Vi deler globale data om rapporter fra brugere og proaktiv opdagelse af Snap; håndhævelse af vores sikkerhedsteams på tværs af specifikke kategorier af overtrædelser af Retningslinjer for fællesskabet; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og hvordan vi reagerede på meddelelser om krænkelse af ophavsret og varemærker. Vi giver også landespecifikke indsigter i en række linkede sider.

Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.

Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport er den engelske version.

Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet

Vores sikkerhedsteams håndhæver vores Retningslinjer for fællesskabet både proaktivt (ved hjælp af automatiserede opdagelsesværktøjer) og reaktivt (som svar på rapporter), som beskrevet nærmere i de følgende afsnit i denne rapport. I denne rapporteringscyklus (1. halvår 2025) har vores sikkerhedsteams iværksat følgende antal håndhævelser:

Samlet antal håndhævelser

Samlede unikke konti håndhævet

9.674.414

5.794.201

Nedenfor findes en oversigt over de forskellige typer overtrædelser af Retningslinjer for brugerne, herunder den gennemsnitlige "behandlingstid" mellem det tidspunkt, hvor vi opdagede overtrædelsen (enten proaktivt eller efter modtagelse af en rapport), og det tidspunkt, hvor vi traf den endelige beslutning om det pågældende indhold eller den pågældende konto:

Politik årsag

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

5.461.419

3.233.077

1

Seksuel udnyttelse og misbrug af børn

1.095.424

733.106

5

Chikane og mobning

713.448

594.302

3

Trusler og vold

187.653

146.564

3

Selvskade og selvmord

47.643

41.216

5

Falske oplysninger

2.088

2.004

1

Falsk identitet

7.138

6.881

<1

Spam

267.299

189.344

1

Stoffer

1.095.765

726.251

7

Våben

251.243

173.381

1

Andre lovregulerede produkter

183.236

126.952

4

Hadtale

343.051

284.817

6

Terrorisme og voldelig ekstremisme

10.970

6.783

2

Data om samlede håndhævelser omfatter håndhævelser, som Snap har foretaget efter gennemgang af rapporter i appen, der er indsendt via Snapchat.  Dette udgør langt størstedelen af de håndhævelser, der foretages af Snaps sikkerhedsteams. Dette tal omfatter ikke de fleste håndhævelser, der er foretaget som følge af undersøgelser baseret på rapporter indsendt til Snap via vores supportside eller andre mekanismer (f.eks. via e-mail) eller som følge af proaktive undersøgelser foretaget af vores sikkerhedsteams. Disse udelukkede håndhævelser udgjorde mindre end 0,5 % af håndhævelsesmængden i første halvdel af 2025.

I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Historie visninger på Snapchat indeholdt 1 indhold, der var i strid med vores Retningslinjer for fællesskabet. Blandt håndhævelser for det, vi betragter som "alvorlige skader", så vi en VVR på 0,0003 %. En oversigt over VVR opdelt efter politik findes i tabellen nedenfor.

Politik årsag

VVR

Seksuelt indhold

0,00482 %

Seksuel udnyttelse og misbrug af børn

0,00096 %

Chikane og mobning

0,00099 %

Trusler og vold

0,00176 %

Selvskade og selvmord

0,00009 %

Falske oplysninger

0,00002 %

Falsk identitet

0,00009 %

Spam

0,00060 %

Stoffer

0,00047 %

Våben

0,00083 %

Andre lovregulerede produkter

0,00104 %

Hadtale

0,00025 %

Terrorisme og voldelig ekstremisme

0,00002 %

Overtrædelser af Retningslinjerne for fællesskabet rapporteret til vores tillids- og sikkerhedsteams

Fra 1. januar til 30. juni 2025 reagerede Snaps sikkerhedsteams på 19.766.324 rapporter i appen om overtrædelser af vores Retningslinjer for brugerne og iværksatte i alt 6.278.446 håndhævelsesforanstaltninger på verdensplan, herunder håndhævelse mod 4.104.624 unikke konti.  Denne rapporteringsvolumen i appen omfatter ikke supporthjemmesiden og e-mailrapporter, som udgør mindre end 1 % af den samlede rapporteringsvolumen.  Den gennemsnitlige behandlingstid for vores sikkerhedsteams til at iværksætte håndhævelsesforanstaltninger som reaktion på disse rapporter var ca. 2 minutter. Nedenfor findes en oversigt over årsagerne til afslagene fordelt på politik. (Bemærk: I tidligere rapporter har vi undertiden henvist til dette som "rapporteringskategori".  Fremover bruger vi udtrykket "politik", som vi mener mere præcist afspejler dataenes karakter – fordi vores sikkerhedsteams bestræber sig på at håndhæve i overensstemmelse med den relevante politik, uanset hvilken rapporteringskategori den person, der indsender rapporten, har angivet.


Samlede indholds- og kontorapporteringer

Samlet antal håndhævelser

Samlede unikke konti håndhævet

I alt

19.766.324

6.278.446

4.104.624

Politik årsag

Samlede indholds- og kontorapporteringer

Samlet antal håndhævelser

Procentdel af det samlede antal rapporter, håndhævet af Snap

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

7.315.730

3.778.370

60,2 %

2.463.464

1

Seksuel udnyttelse og misbrug af børn

1.627.097

695.679

11,1 %

577.736

10

Chikane og mobning

4.103.797

700.731

11,2 %

584.762

3

Trusler og vold

997.346

147.162

2,3%

120.397

2

Selvskade og selvmord

350.775

41.150

0,7%

36.657

3

Falske oplysninger

606.979

2.027

0,0%

1.960

1

Falsk identitet

745.874

7.086

0.1%

6.837

<1

Spam

1.709.559

122.499

2,0 %

94.837

1

Stoffer

481.830

262.962

4,2 %

176.799

5

Våben

271.586

39.366

0,6 %

32.316

1

Andre lovregulerede produkter

530.449

143.098

2,3%

98.023

3

Hadtale

817.262

337.263

5,4 %

280.682

6

Terrorisme og voldelig ekstremisme

208.040

1.053

0,0%

912

2

I første halvdel af 2025 fortsatte vi med at reducere den gennemsnitlige behandlingstid på tværs af alle politikkategorier og reducerede den med mere end 75 % i forhold til den foregående rapporteringsperiode til 2 minutter. Denne reduktion skyldtes i høj grad en fortsat fælles indsats for at forbedre vores prioritering af rapporter til gennemgang baseret på skadens alvor og automatiseret gennemgang.

Vi har også foretaget flere målrettede ændringer i vores sikkerhedsindsats i rapporteringsperioden, hvilket har haft indflydelse på de her rapporterede data, herunder en styrkelse af vores politikker vedrørende ulovlige aktiviteter, der involverer våben. Vi har observeret en stigning i antallet af indberetninger og håndhævelser i kategorien seksuel udnyttelse af børn, hvilket primært skyldes en stigning i seksuelt eller følsomt indhold, der involverer mindreårige, og som overtræder vores politikker, men ikke er ulovligt i USA eller genstand for U.S. National Center for Missing and Exploited Children (NCMEC). Stigningen i mængden af seksuelt indhold (og faldet i mængden af chikane) skyldtes vores omklassificering af indhold relateret til seksuel chikane fra chikane til seksuelt indhold.

Vores indsats for proaktivt at registrere og håndhæve reglerne i forbindelse med overtrædelser af vores Retningslinjer for fællesskabet

Proaktiv registrering og håndhævdelse af vores Retningslinjer for fællesskabet


Vi bruger automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores Retningslinjer for fællesskabet. Disse værktøjer omfatter hash-matching-teknologi (herunder PhotoDNA og Googles Child Sexual Abuse Imagery (CSAI)), Googles Content Safety API og anden proprietær teknologi, der er udviklet til at opdage ulovlig og krænkende tekst og medier. undertiden ved hjælp af kunstig intelligens og maskinlæring. Vores proaktive detektionsantal svinger rutinemæssigt som følge af ændringer i brugeradfærd, forbedringer af vores detektionskapaciteter og ændringer i vores politikker.

I første halvdel af 2025 traf vi følgende håndhævelsesforanstaltninger efter proaktivt at have opdaget overtrædelser af vores Retningslinjer for brugerne ved hjælp af automatiserede detektionsværktøjer:


Samlet antal håndhævelser

Samlede unikke konti håndhævet

I alt

3.395.968

1.709.224

Politik årsag

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling

Seksuelt indhold

1.683.045

887.059

0

Seksuel udnyttelse og misbrug af børn

399.756

162.017

2

Chikane og mobning

12.716

10.412

8

Trusler og vold

40.489

27.662

6

Selvskade og selvmord

6.493

4.638

7

Falske oplysninger

61

44

20

Falsk identitet

52

44

34

Spam

144.800

96.500

0

Stoffer

832.803

578.738

7

Våben

211.877

144.455

0

Andre lovregulerede produkter

40.139

31.408

8

Hadtale

5.788

4.518

6

Terrorisme og voldelig ekstremisme

9.917

5.899

5

Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn

Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for fællesskabet. At forebygge, opdage og udrydde CSEA på vores platform er en topprioritet for Snap, og vi udvikler løbende vores muligheder for at bekæmpe disse og andre forbrydelser.

Vi bruger aktive teknologiske detektionsværktøjer til at hjælpe med at identificere CSEA-relateret indhold. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Googles CSAI Match, der identificerer henholdsvis kendte ulovlige billeder og videoer af CSEA) og Googles Content Safety API (der identificerer nye, "aldrig før hashede" ulovlige billeder). Derudover bruger vi i nogle tilfælde adfærdssignaler til at håndhæve mod andre mistænkte CSEA-aktiviteter. Vi rapporterer CSEA-relateret indhold til det amerikanske National Center for Missing and Exploited Children (NCMEC) som krævet af loven. NCMEC koordinerer derefter med national eller international retshåndhævelse, hvis det er nødvendigt.

I første halvdel af 2025 traf vi følgende foranstaltninger, efter at vi havde identificeret CSEA på Snapchat (enten proaktivt eller efter at have modtaget en rapport):

Samlet indhold håndhævet

Samlet antal konti deaktiveret

Samlet antal indsendelser til NCMEC*

994.337

187.387

321.587

*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet.

Vores indsats for at give ressourcer og støtte til Snapchattere i nød

Snapchat giver venner mulighed for at hjælpe hinanden i svære tider ved at stille ressourcer og støtte til rådighed for Snapchattere i nød. 

Vores søgefunktion Here For You leverer ressourcer fra eksperter, når brugerne søger efter bestemte emner relateret til mental sundhed, angst, depression, stress, selvmordstanker, sorg og mobning. Vi har også udviklet en side dedikeret til bekæmpelse af økonomisk motiveret seksuel afpresning og andre seksuelle risici og skader i et forsøg på at støtte personer i nød.

Når vores sikkerhedsteams bliver opmærksomme på en Snapchatter i nød, er de rustet til at yde forebyggelse af selvskade og støtteressourcer samt til at underrette beredskabstjenesterne, hvis det er nødvendigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, som er offentligt tilgængelig for alle Snapchatters på vores privatlivs-, sikkerheds- og politikcenter.

Samlet antal gange ressourcer om selvmord delt

36.162

Klager

Nedenfor giver vi oplysninger om klager, vi har modtaget fra brugere, der har anmodet om en fornyet vurdering af vores beslutning om at spærre deres konto for overtrædelser af Retningslinjer for brugerne i første halvdel af 2025:

Politik årsag

Samlet antal klager

Genindsættelser i alt

Samlet antal fastholdte beslutninger

Median-behandlingstiden (dage) til behandling af klager

I alt

437.855

22.142

415.494

1

Seksuelt indhold

134.358

6.175

128.035

1

Seksuelt misbrug og udnyttelse af børn*

89.493

4.179

85.314

<1

Chikane og mobning

42.779

281

42.496

1

Trusler og vold

3.987

77

3.909

1

Selvskade og selvmord

145

2

143

1

Falske oplysninger

4

0

4

1

Falsk identitet

1.063

33

1.030

<1

Spam

13.730

3.140

10.590

1

Stoffer

128.222

7.749

120.409

1

Våben

10.941

314

10.626

1

Andre lovregulerede produkter

9.719

124

9.593

1

Hadtale

3.310

67

3.242

1

Terrorisme og voldelig ekstremisme

104

1

103

1

Oversigt over regioner og lande

Dette afsnit giver et overblik over vores sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet, både proaktivt og som reaktion på rapporter om overtrædelser i appen, i et udvalg af geografiske regioner. Vores Retningslinjer for fællesskabet gælder for alt indhold på Snapchat - og for alle Snapchattere - over hele verden, uanset hvor de befinder sig.

Oplysninger om individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.



Oversigt over vores sikkerhedsteams handlinger for at håndhæve vores Retningslinjer for brugerne 

Region

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Nordamerika

3.468.315

2.046.888

Europa

2.815.474

1.810.223

Resten af verden

3.390.625

1.937.090

I alt

9.674.414

5.794.201

Overtrædelser af Retningslinjer for brugerne rapporteret til vores sikkerhedsteam

Region

Indholds- og kontorapporteringer

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Nordamerika

5.762.412

2.125.819

1.359.763

Europa

5.961.962

2.144.828

1.440.907

Resten af verden

8.041.950

2.007.799

1.316.070

I alt

19.766.324

6.278.446

4.116.740

Proaktiv registrering og håndhævdelse af vores Retningslinjer for brugerne

Region

Samlet antal håndhævelser

Samlede unikke konti håndhævet

Nordamerika

1.342.496

785.067

Europa

670.646

422.012

Resten af verden

1.382.826

696.364

I alt

3.395.968

1.709.224

Moderation af annoncer

Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig tilgang til annoncering og på at skabe en sikker oplevelse for alle Snapchattere. Alle annoncer er underlagt gennemgang og godkendelse. Derudover forbeholder vi os retten til at fjerne annoncer, herunder som reaktion på brugerfeedback, som vi tager alvorligt. 


Nedenfor har vi inkluderet indsigt i vores moderation i forbindelse med betalte reklamer, der anmeldes til os efter deres offentliggørelse på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du finde Snapchats Annoncegallerivalues.snap.com under fanen "Gennemsigtighed".

Samlet antal annoncer, som blev rapporteret

Samlet antal annoncer, som blev fjernet

67.789

16.410

Statslige anmodninger om sletning samt anmodninger om sletning vedrørende intellektuel ejendom

Om gennemsigtighedsrapportering

Ordliste til gennemsigtighedsrapporten