1. december 2025
1. december 2025
Vi udgiver denne gennemsigtighedsrapport to gange om året for at give indsigt i Snaps sikkerhedsindsats. Som en del af vores forpligtelse til sikkerhed og gennemsigtighed stræber vi konstant efter at gøre disse rapporter mere omfattende og informative for de mange interessenter, der er meget interesserede i vores indholdsmoderering, vores tilgang til retshåndhævelse og sikkerheden og trivsel i Snapchat-fællesskabet.
Denne gennemsigtighedsrapport dækker første halvdel af 2025 (1. januar til 30. juni). Vi deler globale data om rapporter fra brugere og proaktiv opdagelse af Snap; håndhævelse af vores sikkerhedsteams på tværs af specifikke kategorier af overtrædelser af Retningslinjer for fællesskabet; hvordan vi reagerede på anmodninger fra retshåndhævende myndigheder og regeringer; og hvordan vi reagerede på meddelelser om krænkelse af ophavsret og varemærker. Vi giver også landespecifikke indsigter i en række linkede sider.
Se vores fane Om gennemsigtighedsrapportering i bunden af denne side for at finde yderlige ressourcer om sikkerhed og privatliv på Snapchat.
Bemærk venligst, at den mest opdaterede version af denne gennemsigtighedsrapport er den engelske version.
Oversigt over vores tillids- og sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet
Vores sikkerhedsteams håndhæver vores Retningslinjer for fællesskabet både proaktivt (ved hjælp af automatiserede opdagelsesværktøjer) og reaktivt (som svar på rapporter), som beskrevet nærmere i de følgende afsnit i denne rapport. I denne rapporteringscyklus (1. halvår 2025) har vores sikkerhedsteams iværksat følgende antal håndhævelser:
Samlet antal håndhævelser
Samlede unikke konti håndhævet
9.674.414
5.794.201
Nedenfor findes en oversigt over de forskellige typer overtrædelser af Retningslinjer for brugerne, herunder den gennemsnitlige "behandlingstid" mellem det tidspunkt, hvor vi opdagede overtrædelsen (enten proaktivt eller efter modtagelse af en rapport), og det tidspunkt, hvor vi traf den endelige beslutning om det pågældende indhold eller den pågældende konto:
Politik årsag
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
5.461.419
3.233.077
1
Seksuel udnyttelse og misbrug af børn
1.095.424
733.106
5
Chikane og mobning
713.448
594.302
3
Trusler og vold
187.653
146.564
3
Selvskade og selvmord
47.643
41.216
5
Falske oplysninger
2.088
2.004
1
Falsk identitet
7.138
6.881
<1
Spam
267.299
189.344
1
Stoffer
1.095.765
726.251
7
Våben
251.243
173.381
1
Andre lovregulerede produkter
183.236
126.952
4
Hadtale
343.051
284.817
6
Terrorisme og voldelig ekstremisme
10.970
6.783
2
Data om samlede håndhævelser omfatter håndhævelser, som Snap har foretaget efter gennemgang af rapporter i appen, der er indsendt via Snapchat. Dette udgør langt størstedelen af de håndhævelser, der foretages af Snaps sikkerhedsteams. Dette tal omfatter ikke de fleste håndhævelser, der er foretaget som følge af undersøgelser baseret på rapporter indsendt til Snap via vores supportside eller andre mekanismer (f.eks. via e-mail) eller som følge af proaktive undersøgelser foretaget af vores sikkerhedsteams. Disse udelukkede håndhævelser udgjorde mindre end 0,5 % af håndhævelsesmængden i første halvdel af 2025.
I rapporteringsperioden oplevede vi en Violative View Rate (VVR) på 0,01 procent, hvilket betyder, at ud af hver 10.000 Snap- og Historie visninger på Snapchat indeholdt 1 indhold, der var i strid med vores Retningslinjer for fællesskabet. Blandt håndhævelser for det, vi betragter som "alvorlige skader", så vi en VVR på 0,0003 %. En oversigt over VVR opdelt efter politik findes i tabellen nedenfor.
Politik årsag
VVR
Seksuelt indhold
0,00482 %
Seksuel udnyttelse og misbrug af børn
0,00096 %
Chikane og mobning
0,00099 %
Trusler og vold
0,00176 %
Selvskade og selvmord
0,00009 %
Falske oplysninger
0,00002 %
Falsk identitet
0,00009 %
Spam
0,00060 %
Stoffer
0,00047 %
Våben
0,00083 %
Andre lovregulerede produkter
0,00104 %
Hadtale
0,00025 %
Terrorisme og voldelig ekstremisme
0,00002 %
Overtrædelser af Retningslinjerne for fællesskabet rapporteret til vores tillids- og sikkerhedsteams
Fra 1. januar til 30. juni 2025 reagerede Snaps sikkerhedsteams på 19.766.324 rapporter i appen om overtrædelser af vores Retningslinjer for brugerne og iværksatte i alt 6.278.446 håndhævelsesforanstaltninger på verdensplan, herunder håndhævelse mod 4.104.624 unikke konti. Denne rapporteringsvolumen i appen omfatter ikke supporthjemmesiden og e-mailrapporter, som udgør mindre end 1 % af den samlede rapporteringsvolumen. Den gennemsnitlige behandlingstid for vores sikkerhedsteams til at iværksætte håndhævelsesforanstaltninger som reaktion på disse rapporter var ca. 2 minutter. Nedenfor findes en oversigt over årsagerne til afslagene fordelt på politik. (Bemærk: I tidligere rapporter har vi undertiden henvist til dette som "rapporteringskategori". Fremover bruger vi udtrykket "politik", som vi mener mere præcist afspejler dataenes karakter – fordi vores sikkerhedsteams bestræber sig på at håndhæve i overensstemmelse med den relevante politik, uanset hvilken rapporteringskategori den person, der indsender rapporten, har angivet.
Samlede indholds- og kontorapporteringer
Samlet antal håndhævelser
Samlede unikke konti håndhævet
I alt
19.766.324
6.278.446
4.104.624
Politik årsag
Samlede indholds- og kontorapporteringer
Samlet antal håndhævelser
Procentdel af det samlede antal rapporter, håndhævet af Snap
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
7.315.730
3.778.370
60,2 %
2.463.464
1
Seksuel udnyttelse og misbrug af børn
1.627.097
695.679
11,1 %
577.736
10
Chikane og mobning
4.103.797
700.731
11,2 %
584.762
3
Trusler og vold
997.346
147.162
2,3%
120.397
2
Selvskade og selvmord
350.775
41.150
0,7%
36.657
3
Falske oplysninger
606.979
2.027
0,0%
1.960
1
Falsk identitet
745.874
7.086
0.1%
6.837
<1
Spam
1.709.559
122.499
2,0 %
94.837
1
Stoffer
481.830
262.962
4,2 %
176.799
5
Våben
271.586
39.366
0,6 %
32.316
1
Andre lovregulerede produkter
530.449
143.098
2,3%
98.023
3
Hadtale
817.262
337.263
5,4 %
280.682
6
Terrorisme og voldelig ekstremisme
208.040
1.053
0,0%
912
2
I første halvdel af 2025 fortsatte vi med at reducere den gennemsnitlige behandlingstid på tværs af alle politikkategorier og reducerede den med mere end 75 % i forhold til den foregående rapporteringsperiode til 2 minutter. Denne reduktion skyldtes i høj grad en fortsat fælles indsats for at forbedre vores prioritering af rapporter til gennemgang baseret på skadens alvor og automatiseret gennemgang.
Vi har også foretaget flere målrettede ændringer i vores sikkerhedsindsats i rapporteringsperioden, hvilket har haft indflydelse på de her rapporterede data, herunder en styrkelse af vores politikker vedrørende ulovlige aktiviteter, der involverer våben. Vi har observeret en stigning i antallet af indberetninger og håndhævelser i kategorien seksuel udnyttelse af børn, hvilket primært skyldes en stigning i seksuelt eller følsomt indhold, der involverer mindreårige, og som overtræder vores politikker, men ikke er ulovligt i USA eller genstand for U.S. National Center for Missing and Exploited Children (NCMEC). Stigningen i mængden af seksuelt indhold (og faldet i mængden af chikane) skyldtes vores omklassificering af indhold relateret til seksuel chikane fra chikane til seksuelt indhold.
Vores indsats for proaktivt at registrere og håndhæve reglerne i forbindelse med overtrædelser af vores Retningslinjer for fællesskabet
Vi bruger automatiserede værktøjer til proaktivt at opdage og i nogle tilfælde håndhæve overtrædelser af vores Retningslinjer for fællesskabet. Disse værktøjer omfatter hash-matching-teknologi (herunder PhotoDNA og Googles Child Sexual Abuse Imagery (CSAI)), Googles Content Safety API og anden proprietær teknologi, der er udviklet til at opdage ulovlig og krænkende tekst og medier. undertiden ved hjælp af kunstig intelligens og maskinlæring. Vores proaktive detektionsantal svinger rutinemæssigt som følge af ændringer i brugeradfærd, forbedringer af vores detektionskapaciteter og ændringer i vores politikker.
I første halvdel af 2025 traf vi følgende håndhævelsesforanstaltninger efter proaktivt at have opdaget overtrædelser af vores Retningslinjer for brugerne ved hjælp af automatiserede detektionsværktøjer:
Samlet antal håndhævelser
Samlede unikke konti håndhævet
I alt
3.395.968
1.709.224
Politik årsag
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Gennemsnitlig behandlingstid (minutter) fra registrering til endelig handling
Seksuelt indhold
1.683.045
887.059
0
Seksuel udnyttelse og misbrug af børn
399.756
162.017
2
Chikane og mobning
12.716
10.412
8
Trusler og vold
40.489
27.662
6
Selvskade og selvmord
6.493
4.638
7
Falske oplysninger
61
44
20
Falsk identitet
52
44
34
Spam
144.800
96.500
0
Stoffer
832.803
578.738
7
Våben
211.877
144.455
0
Andre lovregulerede produkter
40.139
31.408
8
Hadtale
5.788
4.518
6
Terrorisme og voldelig ekstremisme
9.917
5.899
5
Bekæmpelse af seksuel udnyttelse og seksuelt misbrug af børn
Seksuel udnyttelse af ethvert medlem af vores fællesskab, især mindreårige, er ulovligt, afskyeligt og forbudt i henhold til vores Retningslinjer for fællesskabet. At forebygge, opdage og udrydde CSEA på vores platform er en topprioritet for Snap, og vi udvikler løbende vores muligheder for at bekæmpe disse og andre forbrydelser.
Vi bruger aktive teknologiske detektionsværktøjer til at hjælpe med at identificere CSEA-relateret indhold. Disse værktøjer omfatter hash-matching-værktøjer (herunder PhotoDNA og Googles CSAI Match, der identificerer henholdsvis kendte ulovlige billeder og videoer af CSEA) og Googles Content Safety API (der identificerer nye, "aldrig før hashede" ulovlige billeder). Derudover bruger vi i nogle tilfælde adfærdssignaler til at håndhæve mod andre mistænkte CSEA-aktiviteter. Vi rapporterer CSEA-relateret indhold til det amerikanske National Center for Missing and Exploited Children (NCMEC) som krævet af loven. NCMEC koordinerer derefter med national eller international retshåndhævelse, hvis det er nødvendigt.
I første halvdel af 2025 traf vi følgende foranstaltninger, efter at vi havde identificeret CSEA på Snapchat (enten proaktivt eller efter at have modtaget en rapport):
Samlet indhold håndhævet
Samlet antal konti deaktiveret
Samlet antal indsendelser til NCMEC*
994.337
187.387
321.587
*Bemærk, at hver indsendelse til NCMEC kan indeholde flere dele af indholdet. Det samlede antal individuelle medier, der er indsendt til NCMEC, svarer til vores samlede indhold, der er håndhævet.
Vores indsats for at give ressourcer og støtte til Snapchattere i nød
Snapchat giver venner mulighed for at hjælpe hinanden i svære tider ved at stille ressourcer og støtte til rådighed for Snapchattere i nød.
Vores søgefunktion Here For You leverer ressourcer fra eksperter, når brugerne søger efter bestemte emner relateret til mental sundhed, angst, depression, stress, selvmordstanker, sorg og mobning. Vi har også udviklet en side dedikeret til bekæmpelse af økonomisk motiveret seksuel afpresning og andre seksuelle risici og skader i et forsøg på at støtte personer i nød.
Når vores sikkerhedsteams bliver opmærksomme på en Snapchatter i nød, er de rustet til at yde forebyggelse af selvskade og støtteressourcer samt til at underrette beredskabstjenesterne, hvis det er nødvendigt. De ressourcer, vi deler, er tilgængelige på vores globale liste over sikkerhedsressourcer, som er offentligt tilgængelig for alle Snapchatters på vores privatlivs-, sikkerheds- og politikcenter.
Samlet antal gange ressourcer om selvmord delt
36.162
Klager
Nedenfor giver vi oplysninger om klager, vi har modtaget fra brugere, der har anmodet om en fornyet vurdering af vores beslutning om at spærre deres konto for overtrædelser af Retningslinjer for brugerne i første halvdel af 2025:
Politik årsag
Samlet antal klager
Genindsættelser i alt
Samlet antal fastholdte beslutninger
Median-behandlingstiden (dage) til behandling af klager
I alt
437.855
22.142
415.494
1
Seksuelt indhold
134.358
6.175
128.035
1
Seksuelt misbrug og udnyttelse af børn*
89.493
4.179
85.314
<1
Chikane og mobning
42.779
281
42.496
1
Trusler og vold
3.987
77
3.909
1
Selvskade og selvmord
145
2
143
1
Falske oplysninger
4
0
4
1
Falsk identitet
1.063
33
1.030
<1
Spam
13.730
3.140
10.590
1
Stoffer
128.222
7.749
120.409
1
Våben
10.941
314
10.626
1
Andre lovregulerede produkter
9.719
124
9.593
1
Hadtale
3.310
67
3.242
1
Terrorisme og voldelig ekstremisme
104
1
103
1
Oversigt over regioner og lande
Dette afsnit giver et overblik over vores sikkerhedsteams' handlinger for at håndhæve vores Retningslinjer for fællesskabet, både proaktivt og som reaktion på rapporter om overtrædelser i appen, i et udvalg af geografiske regioner. Vores Retningslinjer for fællesskabet gælder for alt indhold på Snapchat - og for alle Snapchattere - over hele verden, uanset hvor de befinder sig.
Oplysninger om individuelle lande, herunder alle EU-medlemsstater, er tilgængelige til download via den vedhæftede CSV-fil.
Region
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Nordamerika
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Resten af verden
3.390.625
1.937.090
I alt
9.674.414
5.794.201
Region
Indholds- og kontorapporteringer
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Nordamerika
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Resten af verden
8.041.950
2.007.799
1.316.070
I alt
19.766.324
6.278.446
4.116.740
Region
Samlet antal håndhævelser
Samlede unikke konti håndhævet
Nordamerika
1.342.496
785.067
Europa
670.646
422.012
Resten af verden
1.382.826
696.364
I alt
3.395.968
1.709.224
Moderation af annoncer
Snap er forpligtet til at sikre, at alle annoncer er fuldt ud i overensstemmelse med vores Annoncepolitik. Vi tror på en ansvarlig tilgang til annoncering og på at skabe en sikker oplevelse for alle Snapchattere. Alle annoncer er underlagt gennemgang og godkendelse. Derudover forbeholder vi os retten til at fjerne annoncer, herunder som reaktion på brugerfeedback, som vi tager alvorligt.
Nedenfor har vi inkluderet indsigt i vores moderation i forbindelse med betalte reklamer, der anmeldes til os efter deres offentliggørelse på Snapchat. Bemærk, at annoncer på Snapchat kan fjernes af en række årsager som beskrevet i Snaps Annoncepolitik, herunder vildledende indhold, voksenindhold, voldeligt eller foruroligende indhold, hadetale og krænkelse af intellektuel ejendom Derudover kan du finde Snapchats Annoncegalleri på values.snap.com under fanen "Gennemsigtighed".
Samlet antal annoncer, som blev rapporteret
Samlet antal annoncer, som blev fjernet
67.789
16.410

























