Ngày 1 tháng 12 năm 2025
Ngày 1 tháng 12 năm 2025
Chúng tôi công bố báo cáo minh bạch này hai lần một năm để cung cấp cái nhìn chuyên sâu về những nỗ lực đảm bảo an toàn của Snap. Là một phần trong cam kết về an toàn và minh bạch, chúng tôi không ngừng nỗ lực để các báo cáo này toàn diện hơn và cung cấp nhiều thông tin hơn cho nhiều bên liên quan, những người đặc biệt quan tâm đến công tác kiểm duyệt nội dung, cách chúng tôi hợp tác với cơ quan thực thi pháp luật, cũng như sự an toàn và lành mạnh của cộng đồng Snapchat.
Báo cáo minh bạch này cung cấp thông tin về sáu tháng đầu năm 2025 (từ ngày 1 tháng 1 đến ngày 30 tháng 6). Chúng tôi chia sẻ dữ liệu toàn cầu về các báo cáo của người dùng và phát hiện chủ động của Snap; các biện pháp xử lý của các nhóm An toàn của chúng tôi trên các danh mục cụ thể về vi phạm Nguyên tắc cộng đồng; cách chúng tôi phản hồi các yêu cầu từ cơ quan thực thi pháp luật và chính phủ; và cách chúng tôi phản hồi các thông báo về vi phạm bản quyền và nhãn hiệu. Chúng tôi cũng cung cấp thông tin chi tiết theo quốc gia trong một loạt các trang được liên kết.
Để tìm kiếm thêm các nguồn lực hỗ trợ an toàn và quyền riêng tư trên Snapchat, hãy xem tab Giới thiệu về Báo cáo Minh bạch ở cuối trang.
Vui lòng lưu ý rằng phiên bản cập nhật mới nhất của Báo cáo Minh bạch này là phiên bản tiếng Anh.
Tổng quan hoạt động của các nhóm Tin cậy & An toàn về việc thực thi Nguyên tắc cộng đồng của chúng tôi
Các nhóm An toàn của chúng tôi thực thi Nguyên tắc cộng đồng bằng cả hình thức chủ động (thông qua việc sử dụng các công cụ phát hiện tự động) lẫn bị động (dựa trên các báo cáo), như được trình bày chi tiết hơn trong các phần tiếp theo của báo cáo này. Trong kỳ báo cáo này (nửa đầu năm 2025), các nhóm An toàn của chúng tôi đã thực hiện các biện pháp xử lý sau:
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
9.674.414
5.794.201
Dưới đây là phân tích chi tiết theo từng loại hành vi vi phạm Nguyên tắc cộng đồng liên quan, bao gồm thời gian xử lý trung bình giữa thời điểm chúng tôi phát hiện vi phạm (chủ động hoặc sau khi nhận được báo cáo) và thời điểm chúng tôi thực hiện hành động cuối cùng đối với nội dung hoặc tài khoản có liên quan:
Lý do chính sách
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng
Nội dung khiêu dâm
5.461.419
3.233.077
1
Lạm dụng & Bóc lột Tình dục Trẻ em
1.095.424
733.106
5
Quấy rối và Bắt nạt
713.448
594.302
3
Đe dọa và Bạo lực
187.653
146.564
3
Tự làm hại và Tự tử
47.643
41.216
5
Thông tin sai lệch
2.088
2.004
1
Mạo danh
7.138
6.881
<1
Thư rác
267.299
189.344
1
Ma túy
1.095.765
726.251
7
Vũ khí
251.243
173.381
1
Các hàng hóa được kiểm soát khác
183.236
126.952
4
Ngôn từ thù ghét
343.051
284.817
6
Khủng bố và Bạo lực cực đoan
10.970
6.783
2
Dữ liệu về Tổng số biện pháp xử lý bao gồm các biện pháp xử lý mà Snap thực hiện sau khi xem xét các báo cáo trong ứng dụng được gửi qua Snapchat. Dữ liệu này thể hiện phần lớn các biện pháp xử lý do các nhóm An toàn của Snap thực hiện. Con số này không bao gồm hầu hết các biện pháp xử lý được thực hiện từ kết quả của các cuộc điều tra dựa trên các báo cáo gửi đến Snap qua Trang hỗ trợ của chúng tôi hoặc các cơ chế khác (ví dụ: qua email), hoặc từ một số cuộc điều tra chủ động do các nhóm An toàn thực hiện. Những biện pháp xử lý bị loại trừ này chiếm dưới 0,5% tổng khối lượng biện pháp xử lý trong nửa đầu năm 2025.
Trong kỳ báo cáo, chúng tôi thấy Tỷ lệ xem nội dung vi phạm (VVR) là 0,01 phần trăm, điều này có nghĩa là trong mỗi 10.000 lượt xem Snap và Story trên Snapchat thì có 1 lượt xem chứa nội dung vi phạm Nguyên tắc cộng đồng của chúng tôi. Trong số các biện pháp xử lý đối với những gì chúng tôi coi là "Hành vi gây hại nghiêm trọng", chúng tôi ghi nhận 0,0003 phần trăm VVR. Phần phân tích chi tiết VVR theo lý do chính sách được cung cấp trong bảng dưới đây.
Lý do chính sách
Tỷ lệ xem nội dung vi phạm
Nội dung khiêu dâm
0,00482%
Lạm dụng & Bóc lột Tình dục Trẻ em
0,00096%
Quấy rối và Bắt nạt
0,00099%
Đe dọa và Bạo lực
0,00176%
Tự làm hại và Tự tử
0,00009%
Thông tin sai lệch
0,0002%
Mạo danh
0,0009%
Thư rác
0,00060%
Ma túy
0,00047%
Vũ khí
0,00083%
Các hàng hóa được kiểm soát khác
0,00104%
Ngôn từ thù ghét
0,00025%
Khủng bố và Bạo lực cực đoan
0,0002%
Hành vi vi phạm Nguyên tắc cộng đồng được báo cáo cho các nhóm Tin cậy và An toàn của chúng tôi
Từ ngày 1 tháng 1 đến ngày 30 tháng 6 năm 2025, để phản hồi 19.766.324 báo cáo vi phạm Nguyên tắc cộng đồng trong ứng dụng, các nhóm An toàn của Snap đã thực hiện tổng cộng 6.278.446 biện pháp xử lý trên toàn cầu, bao gồm cả việc xử lý đối với 4.104.624 tài khoản riêng biệt. Khối lượng báo cáo trong ứng dụng này không bao gồm các báo cáo qua trang hỗ trợ và email, vốn chiếm dưới 1% tổng số báo cáo. Thời gian trung bình để các nhóm An toàn của chúng tôi thực hiện biện pháp xử lý nhằm phản hồi các báo cáo đó là khoảng 2 phút. Một bảng phân tích theo lý do chính sách được cung cấp bên dưới. (Lưu ý: Trong các báo cáo trước đây, chúng tôi đôi khi gọi đây là "danh mục báo cáo." Từ nay, chúng tôi sẽ sử dụng thuật ngữ "lý do chính sách" vì chúng tôi cho rằng thuật ngữ này phản ánh chính xác hơn bản chất của dữ liệu, khi mà các nhóm An toàn của chúng tôi luôn nỗ lực xử lý dựa trên lý do chính sách phù hợp, bất kể danh mục báo cáo mà người gửi báo cáo đã xác định.)
Tổng số Báo cáo về Nội dung & Tài khoản
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Tổng số
19.766.324
6.278.446
4.104.624
Lý do chính sách
Tổng số Báo cáo về Nội dung & Tài khoản
Tổng số trường hợp xử lý
Tỷ lệ phần trăm Tổng số nội dung được Snap xử lý
Tổng số tài khoản riêng biệt đã xử lý
Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng
Nội dung khiêu dâm
7.315.730
3.778.370
60,2%
2.463.464
1
Lạm dụng & Bóc lột Tình dục Trẻ em
1.627.097
695.679
11,1%
577.736
10
Quấy rối và Bắt nạt
4.103.797
700.731
11,2%
584.762
3
Đe dọa và Bạo lực
997.346
147.162
2,3%
120.397
2
Tự làm hại và Tự tử
350.775
41.150
0,7%
36.657
3
Thông tin sai lệch
606.979
2.027
0,0%
1.960
1
Mạo danh
745.874
7.086
0,1%
6.837
<1
Thư rác
1.709.559
122.499
2,0%
94.837
1
Ma túy
481.830
262.962
4,2%
176.799
5
Vũ khí
271.586
39.366
0,6%
32.316
1
Các hàng hóa được kiểm soát khác
530.449
143.098
2,3%
98.023
3
Ngôn từ thù ghét
817.262
337.263
5,4%
280.682
6
Khủng bố và Bạo lực cực đoan
208.040
1.053
0,0%
912
2
Trong nửa đầu năm 2025, chúng tôi tiếp tục giảm thời gian xử lý trung bình trên tất cả các danh mục chính sách, rút ngắn trung bình hơn 75% so với kỳ báo cáo trước, xuống còn 2 phút. Việc rút ngắn này phần lớn là nhờ nỗ lực phối hợp liên tục của chúng tôi nhằm cải thiện việc ưu tiên xem xét các báo cáo dựa trên mức độ nghiêm trọng của hành vi gây hại và quy trình xem xét tự động.
Chúng tôi cũng thực hiện một số thay đổi có trọng tâm đối với các nỗ lực an toàn trong kỳ báo cáo, điều này có tác động đến dữ liệu được báo cáo tại đây, bao gồm việc siết chặt chính sách đối với hoạt động bất hợp pháp liên quan đến vũ khí. Chúng tôi ghi nhận sự gia tăng về số lượng báo cáo và biện pháp xử lý thuộc danh mục Bóc lột tình dục trẻ em, nguyên nhân chủ yếu là do sự gia tăng nội dung khiêu dâm hoặc nhạy cảm liên quan đến trẻ vị thành niên vi phạm chính sách của chúng tôi nhưng không phải là bất hợp pháp tại Hoa Kỳ hoặc không thuộc diện phải báo cáo lên Trung tâm quốc gia về trẻ em mất tích và bị bóc lột Hoa Kỳ (NCMEC). Việc gia tăng số lượng báo cáo liên quan đến Nội dung khiêu dâm (và giảm khối lượng liên quan đến Hành vi quấy rối) xuất phát từ việc chúng tôi tái phân loại nội dung liên quan đến Quấy rối tình dục, chuyển từ Hành vi quấy rối sang Nội dung khiêu dâm.
Nỗ lực của chúng tôi nhằm chủ động phát hiện và xử lý những hành vi vi phạm Nguyên tắc cộng đồng
Chúng tôi sử dụng các công cụ tự động để chủ động phát hiện và trong một số trường hợp, xử lý các hành vi vi phạm Cẩm Nang Cộng Đồng của chúng tôi. Những công cụ này bao gồm công nghệ đối sánh mã băm (bao gồm PhotoNDA và Công nghệ nhận diện hình ảnh lạm dụng tình dục trẻ em (CSAI) của Google), API an toàn về nội dung của Google và các công nghệ độc quyền khác được thiết kế để phát hiện văn bản và nội dung đa phương tiện bất hợp pháp và vi phạm, đôi khi tân dụng trí tuệ nhân tạo và máy học. Các số liệu phát hiện chủ động của chúng tôi thường xuyên biến động do thay đổi hành về vi người dùng, cải tiến về khả năng phát hiện và những điều chỉnh trong chính sách.
Trong nửa đầu năm 2025, chúng tôi đã thực hiện các biện pháp xử lý sau đây sau khi chủ động phát hiện các hành vi vi phạm Nguyên tắc cộng đồng bằng các công cụ phát hiện tự động:
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Tổng số
3.395.968
1.709.224
Lý do chính sách
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng
Nội dung khiêu dâm
1.683.045
887.059
0
Lạm dụng & Bóc lột Tình dục Trẻ em
399.756
162.017
2
Quấy rối và Bắt nạt
12.716
10.412
8
Đe dọa và Bạo lực
40.489
27.662
6
Tự làm hại và Tự tử
6.493
4.638
7
Thông tin sai lệch
61
44
20
Mạo danh
52
44
34
Thư rác
144.800
96.500
0
Ma túy
832.803
578.738
7
Vũ khí
211.877
144.455
0
Các hàng hóa được kiểm soát khác
40.139
31.408
8
Ngôn từ thù ghét
5.788
4.518
6
Khủng bố và Bạo lực cực đoan
9.917
5.899
5
Chống Lạm dụng và Bóc lột Tình dục Trẻ em
Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm Nang Cộng Đồng. Ngăn ngừa, phát hiện và xóa bỏ hành vi Lạm dụng và bóc lột tình dục trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap, và chúng tôi không ngừng phát triển năng lực của mình để chống lại loại tội phạm này cũng như các hành vi phạm pháp khác.
Chúng tôi sử dụng các công cụ với công nghệ phát hiện chủ động để giúp xác định nội dung liên quan đến CSEA. Những công cụ này bao gồm các công cụ đối sánh mã băm (bao gồm PhotoDNA và CSAI Match của Google, lần lượt dùng để xác định các hình ảnh và video bất hợp pháp đã được nhận diện có liên quan đến CSEA) và API an toàn về nội dung của Google (để xác định hình ảnh bất hợp pháp mới, chưa từng được gắn mã băm trước đó). Ngoài ra, trong một số trường hợp, chúng tôi sử dụng các tín hiệu hành vi để chống lại các hoạt động bị nghi ngờ có liên quan đến CSEA. Chúng tôi báo cáo nội dung liên quan đến CSEA cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC) theo yêu cầu của pháp luật. NCMEC sau đó phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế nếu cần thiết.
Trong nửa đầu năm 2025, chúng tôi đã thực hiện các hành động sau khi xác định được các hành vi liên quan đến CSEA trên Snapchat (phát hiện chủ động hoặc sau khi nhận được báo cáo):
Tổng số Nội dung đã Xử lý
Tổng số Tài khoản đã bị Vô hiệu
Tổng Số bản nộp tới NCMEC*
994.337
187.387
321.587
* Lưu ý rằng mỗi bản nộp tới NCMEC có thể có nhiều nội dung. Tổng số nội dung phương tiện riêng lẻ được gửi tới NCMEC bằng với tổng nội dung được thực thi của chúng tôi.
Nỗ lực của chúng tôi nhằm cung cấp tài nguyên và sự hỗ trợ cho Tín đồ Snapchatter đang cần được giúp đỡ
Snapchat trao quyền cho bạn bè giúp đỡ nhau trong những thời điểm khó khăn bằng cách cung cấp tài nguyên và sự hỗ trợ cho những người dùng Snapchat đang cần được giúp đỡ.
Công cụ tìm kiếm Here For You của chúng tôi cung cấp các tài nguyên từ các chuyên gia khi người dùng tìm kiếm các chủ đề nhất định liên quan đến sức khỏe tâm thần, lo âu, trầm cảm, căng thẳng, ý định tự tử, đau buồn và nạn bắt nạt. Chúng tôi cũng đã phát triển một trang chuyên biệt để chống lại tống tiền tình dục và các rủi ro, tổn hại tình dục khác, nhằm hỗ trợ những người đang gặp khó khăn.
Khi các nhóm An toàn của chúng tôi phát hiện một tín đồ Snapchatter đang trong tình trạng nguy cấp, họ được trang bị để cung cấp các nguồn lực hỗ trợ và ngăn ngừa hành vi tự làm hại bản thân, đồng thời thông báo cho các dịch vụ khẩn cấp khi cần thiết. Các nguồn lực mà chúng tôi chia sẻ đều có sẵn trong danh sách toàn cầu về các nguồn lực an toàn của chúng tôi và được cung cấp công khai cho tất cả tín đồ Snapchatter tại Trung tâm về Quyền riêng tư, An toàn & Chính sách.
Tổng số lần các tài nguyên liên quan đến tự tử được chia sẻ
36.162
Khiếu nại
Dưới đây chúng tôi cung cấp thông tin về các kháng cáo chúng tôi nhận được từ người dùng yêu cầu xem xét lại quyết định khóa tài khoản của họ do vi phạm Nguyên tắc cộng đồng trong nửa đầu năm 2025:
Lý do chính sách
Tổng số Khiếu nại
Tổng số Khôi phục
Tổng số Quyết định được Duy trì
Thời gian Trung bình (ngày) để Xử lý Khiếu nại
Tổng số
437.855
22.142
415.494
1
Nội dung khiêu dâm
134.358
6.175
128.035
1
Lạm dụng & Bóc lột tình dục trẻ em*
89.493
4.179
85.314
<1
Quấy rối và Bắt nạt
42.779
281
42.496
1
Đe dọa và Bạo lực
3.987
77
3.909
1
Tự làm hại và Tự tử
145
2
143
1
Thông tin sai lệch
4
0
4
1
Mạo danh
1.063
33
1.030
<1
Thư rác
13.730
3.140
10.590
1
Ma túy
128.222
7.749
120.409
1
Vũ khí
10.941
314
10.626
1
Các hàng hóa được kiểm soát khác
9.719
124
9.593
1
Ngôn từ thù ghét
3.310
67
3.242
1
Khủng bố và Bạo lực cực đoan
104
1
103
1
Tổng quan về Khu vực và Quốc gia
Phần này cung cấp tổng quan về các hành động của nhóm An toàn nhằm thực thi Cẩm nang cộng đồng, cả chủ động và để phản hồi các báo cáo vi phạm trong ứng dụng, lấy mẫu từ các khu vực địa lý. Nguyên tắc Cộng đồng của chúng tôi áp dụng cho tất cả nội dung trên Snapchat và cho tất cả các Tín đồ Snapchatter trên toàn cầu, bất kể vị trí.
Bạn có thể tải xuống thông tin về các quốc gia riêng lẻ, bao gồm tất cả các Quốc gia Thành viên Châu Âu, qua tệp CSV đính kèm.
Khu vực
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Bắc Mỹ
3.468.315
2.046.888
Châu Âu
2.815.474
1.810.223
Phần Còn Lại Của Thế Giới
3.390.625
1.937.090
Tổng số
9.674.414
5.794.201
Khu vực
Báo cáo Nội dung & Tài khoản
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Bắc Mỹ
5.762.412
2.125.819
1.359.763
Châu Âu
5.961.962
2.144.828
1.440.907
Phần Còn Lại Của Thế Giới
8.041.950
2.007.799
1.316.070
Tổng số
19.766.324
6.278.446
4.116.740
Khu vực
Tổng số trường hợp xử lý
Tổng số tài khoản riêng biệt đã xử lý
Bắc Mỹ
1.342.496
785.067
Châu Âu
670.646
422.012
Phần Còn Lại Của Thế Giới
1.382.826
696.364
Tổng số
3.395.968
1.709.224
Quản trị Quảng cáo
Snap cam kết đảm bảo rằng tất cả các quảng cáo đều tuân thủ đầy đủ các chính sách quảng cáo của chúng tôi. Chúng tôi tin vào cách tiếp cận có trách nhiệm với quảng cáo, tạo ra trải nghiệm an toàn cho tất cả Tín Đồ Snapchatter. Tất cả các quảng cáo phải được chúng tôi xem xét và phê duyệt. Ngoài ra, chúng tôi có quyền xóa quảng cáo, bao gồm cả việc trả lời lại phản hồi của người dùng, điều mà chúng tôi rất coi trọng.
Dưới đây, chúng tôi đã đưa ra thông tin chi tiết về hoạt động kiểm duyệt của chúng tôi đối với các quảng cáo trả phí được báo cáo sau khi chúng được đăng trên Snapchat. Xin lưu ý rằng các quảng cáo trên Snapchat có thể bị gỡ bỏ vì nhiều lý do khác nhau như được nêu trong Chính sách Quảng cáo của Snap, bao gồm cả nội dung lừa đảo, nội dung người lớn, nội dung bạo lực hoặc quấy rối, phát ngôn thù ghét, và vi phạm sở hữu trí tuệ. Thêm vào đó, bạn có thể tìm thấy Danh mục Quảng cáo của Snapchat trên values.snap.com trong tab "Minh bạch".
Tổng số quảng cáo bị cáo cáo
Tổng số quảng cáo bị xóa
67.789
16.410

























