Snap Values
Báo cáo Minh bạch
Ngày 1 tháng 1 năm 2025 - Ngày 30 tháng 6 năm 2025

Phát hành:

Ngày 1 tháng 12 năm 2025

Cập nhật:

Ngày 1 tháng 12 năm 2025

Chúng tôi công bố báo cáo minh bạch này hai lần một năm để cung cấp cái nhìn chuyên sâu về những nỗ lực đảm bảo an toàn của Snap. Là một phần trong cam kết về an toàn và minh bạch, chúng tôi không ngừng nỗ lực để các báo cáo này toàn diện hơn và cung cấp nhiều thông tin hơn cho nhiều bên liên quan, những người đặc biệt quan tâm đến công tác kiểm duyệt nội dung, cách chúng tôi hợp tác với cơ quan thực thi pháp luật, cũng như sự an toàn và lành mạnh của cộng đồng Snapchat. 

Báo cáo minh bạch này cung cấp thông tin về sáu tháng đầu năm 2025 (từ ngày 1 tháng 1 đến ngày 30 tháng 6). Chúng tôi chia sẻ dữ liệu toàn cầu về các báo cáo của người dùng và phát hiện chủ động của Snap; các biện pháp xử lý của các nhóm An toàn của chúng tôi trên các danh mục cụ thể về vi phạm Nguyên tắc cộng đồng; cách chúng tôi phản hồi các yêu cầu từ cơ quan thực thi pháp luật và chính phủ; và cách chúng tôi phản hồi các thông báo về vi phạm bản quyền và nhãn hiệu. Chúng tôi cũng cung cấp thông tin chi tiết theo quốc gia trong một loạt các trang được liên kết.

Để tìm kiếm thêm các nguồn lực hỗ trợ an toàn và quyền riêng tư trên Snapchat, hãy xem tab Giới thiệu về Báo cáo Minh bạch ở cuối trang.

Vui lòng lưu ý rằng phiên bản cập nhật mới nhất của Báo cáo Minh bạch này là phiên bản tiếng Anh.

Tổng quan hoạt động của các nhóm Tin cậy & An toàn về việc thực thi Nguyên tắc cộng đồng của chúng tôi

Các nhóm An toàn của chúng tôi thực thi Nguyên tắc cộng đồng bằng cả hình thức chủ động (thông qua việc sử dụng các công cụ phát hiện tự động) lẫn bị động (dựa trên các báo cáo), như được trình bày chi tiết hơn trong các phần tiếp theo của báo cáo này. Trong kỳ báo cáo này (nửa đầu năm 2025), các nhóm An toàn của chúng tôi đã thực hiện các biện pháp xử lý sau:

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

9.674.414

5.794.201

Dưới đây là phân tích chi tiết theo từng loại hành vi vi phạm Nguyên tắc cộng đồng liên quan, bao gồm thời gian xử lý trung bình giữa thời điểm chúng tôi phát hiện vi phạm (chủ động hoặc sau khi nhận được báo cáo) và thời điểm chúng tôi thực hiện hành động cuối cùng đối với nội dung hoặc tài khoản có liên quan:

Lý do chính sách

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung khiêu dâm

5.461.419

3.233.077

1

Lạm dụng & Bóc lột Tình dục Trẻ em

1.095.424

733.106

5

Quấy rối và Bắt nạt

713.448

594.302

3

Đe dọa và Bạo lực

187.653

146.564

3

Tự làm hại và Tự tử

47.643

41.216

5

Thông tin sai lệch

2.088

2.004

1

Mạo danh

7.138

6.881

<1

Thư rác

267.299

189.344

1

Ma túy

1.095.765

726.251

7

Vũ khí

251.243

173.381

1

Các hàng hóa được kiểm soát khác

183.236

126.952

4

Ngôn từ thù ghét

343.051

284.817

6

Khủng bố và Bạo lực cực đoan

10.970

6.783

2

Dữ liệu về Tổng số biện pháp xử lý bao gồm các biện pháp xử lý mà Snap thực hiện sau khi xem xét các báo cáo trong ứng dụng được gửi qua Snapchat.  Dữ liệu này thể hiện phần lớn các biện pháp xử lý do các nhóm An toàn của Snap thực hiện. Con số này không bao gồm hầu hết các biện pháp xử lý được thực hiện từ kết quả của các cuộc điều tra dựa trên các báo cáo gửi đến Snap qua Trang hỗ trợ của chúng tôi hoặc các cơ chế khác (ví dụ: qua email), hoặc từ một số cuộc điều tra chủ động do các nhóm An toàn thực hiện. Những biện pháp xử lý bị loại trừ này chiếm dưới 0,5% tổng khối lượng biện pháp xử lý trong nửa đầu năm 2025.

Trong kỳ báo cáo, chúng tôi thấy Tỷ lệ xem nội dung vi phạm (VVR) là 0,01 phần trăm, điều này có nghĩa là trong mỗi 10.000 lượt xem Snap và Story trên Snapchat thì có 1 lượt xem chứa nội dung vi phạm Nguyên tắc cộng đồng của chúng tôi. Trong số các biện pháp xử lý đối với những gì chúng tôi coi là "Hành vi gây hại nghiêm trọng", chúng tôi ghi nhận 0,0003 phần trăm VVR. Phần phân tích chi tiết VVR theo lý do chính sách được cung cấp trong bảng dưới đây.

Lý do chính sách

Tỷ lệ xem nội dung vi phạm

Nội dung khiêu dâm

0,00482%

Lạm dụng & Bóc lột Tình dục Trẻ em

0,00096%

Quấy rối và Bắt nạt

0,00099%

Đe dọa và Bạo lực

0,00176%

Tự làm hại và Tự tử

0,00009%

Thông tin sai lệch

0,0002%

Mạo danh

0,0009%

Thư rác

0,00060%

Ma túy

0,00047%

Vũ khí

0,00083%

Các hàng hóa được kiểm soát khác

0,00104%

Ngôn từ thù ghét

0,00025%

Khủng bố và Bạo lực cực đoan

0,0002%

Hành vi vi phạm Nguyên tắc cộng đồng được báo cáo cho các nhóm Tin cậy và An toàn của chúng tôi

Từ ngày 1 tháng 1 đến ngày 30 tháng 6 năm 2025, để phản hồi 19.766.324 báo cáo vi phạm Nguyên tắc cộng đồng trong ứng dụng, các nhóm An toàn của Snap đã thực hiện tổng cộng 6.278.446 biện pháp xử lý trên toàn cầu, bao gồm cả việc xử lý đối với 4.104.624 tài khoản riêng biệt.  Khối lượng báo cáo trong ứng dụng này không bao gồm các báo cáo qua trang hỗ trợ và email, vốn chiếm dưới 1% tổng số báo cáo.  Thời gian trung bình để các nhóm An toàn của chúng tôi thực hiện biện pháp xử lý nhằm phản hồi các báo cáo đó là khoảng 2 phút. Một bảng phân tích theo lý do chính sách được cung cấp bên dưới. (Lưu ý: Trong các báo cáo trước đây, chúng tôi đôi khi gọi đây là "danh mục báo cáo."  Từ nay, chúng tôi sẽ sử dụng thuật ngữ "lý do chính sách"  vì chúng tôi cho rằng thuật ngữ này phản ánh chính xác hơn bản chất của dữ liệu, khi mà các nhóm An toàn của chúng tôi luôn nỗ lực xử lý dựa trên lý do chính sách phù hợp, bất kể danh mục báo cáo mà người gửi báo cáo đã xác định.)


Tổng số Báo cáo về Nội dung & Tài khoản

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Tổng số

19.766.324

6.278.446

4.104.624

Lý do chính sách

Tổng số Báo cáo về Nội dung & Tài khoản

Tổng số trường hợp xử lý

Tỷ lệ phần trăm Tổng số nội dung được Snap xử lý

Tổng số tài khoản riêng biệt đã xử lý

Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung khiêu dâm

7.315.730

3.778.370

60,2%

2.463.464

1

Lạm dụng & Bóc lột Tình dục Trẻ em

1.627.097

695.679

11,1%

577.736

10

Quấy rối và Bắt nạt

4.103.797

700.731

11,2%

584.762

3

Đe dọa và Bạo lực

997.346

147.162

2,3%

120.397

2

Tự làm hại và Tự tử

350.775

41.150

0,7%

36.657

3

Thông tin sai lệch

606.979

2.027

0,0%

1.960

1

Mạo danh

745.874

7.086

0,1%

6.837

<1

Thư rác

1.709.559

122.499

2,0%

94.837

1

Ma túy

481.830

262.962

4,2%

176.799

5

Vũ khí

271.586

39.366

0,6%

32.316

1

Các hàng hóa được kiểm soát khác

530.449

143.098

2,3%

98.023

3

Ngôn từ thù ghét

817.262

337.263

5,4%

280.682

6

Khủng bố và Bạo lực cực đoan

208.040

1.053

0,0%

912

2

Trong nửa đầu năm 2025, chúng tôi tiếp tục giảm thời gian xử lý trung bình trên tất cả các danh mục chính sách, rút ngắn trung bình hơn 75% so với kỳ báo cáo trước, xuống còn 2 phút. Việc rút ngắn này phần lớn là nhờ nỗ lực phối hợp liên tục của chúng tôi nhằm cải thiện việc ưu tiên xem xét các báo cáo dựa trên mức độ nghiêm trọng của hành vi gây hại và quy trình xem xét tự động.

Chúng tôi cũng thực hiện một số thay đổi có trọng tâm đối với các nỗ lực an toàn trong kỳ báo cáo, điều này có tác động đến dữ liệu được báo cáo tại đây, bao gồm việc siết chặt chính sách đối với hoạt động bất hợp pháp liên quan đến vũ khí. Chúng tôi ghi nhận sự gia tăng về số lượng báo cáo và biện pháp xử lý thuộc danh mục Bóc lột tình dục trẻ em, nguyên nhân chủ yếu là do sự gia tăng nội dung khiêu dâm hoặc nhạy cảm liên quan đến trẻ vị thành niên vi phạm chính sách của chúng tôi nhưng không phải là bất hợp pháp tại Hoa Kỳ hoặc không thuộc diện phải báo cáo lên Trung tâm quốc gia về trẻ em mất tích và bị bóc lột Hoa Kỳ (NCMEC). Việc gia tăng số lượng báo cáo liên quan đến Nội dung khiêu dâm (và giảm khối lượng liên quan đến Hành vi quấy rối) xuất phát từ việc chúng tôi tái phân loại nội dung liên quan đến Quấy rối tình dục, chuyển từ Hành vi quấy rối sang Nội dung khiêu dâm.

Nỗ lực của chúng tôi nhằm chủ động phát hiện và xử lý những hành vi vi phạm Nguyên tắc cộng đồng

Chủ động phát hiện và thực thi các Nguyên tắc Cộng đồng của chúng tôi


Chúng tôi sử dụng các công cụ tự động để chủ động phát hiện và trong một số trường hợp, xử lý các hành vi vi phạm Cẩm Nang Cộng Đồng của chúng tôi. Những công cụ này bao gồm công nghệ đối sánh mã băm (bao gồm PhotoNDA và Công nghệ nhận diện hình ảnh lạm dụng tình dục trẻ em (CSAI) của Google), API an toàn về nội dung của Google và các công nghệ  độc quyền khác được thiết kế để phát hiện văn bản và nội dung đa phương tiện bất hợp pháp và vi phạm, đôi khi tân dụng trí tuệ nhân tạo và máy học. Các số liệu phát hiện chủ động của chúng tôi thường xuyên biến động do thay đổi hành về vi người dùng, cải tiến về khả năng phát hiện và những điều chỉnh trong chính sách.

Trong nửa đầu năm 2025, chúng tôi đã thực hiện các biện pháp xử lý sau đây sau khi chủ động phát hiện các hành vi vi phạm Nguyên tắc cộng đồng bằng các công cụ phát hiện tự động:


Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Tổng số

3.395.968

1.709.224

Lý do chính sách

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Thời gian xử lý trung bình (phút) từ khi phát hiện đến hành động cuối cùng

Nội dung khiêu dâm

1.683.045

887.059

0

Lạm dụng & Bóc lột Tình dục Trẻ em

399.756

162.017

2

Quấy rối và Bắt nạt

12.716

10.412

8

Đe dọa và Bạo lực

40.489

27.662

6

Tự làm hại và Tự tử

6.493

4.638

7

Thông tin sai lệch

61

44

20

Mạo danh

52

44

34

Thư rác

144.800

96.500

0

Ma túy

832.803

578.738

7

Vũ khí

211.877

144.455

0

Các hàng hóa được kiểm soát khác

40.139

31.408

8

Ngôn từ thù ghét

5.788

4.518

6

Khủng bố và Bạo lực cực đoan

9.917

5.899

5

Chống Lạm dụng và Bóc lột Tình dục Trẻ em

Việc lạm dụng tình dục bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là trẻ vị thành niên, là bất hợp pháp, ghê tởm và bị cấm theo Cẩm Nang Cộng Đồng. Ngăn ngừa, phát hiện và xóa bỏ hành vi Lạm dụng và bóc lột tình dục trẻ em (CSEA) trên nền tảng là ưu tiên hàng đầu của Snap, và chúng tôi không ngừng phát triển năng lực của mình để chống lại loại tội phạm này cũng như các hành vi phạm pháp khác.

Chúng tôi sử dụng các công cụ với công nghệ phát hiện chủ động để giúp xác định nội dung liên quan đến CSEA. Những công cụ này bao gồm các công cụ đối sánh mã băm (bao gồm PhotoDNA và CSAI Match của Google, lần lượt dùng để xác định các hình ảnh và video bất hợp pháp đã được nhận diện có liên quan đến CSEA) và API an toàn về nội dung của Google (để xác định hình ảnh bất hợp pháp mới, chưa từng được gắn mã băm trước đó). Ngoài ra, trong một số trường hợp, chúng tôi sử dụng các tín hiệu hành vi để chống lại các hoạt động bị nghi ngờ có liên quan đến CSEA. Chúng tôi báo cáo nội dung liên quan đến CSEA cho Trung tâm Quốc gia Hoa Kỳ về Trẻ em Mất tích và Bị bóc lột (NCMEC) theo yêu cầu của pháp luật. NCMEC sau đó phối hợp với cơ quan thực thi pháp luật trong nước hoặc quốc tế nếu cần thiết.

Trong nửa đầu năm 2025, chúng tôi đã thực hiện các hành động sau khi xác định được các hành vi liên quan đến CSEA trên Snapchat (phát hiện chủ động hoặc sau khi nhận được báo cáo):

Tổng số Nội dung đã Xử lý

Tổng số Tài khoản đã bị Vô hiệu

Tổng Số bản nộp tới NCMEC*

994.337

187.387

321.587

* Lưu ý rằng mỗi bản nộp tới NCMEC có thể có nhiều nội dung. Tổng số nội dung phương tiện riêng lẻ được gửi tới NCMEC bằng với tổng nội dung được thực thi của chúng tôi.

Nỗ lực của chúng tôi nhằm cung cấp tài nguyên và sự hỗ trợ cho Tín đồ Snapchatter đang cần được giúp đỡ

Snapchat trao quyền cho bạn bè giúp đỡ nhau trong những thời điểm khó khăn bằng cách cung cấp tài nguyên và sự hỗ trợ cho những người dùng Snapchat đang cần được giúp đỡ. 

Công cụ tìm kiếm Here For You của chúng tôi cung cấp các tài nguyên từ các chuyên gia khi người dùng tìm kiếm các chủ đề nhất định liên quan đến sức khỏe tâm thần, lo âu, trầm cảm, căng thẳng, ý định tự tử, đau buồn và nạn bắt nạt. Chúng tôi cũng đã phát triển một trang chuyên biệt để chống lại tống tiền tình dục và các rủi ro, tổn hại tình dục khác, nhằm hỗ trợ những người đang gặp khó khăn.

Khi các nhóm An toàn của chúng tôi phát hiện một tín đồ Snapchatter đang trong tình trạng nguy cấp, họ được trang bị để cung cấp  các nguồn lực hỗ trợ và ngăn ngừa hành vi tự làm hại bản thân, đồng thời thông báo cho các dịch vụ khẩn cấp khi cần thiết. Các nguồn lực mà chúng tôi chia sẻ đều có sẵn trong danh sách toàn cầu về các nguồn lực an toàn của chúng tôi và được cung cấp công khai cho tất cả tín đồ Snapchatter tại Trung tâm về Quyền riêng tư, An toàn & Chính sách.

Tổng số lần các tài nguyên liên quan đến tự tử được chia sẻ

36.162

Khiếu nại

Dưới đây chúng tôi cung cấp thông tin về các kháng cáo chúng tôi nhận được từ người dùng yêu cầu xem xét lại quyết định khóa tài khoản của họ do vi phạm Nguyên tắc cộng đồng trong nửa đầu năm 2025:

Lý do chính sách

Tổng số Khiếu nại

Tổng số Khôi phục

Tổng số Quyết định được Duy trì

Thời gian Trung bình (ngày) để Xử lý Khiếu nại

Tổng số

437.855

22.142

415.494

1

Nội dung khiêu dâm

134.358

6.175

128.035

1

Lạm dụng & Bóc lột tình dục trẻ em*

89.493

4.179

85.314

<1

Quấy rối và Bắt nạt

42.779

281

42.496

1

Đe dọa và Bạo lực

3.987

77

3.909

1

Tự làm hại và Tự tử

145

2

143

1

Thông tin sai lệch

4

0

4

1

Mạo danh

1.063

33

1.030

<1

Thư rác

13.730

3.140

10.590

1

Ma túy

128.222

7.749

120.409

1

Vũ khí

10.941

314

10.626

1

Các hàng hóa được kiểm soát khác

9.719

124

9.593

1

Ngôn từ thù ghét

3.310

67

3.242

1

Khủng bố và Bạo lực cực đoan

104

1

103

1

Tổng quan về Khu vực và Quốc gia

Phần này cung cấp tổng quan về các hành động của nhóm An toàn nhằm thực thi Cẩm nang cộng đồng, cả chủ động và để phản hồi các báo cáo vi phạm trong ứng dụng, lấy mẫu từ các khu vực địa lý. Nguyên tắc Cộng đồng của chúng tôi áp dụng cho tất cả nội dung trên Snapchat và cho tất cả các Tín đồ Snapchatter trên toàn cầu, bất kể vị trí.

Bạn có thể tải xuống thông tin về các quốc gia riêng lẻ, bao gồm tất cả các Quốc gia Thành viên Châu Âu, qua tệp CSV đính kèm.



Tổng quan hoạt động của các nhóm An toàn về việc thực thi Nguyên tắc cộng đồng của chúng tôi 

Khu vực

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Bắc Mỹ

3.468.315

2.046.888

Châu Âu

2.815.474

1.810.223

Phần Còn Lại Của Thế Giới

3.390.625

1.937.090

Tổng số

9.674.414

5.794.201

Hành vi vi phạm Nguyên tắc cộng đồng được báo cáo cho các nhóm An toàn của chúng tôi

Khu vực

Báo cáo Nội dung & Tài khoản

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Bắc Mỹ

5.762.412

2.125.819

1.359.763

Châu Âu

5.961.962

2.144.828

1.440.907

Phần Còn Lại Của Thế Giới

8.041.950

2.007.799

1.316.070

Tổng số

19.766.324

6.278.446

4.116.740

Chủ động phát hiện và xử lý theo Nguyên tắc cộng đồng của chúng tôi

Khu vực

Tổng số trường hợp xử lý

Tổng số tài khoản riêng biệt đã xử lý

Bắc Mỹ

1.342.496

785.067

Châu Âu

670.646

422.012

Phần Còn Lại Của Thế Giới

1.382.826

696.364

Tổng số

3.395.968

1.709.224

Quản trị Quảng cáo

Snap cam kết đảm bảo rằng tất cả các quảng cáo đều tuân thủ đầy đủ các chính sách quảng cáo của chúng tôi. Chúng tôi tin vào cách tiếp cận có trách nhiệm với quảng cáo, tạo ra trải nghiệm an toàn cho tất cả Tín Đồ Snapchatter. Tất cả các quảng cáo phải được chúng tôi xem xét và phê duyệt. Ngoài ra, chúng tôi có quyền xóa quảng cáo, bao gồm cả việc trả lời lại phản hồi của người dùng, điều mà chúng tôi rất coi trọng. 


Dưới đây, chúng tôi đã đưa ra thông tin chi tiết về hoạt động kiểm duyệt của chúng tôi đối với các quảng cáo trả phí được báo cáo sau khi chúng được đăng trên Snapchat. Xin lưu ý rằng các quảng cáo trên Snapchat có thể bị gỡ bỏ vì nhiều lý do khác nhau như được nêu trong Chính sách Quảng cáo của Snap, bao gồm cả nội dung lừa đảo, nội dung người lớn, nội dung bạo lực hoặc quấy rối, phát ngôn thù ghét, và vi phạm sở hữu trí tuệ. Thêm vào đó, bạn có thể tìm thấy Danh mục Quảng cáo của Snapchat trên values.snap.com trong tab "Minh bạch".

Tổng số quảng cáo bị cáo cáo

Tổng số quảng cáo bị xóa

67.789

16.410