每天,世界各地的 Snapchatter 使用我们的应用程序与其亲密好友对话,并创造性地表达自己。我们的目标是设计培养、支持真正友谊的产品并发展相关科技,给用户一个健康、安全和有趣的环境。我们不断努力改进实现目标的方式,从政策和《社群指南》,到预防、发现、禁止有害内容的工具,再到帮助教育和增强社群能力的举措。

我们致力于加大提供透明度,公开违反我们指南的普遍内容,公开我们如何执行政策,如何回应执法部门和政府对信息的要求,以及未来要在哪些地方提供更深入的见解。我们每年发布两次透明度报告,阐释我们在这方面的工作,并致力于向许多关注网上安全和透明度的利益相关者提供更加全面、有用的报告。

本报告涵盖 2020 年下半年的情况(7 月 1 日至 12 月 31 日)。与以往的报告一样,本报告公布在 2020 年下半年的全球违规行为总数;我们收到的内容报告数量和对具体违反类别的执行数量;我们如何支持和履行执法部门和政府的要求;以及按国家/地区分列的执行数据。

作为我们不断改进安全措施和透明度报告的一部分,本报告还包括几项新内容:

  • 违规内容浏览率 (VVR),该比率让大家更好地理解含有违反我们政策的内容的 Snap 占所有 Snap (或浏览数)的份额。

  • 对全球的虚假信息内容和帐户的执行总数,这在这段时间尤其相关,因为世界在继续与全球大流行病、破坏公民和民主规范的行为作斗争;以及

  • 提出对可能违反商标的行为予以协助调查的要求数量。

我们正在进行若干改进以提高我们的能力,能够在未来的报告中提供更加详细的数据。这包括增加违反数据的细分类别。例如,我们目前报告违反管制商品的行为,包括非法药物和武器。今后,我们计划把它们分别归入自己的细分类别。

随着网络新威胁和新行为的出现,我们将继续改进工具和策略,以打击此类威胁和行为。我们不断评估风险,不断思考可以如何提高技术能力,从而更好地保护社群。我们经常向安全专家寻求指导,如何让我们能够比违规者先行一步;我们感谢不断增加的合作伙伴,他们提供宝贵的反馈意见,推动我们进步。

有关我们为确保安全和隐私而采取的方法及提供的资源,请访问页面底部的关于透明度报告选项卡来获取更多信息。

内容和帐户违规概览

《社群指南》禁止有害内容,包括虚假信息;可能造成伤害的阴谋论;欺骗行为;非法活动,包括购买或销售非法药物、假冒商品、违禁品或非法武器;仇恨言论、仇恨团体、恐怖主义;骚扰、霸凌;威胁、暴力、伤害,包括美化自我伤害、露骨的性内容、儿童性剥削。

每天,使用 Snapchat 相机创建的 Snap 平均超过 50 亿条。自 2020 年 7 月 1 日起至 12 月 31 日止,我们对全球范围内违反规范的 5,543,281 项内容予以执行

执行行为可以包括移除违规内容;终止或限制违规帐户的可见性;将内容提交执法部门。如果帐户因违反指南而被终止,则禁止该帐户持有人创建新帐户或再次使用 Snapchat。

在本报告期间,违规内容浏览率 (VVR) 为 0.08 %,这意味着在每 1 万项 Snap 内容浏览中,有 8 项内容违反规范。

我们提供应用程序内报告工具,让 Snapchatter 可以轻松、快捷地向我们的信任与安全团队报告内容,他们对报告进行调查,并采取适当行动。我们的团队会尽快实施执行行为,在绝大多数情况下,在收到应用程序内报告后 2 小时内采取行动。

除了应用程序内报告外,我们还通过支持网站提供在线报告选项。此外,我们的团队不断提高主动发现违规和违法内容(例如儿童性虐待材料、包含非法药物或武器的内容,或暴力威胁)的能力。我们在本报告中概要介绍我们打击儿童性剥削和性虐待行为的具体内容。

如下图所示,在 2020 年下半年,我们收到的大多数应用程序内报告或协助要求是含有假冒行为的内容或露骨的性内容。我们对违反行为的报告的回应时间已大大缩短,特别是对管制商品,包括非法药物、假冒商品、武器;露骨的性内容;骚扰、霸凌。

内容报告总数*

强制执行的内容总数

强制执行的唯一账户总数

10,131,891

5,543,281

2,100,124

Reason

Content Reports*

Content Enforced

% of Total Content Enforced

Unique Accounts Enforced

Turnaround Time**

Sexually Explicit Content

5,839,778

4,306,589

77.7%

1,316,484

0.01

Regulated Goods

523,390

427,272

7.7%

209,230

0.01

Threatening / Violence / Harm

882,737

337,710

6.1%

232,705

0.49

Harassment and Bullying

723,784

238,997

4.3%

182,414

0.75

Spam

387,604

132,134

2.4%

75,421

0.21

Hate Speech

222,263

77,587

1.4%

61,912

0.66

Impersonation

1,552,335

22,992

0.4%

21,958

0.33

*内容报告数量反映了在我们的应用程序内报告的以及向支持团队询问的涉嫌违规的数量。

**办理时间反映了从收到用户提交的报告到采取行动之间的中间时间(以小时计算)。

其他违规行为

打击虚假信息的传播

我们一直认为,在涉及有害内容时,仅仅考虑政策和执行是不够的,平台需要考虑其基本结构和产品设计。从一开始,Snapchat 的创建就与传统社交媒体平台不同,其主要目的是支持我们与亲密好友的对话,而不是公开的新闻推送,后者是任何人都有权传播任何内容给任何人的地方,没有监督。

正如我们在介绍中说明的,我们的规范明确禁止传播可能造成伤害的虚假信息,包括旨在破坏公民程序的虚假信息,例如对选民的压制、未经证实的医疗断言,以及阴谋论,如否认悲剧事件。我们的规范统一适用于所有 Snapchatter,政治家或公众人物无一例外。

Snapchat 应用程序内限制疯传,移除对有害和大肆渲染内容的激励,并限制与违规内容传播有关的担忧。我们没有公开的新闻推送,也不会给未经审查的内容有疯传的机会。我们的内容平台,Discover,仅突出来自经审查的媒体发行商和内容创作者的内容。

2020 年 11 月,我们推出了新的娱乐平台,聚光灯,对提交的内容主动予以监督,确保该内容符合规范后,才可以传至广大观众。

此外,我们长期以来一直都对政治广告采取不同的做法。与 Snapchat 上的所有内容一样,我们禁止广告中含有虚假信息和欺骗行为。所有政治广告,包括与选举有关的广告、议题宣传广告、议题广告,都必须含有明显的“付款”信息,披露赞助组织。我们采用人工审查,核实所有政治广告中的事实,并将所有通过审查的广告的情况放在政治广告库

这种做法并不完美,但它有助于我们保护 Snapchat,使之免受近年来虚假信息大量增加的影响,特别是关于 COVID-19 和美国 2020 年总统选举的虚假信息,曾经充斥许多平台。

在本报告期间,Snapchat 对全球范围内 5,841 项违反虚假信息规范的内容和帐户予以执行。在未来的报告中,我们计划对违反虚假信息规范的行为提供更为详细的分类描述。

2020 年夏天美国发生阻止投票和破坏选举结果的事件,鉴于人们对此类情况日益关注,我们成立了一个内部工作组,重点是评估滥用平台的任何潜在风险或载体,监测所有事态发展,并努力确保 Snap 提供真实的新闻和信息。这些工作包括:

  • 更新社群规范,在禁止类内容中增加以误导为目的的媒体操控,例如深度伪造;

  • 与 Discover 编辑伙伴合作,确保发行商不会因疏忽而在新闻报道中宣传任何虚假信息;

  • 要求 Snap 明星确保遵守《社群指南》,避免无意间通过其在 Discover 上的内容传播虚假信息;

  • 规定明确的执行结果:对任何违规内容一律予以移除,而不是标签内容,从而立即减少广为传播可导致的危害;

  • 主动分析可能会在 Snapchat 上传播虚假信息的实体及此类信息的来源,以便评估风险,采取预防措施。

在 COVID-19 流行期间,我们采取了类似的做法来提供真实的新闻和信息,包括通过 Discover 编辑合作伙伴,通过公益广告,通过与公共卫生官员和医学专家的问答,以及通过创意工具(例如增强现实特效镜头和滤镜),提醒 Snapchatter 了解专家的公共卫生指南。

内容和帐户执行总数

5,841

打击儿童性剥削与虐待

对任何社群成员,特别是青年和未成年人的剥削是非法的,不可接受的,属于规范禁止的内容。预防、发现和消除平台上的虐待是我们的首要任务,我们不断提高打击儿童性虐待材料(CSAM)和其他剥削类型内容的能力。

我们的信任与安全团队使用主动发现工具,例如 PhotoDNA 技术,来识别已知的 CSAM 图像,并向全国失踪和被剥削儿童中心 (NCMEC) 报告。当我们主动发现或识别 CSAM 图像时,我们会加以保存,并向 NCMEC 报告,后者将开展审查、与执法部门协调。

在 2020 年下半年,在我们对全球范围内违反《社群指南》的行为采取的执行总数中,有 2.99 % 包含 CSAM。其中,我们主动发现并采取行动的占内容的 73 % 。总的说来,我们删除了 47,550 个违反 CSAM 的帐户,并将每一起事件的内容都报告给了 NCMEC。

在本报告期间,我们采取了若干步骤,进一步打击 CSAM。我们采用谷歌的儿童性虐待图像 (CSAI) 技术,使我们能够发现 CSAM 视频,并向 NCMEC 报告。再结合我们的能发现已知的 CSAM 图像的 PhotoDNA 以及行业的散列数据库,我们现在可以主动发现已知的视频和照片并向当局报告。这种增强的能力,使我们能够更加有效地发现、报告此类犯罪行为。

此外,我们继续扩大与行业专家的伙伴关系,推出了其他应用程序内功能,帮助 Snapchatter 了解与陌生人联系的风险,以及如何使用应用程序内报告来提醒安全与信任团队注意任何类型的虐待。我们继续在我们的可靠报告人项目中添加合作伙伴,为经过审查的安全专家提供一个保密渠道来报告紧急事件,例如对生命的紧迫威胁,或涉及 CSAM 的事件。我们还与这些伙伴密切合作,提供安全教育、健康资源和其他报告支持,从而他们可以有效地支持 Snapchat 社群。

此外,我们是 Technology Coalition 的董事会成员,该组织汇聚了科技行业的领导人,他们寻找方法来预防、根除在线儿童性剥削和虐待,而且我们不断与其他平台和安全专家合作,探讨其他解决办法,加强我们在这一领域的共同努力。

帐户删除总数

47,550

恐怖分子与极端主义内容

在 Snap,监测这一领域发展情况,并减少平台上可能存在的宣传极端主义的载体,这是由我们为保障美国选举公正而设的工作组负责的。我们产品的结构以及群聊功能的设计都限制了有害内容的传播和组织活动的机会。我们提供群聊,但规模限于几十名成员,而且他们不是算法推荐的;如果你不是群组的成员,则无法在平台上发现他们。

在 2020 年下半年,我们移除了 8 个违反禁止恐怖主义、仇恨言论和极端主义内容的帐户。

帐户删除总数

8

国家/地区概述

本部分简要介绍我们的规则在抽样国家/地区的执行情况。我们的《社群指南》适用于 Snapchat 上的所有内容和全球各地的每个 Snapchatter(无论在哪里都适用)。

所有其他国家/地区的相关信息可通过下载此处的 CSV 文件获取。

区域

内容报告数量*

内容处理数量

唯一帐户处理数量

北美洲

4,230,320

2,538,416

928,980

欧洲

2,634,878

1,417,649

535,649

世界其他地区

3,266,693

1,587,216

431,407

总计

10,131,891

5,543,281

1,896,015