Facebook 3 个月关了 5.83 亿账号,和微博删帖有什么不同? | 好奇心小数据

丑闻之后,Facebook 的整改还在继续。

周二,Facebook 发布一份《社区标准实施报告》(Community Standards Enforcement Report),这是他们首次披露对不合规帖子和虚假账户的处置情况。今年一季度,Facebook 一共删除了 2888.37 万条包含色情暴力、恐怖主义和仇恨言论的帖子,同时关闭和删除了大约 5.83 亿个虚假账户。

同一天,微博也公布了 4 月份《社区管理工作公告》,这是 2018 年开始每月发布的报告,也用一系列数字表明整改的决心。过去 1 个月,微博合计对超过 6200 万余条微博采取了屏蔽和删除处置。近 7 万个垃圾和机器账号被清理。这还没算 8000 多个涉及到时政有害、涉黄、不实信息等账号。

两家公司的体量相差巨大,Facebook 是全世界最大的社交网络,有超过 20 亿活跃用户,微博有近 4 亿。两个月前 Facebook 因为剑桥分析的数据泄露事件,两天内跌掉的市值就差不多相当于 2 个微博。

促使两个公司动起来的因素有些差别。对于 Facebook 来说,除了那个余祸未消的隐私泄露的大麻烦之外,平台上的假新闻、暴力、色情、偏见等有害内容更让它十年如一日地遭受着批评。

而微博在今年 1 月受到了国家互联网信息办公室的约谈,被要求整改传播炒作导向错误、低俗色情、民族歧视等违法违规有害信息的问题,当日热搜榜、热门话题榜、微博问答等功能就被下线,下线时间持续了一周。

哪些内容会被删除?

两家的报告都列出清理帖子的种类。Facebook 主要包括恐怖主义宣传、图片暴力、裸体和性、仇恨言论、垃圾邮件和虚假账号。

Facebook 最近被广受指责的是仇恨言论,但事实上被删内容中比重最高的是色情信息——今年一季度一共清理了 2100 万条“裸体和性”信息,在所有类别中比重最大。排名第二的是图片暴力,一共删了 340 万条,占总量的 11%。

微博也是同样的情况,成人内容的帖子被删的最多。《好奇心日报(www.qdaily.com)》选取了最近三个月(2、3、4 月)微博的公告数据,这期间删除的涉黄信息有 481.4 万条,占总删帖量的 90%。因涉黄内容而被封禁的账号数量达到了 29134 个。

和政治有关的信息也是删帖重点。

对 Facebook 来说,这一块主要是指恐怖主义和仇恨言论。今年第一季度,Facebook 一共对 190 万个与基地组织、伊斯兰国(ISIS)等恐怖主义有关的帖子采取了强制措施,高于上一季度的 110 万件。

不过,Facebook 此次处理的仇恨言论只有 250 万条,是所有类别中数目最小的一个。而且,其中 Facebook 自主检测的内容只占到了所有被标记内容的 38%,有超过 60% 的内容需要靠用户举报来发现。

这其中的原因,一部分是因为“Facebook 的人工智能系统目前仍然难以辨别言论中的仇恨情绪。”Facebook 产品管理副总裁 Guy Rosen 说。另一部分原因是 Facebook 上的仇恨言论本身可能并不那么显而易见。

今年 4 月,Facebook 上的一些不实信息助长了斯里兰卡佛教徒和穆斯林之间的冲突。罪魁祸首其实往往是一些带有煽动性质的谣言,起初可能和仇恨与偏见并无瓜葛。对于 Facebook 安全团队来说,类似的问题也加重了审核的难度。

在微博上,这一块表现为“时政有害信息”。微博三个月清理了 39.3 万条此类信息,并对 7975 个账号采取了禁止发布微博和评论、限制访问、关闭账号等处置措施。微博没有明确定义“时政有害信息”到底是指什么,从被删的账号来看,违规者来自各种行业,甚至包括解读金庸武侠小说的 @六神磊磊。

发布不实信息、垃圾信息等的账户也受到了微博或关号、或禁言等的惩罚。算上因存在自动化行为而被冻结的 5.11 万个账号,最近三个月微博一共处分了 274054 个账户。

Facebook 没有公布因发布这些违规内容而受到惩罚的账号情况,只是列出了关闭的虚假账号的数量。Guy Rosen 在公司官方博客上发文称,今年头 3 个月,该公司关闭了约 5.83 亿个虚假账户——相当于 Facebook 22 亿月活跃用户的四分之一,其中绝大多数是在注册后数分钟遭到关闭的。在所有的被处理账号之中,Facebook 主动识别了 98.5% 的账号。

人工+算法,内容审核的基本手段

Facebook 公告称,其中 99.5 % 与恐怖主义相关的帖子是由 Facebook 自己找到的,而不是来自用户的举报。Facebook 将这归功于人工智能技术的提高:“这一增长主要是因为我们利用图像识别技术来发现违规内容的能力提高了,该技术可检测新发布的内容,也可以检测旧帖子。”

Facebook 对图片暴力、裸体和性以及垃圾邮件信息的检测趋势也与此类似。有 90% 左右的内容是在用户举报前被发现的,而主要的原因都是“技术升级”。

唯独与此不同的是,在仇恨言论方面,Facebook 自主检测的内容只占到了所有被标记内容的 38%,有超过 60% 的内容需要靠用户举报来发现。而且,被处理的帖子只有 250 万,让人怀疑是否有更多的内容还隐在暗处未被揪出。

Facebook 产品管理副总裁 Guy Rosen 表示,出现这种结果的原因是人工智能系统目前仍然难以辨别言论中的仇恨情绪。但马克·扎克伯格对未来表示乐观。他在国会证词中表达了将来使用 AI 来清除其平台上的仇恨言论的计划:“我乐观地认为,在五到十年的时间里,我们将拥有一些人工智能工具,可以深入了解不同类型内容的语言细微差别,以便更准确。”

在审核机制上,微博也与 Facebook 有着比较明显的区别。今年 1 月被约谈整改后,微博对内容审核技术进行了调整。微博副总裁曹增辉今年 2 月份在接受界面采访时表示,微博引入了“编辑人工干预”的模式,将算法挖掘作为基础,在排序和选择上放弃纯粹算法的方式,引入编辑对违反有关法律法规的内容、社会负能量的信息、过度娱乐化的信息进行人工干预。

在这种策略下,微博的人工审核队伍越来越大。据曹增辉所说,微博运营人员现在有 332 人,考虑增加到 600 多人,主要负责“对有传播影响力的账号进行管理”;内容编辑中心,现在有 50 人,将增加到不低于 100 人,主要负责“对热搜等热点区域内容加大人工干预审核力度”;安全审核人员团队现在有 1100 人,将增加到 2000 人,主要负责“对违法违规信息进行审核处理,多层复检”;微博监督员将增加到 2000 人,由微博公开招募网友组成,对站内涉黄信息进行举报,然后按月提供上网补贴和物质奖励。

最后,研发信息鉴别技术的研发人员有 197 人,未来会增加 10% 左右。曹增辉介绍说,已有技术包括关键词检测系统、图片检测系统、违法信息模型检测、有害帐号特征库等。

算上所有计划内增量,微博的社区内容安全人员约有 4900 人,微博目前的活跃用户为 4.11 亿人,平均下来每名安全人员需要覆盖八万多名用户。

而 Facebook 也有人工团队,他们的安全团队分为社区运营和社区诚信两支团队。社区诚信团队主要负责建立举报-反应机制的自动化工具。

去年秋季 Facebook 的内容审查员有一万多人,今年将扩张到两万。以 Facebook 目前二十亿活跃用户来算,每名安全人员需覆盖十万用户。

这让 Facebook 花费了很多钱。2016 年,Facebook 为其社区运营部门分配了大约 1.5 亿美元的资金,到 2017 年,Facebook 将社区运营团队的预算增加了近 50%,达到 2.2 亿美元。华尔街日报引用内部人士消息称,2018 年预算将为 7.7 亿美元。

今年 3 月,联合国曾称 Facebook 要为在缅甸传播罗兴亚少数民族仇恨言论一事负责。Facebook 公司辩称,由于缺少能说当地语言的审核者,所以难以阻止仇恨言论的传播。Guy Rosen 表示,Facebook 今年将聘用更多当地审核者。

微博并未公开在内容审核上的具体资金投入。

制图/吴羚玮 题图/GIPHY

我们做了一个壁纸应用,给你的手机加点好奇心。去 App 商店搜 好奇怪 下载吧。