海外社交媒体的内容过滤机制对我国互联网管理的启示

来源:环球视野 作者:刘瑞生 孙萍 时间:2018-06-01
0 新媒体 字号:A-A+
分享到: 收藏 打印

摘要:社交媒体在为人类社会带来便利的同时,也有诸多“恶性”信息通过社交媒体大量传播,危害网络健康、引发诸多社会问题。在一向标榜言论表达和信息传播自由的美国及西方国家,社交媒体巨头们很早就建立了内容过滤的“潜规则”和“明举措”,近年来更是不断推出新举措且有不断加强的趋势。我国是社交媒体用户第一大国,进一步提高信息内容管理水平,对社交媒体传播内容进行有效的引导和规制,是净化网络空间和优化传播生态的一个重大问题。充分认识西方社交媒体的内容过滤机制,对正在走向网络强国的我国有一定启示。

未标题-1-恢复的.jpg

近年来,全球几个社交媒体巨头凭借庞大的用户、海量的用户数据、多样的传播方式,勾连出一个“新世界”,正深刻影响着人类的社会生活、交往方式、传播生态、意识形态乃至政治秩序。截至2018年1月,全球人口数量为75.9亿人,互联网用户数量已超过40亿人,而活跃的社交网络用户已达到31.96亿人。Facebook、Youtube、Twitter、Whatsapp、Linkedin等西方主要社交媒体应用均拥有庞大的用户,仅Facebook的月度活跃用户就超过20亿个。值得关注的是,社交媒体零门槛、成本低、影响大的传播特点,也成为滋生不良、有害、非法信息的“温床”,诸多“恶性”信息在社交媒体空间或呈现病毒性显性传播,或者呈潜伏式隐性传播,不仅危害着网络生态,也引发了诸多问题,产生了恶劣的后果。也使得对社交媒体有毒有害内容的治理成为互联网管理的一个世界性难题。

当前,我国是全球社交媒体用户第一大国,进一步提高信息内容管理水平,对社交媒体传播内容进行有效的引导和规制,是净化网络空间和优化传播生态的一个重大问题。值得注意的是,在一向标榜言论表达和信息传播自由的美国,社交媒体巨头们很早就建立了内容过滤的“潜规则”,近年来更是不断推出新的举措。充分认识西方社交媒体的内容过滤机制,对正在走向网络强国的我国有一定启示。

一、海外主要社交媒体的内容过滤机制

海外主要社交媒体,尤其是美国的社交媒体巨头均有进一步加强信息过滤的趋势。

1. 社交媒体内容过滤的“潜规则”与“明举措”

从世界范围来看,内容审查和过滤是西方主要社交媒体监管内容的普遍做法,其过滤机制可分为明暗两种。

明的是公开使用的过滤机制。例如,2017年6月,图片分享社交媒体Instagram推出自动评论过滤器。2017年12月,Twitter推出新的内容过滤规定,目的是过滤掉Twitter上的“仇恨”和“辱骂”内容,包括宣传或颂扬暴力的讯息。

暗的则是“潜规则”,是不为人知的极为隐秘的内部过滤标准。据美国科技媒体网站The Verge报道,在2009年,Facebook就创建了第一个内容审查的“标准”,而在Facebook曾担任内容政策主管的 戴夫•威尔纳称,这份包含 15000 个词的“标准”可谓无所不包。

2. 软硬“恶”信息:美国社交媒体内容过滤的重点内容

如何判断“恶性”信息,主要社交媒体难以形成一致性标准,其过滤的规则也有很大差异。从海外主要社交媒体新近公开推出的内容过滤举措中可以发现,目前几类危害大、恶果明显的“硬性”恶信息是其过滤的重点,相对过滤效果也比较显著,而对一些经过包装的“软色情”、“软暴力”的恶信息,则过滤效果不佳。此外,海外主要社交媒体还和中情局等美国国家安全机构紧密合作,形成一套“秘密”的监控与审查过滤机制。

未标题-1-恢复的.jpg

第一,暴恐信息。近年来,社交网络成为“恐怖势力”的重要“藏身之地”,恐怖组织和暴力分子不仅利用社交网络进行组织勾连,还频频利用社交媒体进行暴恐宣传,一些类似于传播炸弹制造技术的视频被反复上传到YouTube等网站,造成全球暴力恐怖事端迭发,美国社交媒体因此纷纷加强对暴恐信息的过滤。例如,2017年12月Twitter推出的新规主要针对暴力和威胁性信息,禁止“颂扬暴力或暴力行为者”的任何内容,以及“仇恨图像”,包括针对特定群体的相关“敌视和恶意”标志或符号,“针对个人或一群人的具体暴力威胁或企图造成严重身体伤害、死亡或生病都违反我们的政策。”此外,Twitter还将暂停“使用或宣传针对平民暴力行为以促进其理念的组织的附属账号”。

2018年1月,美国立法机构再次敦促互联网公司努力打击恐怖主义及其宣传,Facebook、Twitter和YouTube等社交媒体公司表示,他们将比以往任何时候都更有效地阻止和删除有害内容。

未标题-1-恢复的.jpg

第二,淫秽以及“软色情”信息。社交网络是淫秽信息的重灾区,尤其是一些经过加工包装处理过的“软色情”信息通过社交媒体和视频图片分享网站传播泛滥,对社会尤其是未成年人产生极大的负面影响。海外社交媒体尽管也在不断尝试推出新的手段和方法过滤这些信息,但效果不佳。例如,2018年初,在我国曝出“邪典门”事件,网民发现在我国的一些社交媒体和视频网站有大量从美国流入的“儿童邪典片”,以流行的卡通角色包装了凶杀、绑架、怀孕、注射、互相殴打、血腥、暴力、恋物癖和厕所幽默等内容。而实际上,早在2017年夏天美国即曝出“艾莎门”(Elsagate)事件,某些社会组织在YouTube和YouTube Kids上传不适合儿童观看的血腥暴力和软色情动画视频。该事件令美国社会震惊,《福布斯》杂志称将“艾莎门”事件称为“数字时代的黑暗烙印”。

第三,侵犯性、侮辱性言论。“泄愤”在社交媒体上较为普遍,Twitter新规强调“个人禁止推送任何基于种族、民族、国家、性取向、性别、宗教、年龄、残疾以及疾病相关的具有暴力、攻击性、威胁性的言论。任何与此相关的内容将会被Twitter立即删除”。2015年,推特将负责处理侵犯性言论的工作人员增加了3倍。 2017年底,Facebook、Twitter、YouTube和微软对其平台进行为期六周的监控,去掉了70%的被认为是攻击性的信息。

第四,垃圾信息。各种基于商业利益而在社交媒体泛滥的垃圾信息,也是被过滤的重点。

第五,加强对视频和直播内容的监管过滤。2017年5月,Facebook宣布将在未来一年内增聘3000人,审核和过滤直播平台上面的内容,以便更迅速地删除涉及暴力或谋杀等不当行为的视频。2017年12月,YouTube在对涉及政治、女同性恋、男同性恋、双性恋和变性人(LGBT)等视频进行屏蔽之后,修改了内容过滤,采用了一种限制模式的可选视频过滤器,用于隐藏可能被视为不适合儿童的内容。

二、美国社交媒体内容过滤的新动向

未标题-1-恢复的.jpg

第一,社交媒体建立合作机制。这种合作主要有三个层面:一是与国家安全部门的合作,这已经不是一个秘密,Twitter就曾公开说:“我们基于用户上传的内容评估和不断完善我们的政策,同时还与其他安全组织合作以保证我们能够实践这个行业的最佳做法。”二是社交媒体之间的合作。由于单一社交媒体的网络过滤效果不佳,一些社交媒体开始建立合作机制。2017年底,Facebook、YouTube、Twitter 和微软宣布,他们在合作的内容过滤平台上联手在社交网络中删除了超过 4 万个恐怖主义的视频和图片。 三是与社会展开合作。Twitter早就成立了“信任与安全委员会”(Twitter Trust & Safety Council),并聚集了相关领域的专家来共同帮助Twitter公司应对平台中涉及虐待、欺凌、骚扰等具有侵犯性内容类型。

第二,技术过滤。通过技术开发软件进行内容过滤,是一种简单、成本低的方式,海外主要社交媒体本身都具有强大的网络技术,他们不断开发内容过滤软件。当前,由于图片、语音、视频分享日益活跃,各社交媒体也在开发基于新的算法,针对图片、语音和视频的识别过滤新技术。如YouTube关于极端主义或其他不适当内容而删除的98%的视频,都是由网站的算法自动完成。如2017年6月,Instagram推出自动评论过滤器,用以过滤垃圾消息,同时屏蔽内容和视频中的攻击性评论,这种自动评论过滤器可以自动清除英语、西班牙语、葡萄牙语、阿拉伯语、法语、德语、俄语、日语和汉语的垃圾消息。

第三,人工过滤。由于技术过滤相对简单且容易被用户通过各种方式规避,各社交媒体也采用人工过滤的手段。如2014年就有媒体报道称Facebook和YouTube之类社交网站在全球招有10万信息过滤员,专门删除性侵、暴力、斩首、恋童等内容,人工过滤“删帖”在东南亚已经形成一个庞大的劳力密集产业,人工过滤员须不断浏览最新上传内容,立即删除限制级帖文与影像。2017年12月,Youtube 表示将会把其内容协调员(content moderator,负责删减不良信息的人)增加到1万人。YouTube也承诺会雇佣更多的“版主”加强删帖。

第四,“关键词”过滤。通过设置“关键词”审核过滤社交网络内容,在技术上易于操作,成本也比较低。早在2009年,Facebook 即创建了第一个内容审查的“关键词”,共包含有 15000 个词。其他社交媒体也都设置有各自的“关键词”,并且在不断更新。2017年2月,推特推出关键词过滤功能打击网络欺凌。

第五,内容过滤结合冻结“争议”账号。主要社交媒体在进行内容过滤的同时也会封停一些“争议”账号。在Twitter的新规中,就会冻结同宣扬暴力的组织有关联的账号,并已经封停了一批具有争议的用户。如2017年12月,Twitter终止了曾经发表反回教徒言论和贴出煽动性视频的极右组织“英国优先党”领袖们的帐号,包括其领导人婕达·弗兰森(Jayda Fransen)和保罗·戈尔丁(Paul Golding)。

第六,内容过滤工具结合用户举报。Twitter也依靠用户举报来指认有问题的帐户和内容,但是也在用新技术发展“内部工具”来提升其内容管理能力。  

三、海外社交媒体内容过滤的特点  

第一,加强内容审查和过滤机制建设是主要社交媒体的共识。加强内容审查和信息过滤是互联网行业一直通用的做法。早在2012年,Twitter就可以针对不同国家和地区实施网络内容过滤。

在互联网行业最为发达的美国,内容审查10年前就在各家公司独立运作,它们根据用户和企业的价值取向建立了各自的内容审查标准。虽然舆论长期呼吁互联网平台内容过滤的透明公开化,但社交媒体审核和过滤的细节则作为商业机密并未公开,负责内容审查工作的员工被公司要求签订长期保密协议,无论在职还是离职都不能公开具体工作细节,因此几乎无人知晓它们如何制定内容审查标准。据报道,Facebook、Pinterest、YouTube等拥有领先其他社交媒体10年的内容审核和过滤机制。

第二,社交媒体重视合作开展内容过滤。世界主要社交网络的内容审查与过滤系统一直是相互独立,缺乏沟通的。由于社交网络具有互通性,单一社交媒体的信息过滤机制往往是事倍功半,难以产生明显的效果。近年来,各社交媒体开始尝试合作构建审查系统。2016 年年底,Facebook、YouTube、Twitter 和微软四家公司宣布成立“反恐怖主义全球互联网论坛(GIFCT)”,目的在于遏制在社交平台上快速传播的恐怖主义视频和图片。

第三,社交媒体重视运用新的技术手段进行内容过滤机制建设。内容过滤和反过滤实质上也是网络信息技术的反复较量。海外主要社交媒体特别重视运用人工智能、语音识别、图片视频识别等新的技术手段。2015年3月,Twitter推出了一项名为“Quality filter”(质量过滤器)的测试功能,声称能够删除在你的通知时间轴上所有包含威胁、攻击性或者虐待的语言、重复的内容或者从可疑帐号发送的信息。反恐怖主义全球互联网论坛(GIFCT)2017年就是采用人工智能识别和共享数据库技术有效地过滤删除掉了大量恐怖主义视频和图片。Instagram也在不断发展新的网络内容筛查技术,2017年3月开始使用照片模糊的方法处理含有侵犯性内容的照片。

早在2016年,YouTube和Facebook就部署系统以过滤或快速下线来自ISIS的视频和其他材料。视频网站采用的技术最初是为了识别及删除涉嫌版权侵权的内容。这项技术会识别视频的“数字指纹”,在数字指纹匹配之后予以删除。在相关视频被识别之后,这项技术能屏蔽同一视频的再次发布。

四、西方社交媒体对我国提高网络管理水平的启示

未标题-1-恢复的.jpg

经过20年余年的高速发展,我国已经迅速成为网络大国,下个阶段将进入稳步发展力求成为网络强国。在这个阶段,我国互联网发展的主要矛盾、根本动力、战略目标已经发生重大转变,因此互联网内容管理观念和机制也要做出相应调整才能适应新时代的发展要求。提高社交媒体内容过滤水平成为提高网络管理能力的重中之重。西方社交媒体的网络审查过滤机制可为我国网络管理带来一定的启示。  

第一,作为社交网络用户全球第一大国,我国要高度重视提高社交媒体内容管理水平。目前,我国互联网网民数量已经接近8亿,基于社交分享的各类应用是我国网络空间最基本和最活跃的应用。因此我国不仅是世界互联网用户第一大国,也是全球社交网络用户第一大国,目前微信的用户数量已经超过10亿,QQ、微博也均拥有庞大的用户数量。我国社交媒体每天发布、分享的海量信息,影响着我国网络空间的晴朗度。因此,能否成为真正意义上的网络强国,关键在于能否给网民提供积极的网络生态,而净化网络生态,关键在于社交媒体的内容管理水平。

第二,要根据互联网发展主要矛盾的转变,调整互联网内容管理观念。在互联网高度发展的前20年,我国一直重视互联网内容监管,但在观念上,内容监管主要是为了保障网络高速发展的大局,在维护社会稳定和网络安全的前提下,满足广大网民的基本需求。为此,我国逐步建立了一套与此相适应,具有中国特色的网络内容监管和信息过滤机制,对于维护我国网络安全、净化网络空间发挥了很大作用。如果说前一个阶段,我国互联网发展的主要矛盾是人民日益增长的网络文化生活需要同滞后的网络发展之间的矛盾,那么现阶段,我国互联网发展的主要矛盾,已经转变为广大网民日益增长的对美好网络生活的需要和不平衡不充分的网络发展与治理之间的矛盾。也就是说,网民之前主要需要的是基本的“上网”服务,而现阶段,他们需要的是“上好网”。新的目标和主要矛盾体现在内容监管上,就要求升级理念,提高互联网内容的过滤水平以更好地满足网民的需求。

第三,要加强对海外社交媒体的内容过滤机制的研究和介绍,提高网民对网络内容审核和过滤正当性的认识和支持。当前,包括美国互联网公司的全球网络审查和过滤都在加强,互联网公司与政府的合作也日益紧密。例如谷歌2017年9月公布的数据透明度报告显示,2017年上半年,全球各地的政府向谷歌发出48941项请求,要求提供数据,涉及83345个帐户,其中涉及65%超过54000个帐户的请求得到谷歌的配合,这些数量超过往年。同期,谷歌收到最多500份来自美国联邦调查局(FBI)的国家安全密函,涉及帐户约1500个,密函要求谷歌提供信息,不需要得到法官的批准。尤其是随着全球反恐主义浪潮日益高涨,美国主要社交媒体都加强了对于仇视性和威胁性言论的监管和控制,它们对意识形态性强与政治性敏感信息采用相对“软”的方式过滤,而对“硬性恶信息”则一点不手软。相反,我们对于“硬性恶信息”的治理相对不够硬,还亟待加强。我们应该加强对海外社交媒体内容过滤机制的研究,借鉴其合理成分为我所用,并加强向社会介绍其他国家社交媒体的内容审查与过滤办法,以增进社会公众对网络过滤这一全球同行做法的认知。

第四,要发展有中国特色的高水平的网络内容监管机制。中国要由网络大国成为网络强国,必须要提高网络内容管理的水平。尽管西方国家无视中国互联网快速发展的成就而一再抨击我国的互联网监管机制,但我们要看到,加强互联网监管是当前世界上主要国家的趋势,海外主要社交媒体也在不断发展内容过滤机制。对此,我们不必过于在意西方国家的评价,反而更要重视提高我国的互联网内容监管水平。有几个方面是我们需要提升的。一是网络内容过滤机制相对粗放,不够细致,有待进一步优化。二是内容过滤手段过于简单,新技术的应用不够,有时候容易造成粗暴过滤。三是内容过滤不平衡不充分,相对而言我们更重视显性的具有直接政治攻击性的信息和暴恐类犯罪信息,而对谣言、假新闻、软色情、低俗信息、垃圾信息尤其是侵权信息、非法广告等信息仍过滤不足。在治理观念上要重视综合平衡调整。从危害来看,不可低估软色情、软暴力、侵权、垃圾信息等隐性信息的危害,特别要重视对非法账号的监控,要将其看作是下个阶段内容过滤的重点。

同时,开发新的更有效的过滤新技术。互联网信息技术日新月异,内容过滤技术也要与时俱进,我们要重点开发基于新的算法的针对图片、语音、视频的过滤技术。其次,还要细化内容过滤规则,增强有效性和可操作性。如YouTube在其“政策中心”的网站上明确指出了YouTube禁止发布的相关视频内容,包括:骚扰与网络欺诈、仇恨性言论、违规扮演、威胁、危害儿童、性与裸露、暴力、危险性内容、欺诈等。其中每一条都附带了相关解释性信息,以及可能涉及的内容。内容明确,有据可循。除此之外,还要加强社交媒体内容过滤机制的合作。治理主体不能过于依赖社交媒体商业平台,必要时,还应考虑引入第三方与商业利益无关的公共机构对其内容过滤进行评估和监督。

第五,要提高网络过滤的预防性和前瞻性,要重视“深挖”社交网络“恶性”信息背后的“黑色、灰色”源头。在社交媒体中,“眼球”经济依然是最重要的法则,因此,“邪典片”之类“恶性”信息大肆传播的背后,都有一个庞大的利益链。2018年1月,YouTube宣布将限制从视频中赚钱的用户数量,并为其最知名的用户添加人性审查。Facebook也在研究一种工具来通知那些“重点”用户,Twitter也将实施几项新措施以监督潜在的舆论和宣传操纵行为的讨论。因此,网络内容治理,我们要重视深挖源头。

第六,提高社交媒体的社会责任,加大对社交媒体平台的经济处罚力度。2017年4月,德国已经开始实施一项法律,要求社会媒体网站删除仇恨言论、假新闻和非法内容,否则处以5000万欧元罚款。我们也可以从中借鉴,加大对社交媒体平台的监管和处罚。 

作者:刘瑞生,中国社会科学院世界社会主义研究中心特邀研究员、新闻与传播研究所副研究员;孙萍,中国社会科学院新闻所助理研究员

文章来源:原文载于《世界社会主义研究》2018年第4期

本文链接:http://www.globalview.cn/html/global/info_24905.html

文章仅代表作者观点,不代表本站立场。转载请注明出处和本文链接

责任编辑:北平

看完这篇文章心情如何

头条

海外社交媒体巨头们内容过滤的“潜规则”

海外社交媒体巨头们内容过滤的“潜规则”
社交媒体在为人类社会带来便利的同时,也有诸多“恶性”信息通过社交媒体大量传播,危害网络健康[详细]

文章排行

评论排行