数字与劳动
在此,我思考数字资本主义下的反抗以及劳动的经验诠释
社交媒体如何围绕危机事件构建"真相":2015年天津爆炸事件后,微博的谣言管理策略
  1. 社交媒体如何围绕危机事件构建”真相”:2015年天津爆炸事件后,微博的谣言管理策略
    1. 介紹
    2. 文獻回顧
      1. 在线内容审核
      2. 微博的内容審核
    3. 背景
      1. 微博
      2. 天津大爆炸
    4. 方法
      1. 数据收集
      2. 數據分析
      3. 谣言管理的 “有效性”:时间序列分析
    5. 結果
      1. 研究问题1
      2. 研究問題2
    6. 討論

社交媒体如何围绕危机事件构建”真相”:2015年天津爆炸事件后,微博的谣言管理策略

原文連結:How Social Media Construct “Truth” Around Crisis Events: Weibo’s Rumor Management Strategies After the 2015 Tianjin Blasts

中国通常在社交媒体平台上以“谣言管理”的名义控制网上信息。本文检测了新浪微博(中国最大的微博平台)用于规范2015年天津大爆炸事件相关谣言讨论的 “内容审核策略”。一共收集了超过100,000条微博, 分成三组数据集: 公众谣言讨论帖、微博官方辟谣账号的辟谣帖以及被系统删除的帖子。一共识别出两种内容审核策略: 辟谣和内容删除。通过使用聚类分析和时间序列分析, 本文检测了这两类策略如何被用于过滤不同话题帖, 以及其如何与谣言相关话题的公众讨论联系在一起。研究结果发现: 该平台对谣言的回应会随着话题的政治敏感性而变化。时间序列分析显示: 两种策略的实施常常与大众对谣言的讨论增加有关, 这暗示策略并不会对公共言论产生连续的激冷效应。

介紹

随着社交媒体作为公民的新闻和信息来源变得越来越重要,人们越来越担心社交媒体平台对信息质量的影响。这种担忧在Brexit和2016年美国总统大选后变得更加普遍。在围绕这两个高调事件的所有激烈辩论中,围绕社交媒体上 “假新闻 “的存在而引发的风波一直是最激烈的讨论点之一(Allcott & Gentzkow,2017;Ott,2016;Solon,2016)。部分是受社交媒体对这两个事件结果的明显实质性影响的推动,人们试图让社交媒体平台为主持错误信息负责。例如,2016年12月,《华盛顿邮报》推出了网络浏览器扩展,对特朗普总统发布的推文进行事实核查(Bump,2016)。同样,在政府的压力下,Facebook德国公司目前正与当地记者组织合作,对该网站上的新闻进行事实核查(ABC,2017)。

这种由社交媒体直接参与管理谣言内容的形式对西方国家来说可能是新鲜的,但在中国这样的专制国家,这种做法从社交媒体诞生之初就已经存在。例如,在中国主要的微博网站微博上就有专门的反谣言账号,用于辟谣甚至审查信息(Cao & An,2011)。在中国,其主流媒体受到专制政权的强力控制,党国对 “官方信息 “的定义实施了凌驾于其上的权威。在这样一个受到严格管制的媒体环境中,社交媒体往往成为另类话语的来源或草根版本的 “真相”(Nip & Fu,2016;White & Fu,2012)。因此,在中国,发起一个 “谣言 “可以达到一个政治目的,例如,对官方消息来源的抗议(Hu,2009)。鉴于网络谣言的政治和社会意义,不同的学者对社交媒体平台的反谣言活动的影响提出了关注(Creemers,2016;Jiang,2016;Yu,2015)。以往的研究大多以描述性研究为主,而本文所报道的研究旨在对中国社交媒体的谣言管理策略的影响进行实证和分析。为此,本研究以2015年天津爆炸事件为例,考察微博的谣言管理策略的后果;即微博的谣言管理策略是激发了公众对相关话题的讨论还是使其沉默。

收集了10万多条微博,并对其进行分析,以回答危机期间谣言是如何被驳斥和审查的问题。通过统计分析来检验微博谣言管理策略可能产生的 “寒蝉效应”。术语 “寒蝉效应 “描述的是个人因可能受到惩罚的威胁而不敢行使权利的情况(Schauer,1978)。在本研究的语境中,寒蝉效应指的是微博的谣言管理策略可能会降低用户个体谈论或讨论被管制话题的兴趣或意向。我们的研究结果表明,根据话题的政治敏感性,这个平台对谣言的反应是不同的。也没有什么证据表明平台对谣言进行审查后会产生寒蝉效应。这个案例研究的结果表明了社会和政治因素在谣言传播中的重要性,以及任何以平台为中心的谣言管理策略可能存在的局限性。

文獻回顧

在线内容审核

借鉴经典的谣言理论,这里将谣言理解为社会中在没有可靠信息时,集体不确定所产生的非官方信息(Allport & Postman,1947;DiFonzo & Bordia,2007;Kapferer,2013;Rosnow,1991;Shibutani,1966)。这种谣言概念将谣言定性为一种本质上并不虚假的信息,也就是说,谣言可以是一种真正的真相,但却不符合(或还不符合)权威或官方的信息来源。在这种情况下,”权威 “指的是有权力验证信息真实性的机构、组织或个人(Fine,2007;Kapferer,2013)。因此,谣言取决于政治权力和权威,这使得它成为学者们研究机构(Berinsky,2015)、社会团体(Duffy,2002)和个人(Manaf,Ghani,& Jais,2013)以及他们在管理谣言时解释现实的方式的一个有趣的课题。结合这些研究,我们将这种对谣言的理解扩展到研究社交媒体平台在管理和定义谣言方面的权威作用。

研究谣言传播与社交媒体平台操纵的关系,在中国的背景下尤为重要。在西方语境下,社交媒体平台大多独立运作,不受政府的直接干预。在这样的背景下,一个平台对网络内容的操纵主要是由法律和经济因素驱动的,如版权侵权或垃圾信息管理等,而且过程相对透明,有据可查。相比之下,中国的社交媒体平台只是在经济上独立于国家。互联网公司要获得国家许可,才能在中国拥有合法的经营地位,因此其业务必须遵守中国法律,并配合政府对政治敏感话题进行监控和审查(Fu,Chan,& Chau,2013;Hiruncharoenvate,Lin,& Gilbert,2015;Zhu,Phipps,Pridgen,Crandall,& Wallach,2013)。

此外,正如不同学者所指出的,网络谣言是揭露中国政府腐败官员的常见信息来源(黄,2015;刘,2013),也是挑战党的官方路线合法性的信息来源(胡,2009)。谣言的这些社会和政治影响是它被查处的一个重要原因。由于中国社交媒体上的谣言管理几乎没有透明度,因此研究互联网平台如何参与谣言内容,以及任何随之而来的对公众讨论的影响,是研究者的一项重要任务。

在媒体和传播领域,有大量的研究在研究社交媒体平台上的谣言管理,并且在不断增加。然而,这些研究大多将谣言管理设想为一个技术问题,而很少关注其社会和政治方面。例如,不同的自动谣言检测方法已经被提出并讨论,以帮助识别社交媒体上的虚假谣言。Castillo、Mendoza和Poblete(2011)研究了2010年智利地震期间Twitter上的信息传播,发现了检测社交媒体上谣言的特征,如URL和信息的情绪。Procter, Vis, and Voss(2013)对2011年伦敦骚乱期间Twitter使用情况的研究指出,通过追踪推文的生命周期来追踪谣言的潜力。Arif等人(2016)利用2014年悉尼围城事件的案例研究,展示了一种混合方法检测谣言的方法,该方法结合了推文的数量、曝光率和内容生产方面。也有类似的研究对微博上的谣言进行了识别。例如,Yang,Liu,Yu,and Yang(2012)和Wu,Yang,Zhu(2015)提出了建立分类器自动识别错误信息的方法。

上述研究都将信息的真实性定义为一个客观的、可衡量的尺度,而本文报告的研究则将信息的真实性概念化为主观的、社会建构的产物。我们特别关注社交媒体平台在社会建构过程中的作用,通过社交媒体平台对内容进行调控。在本研究中,内容调控指的是社交媒体平台利用人工检查(Hiruncharoenvate等,2015;Roberts,2016)或算法过滤(Bucher,2012;Gillespie,2015)来规范用户生成的内容的过程。罗杰斯(2004)从他的信息政治的角度讨论了网络上的信息源如何竞争成为信息,以及这一过程如何受到 “前端政治 “和 “后端政治 “的影响。后端政治涉及到算法的逻辑和实践,而前端政治则表现为如何设计一个界面来改变用户与信息和彼此的接触方式。罗杰斯(2004,第2页)分析的重点是与网络上信息源的公平性、代表性和包容性有关的问题,并认为前端政治和后端政治都会导致 “现实的替代性账户的消亡”。Gillespie(2017)提出了另一种模式来分析社交媒体平台上的内容节制,认为平台管理不当内容的常见方式有两种:删除或标记为不当内容。Gillespie(2017)认为,这两种方法都存在问题,因为删除 “会让平台受到主观性、虚伪、政治保守主义和自我利益的指控”,而标记在使用频率过高或尽管其侵入性较低,但当确定过度依赖算法时,就会引起问题。

微博的内容審核

Rogers和Gillespie都强调了社交媒体平台内容节制策略的重要性,并运用他们对内容节制分类的框架来理解微博与谣言相关的内容节制实践。以微博的谣言管理为例,按照吉列斯皮的删除策略概念,用于从系统中删除帖子的内容审查方式被称为 “后端政治”,而微博用于公开驳斥特定谣言内容的官方帖子(Huang,2015;Yang,2009)则是Rogers(2004)所描述的 “前端政治”,也就是吉列斯皮所说的标记策略。

以往关于微博内容节制的实证研究主要集中在内容审查和舆论制造方面。例如,他们研究了话题如何与审查的强度(Fu等,2013;King,Pan,&Roberts,2013)和速度(Zhu等,2013)以及舆论编造(King,Pan,&Roberts,2016)相关。King等人(2013)是这一主题最有影响力的研究之一,他揭示了中国的审查机构是如何强调对可能导致集体行动的言论进行沉默,而某些对政府的批评却没有被审查。他们的发现得到了其他一些研究的支持。例如,Chen和Xu(2017)发现中国政府的宣传和审查政策主要被专制政权用来阻止集体行动和维护社会稳定。

此外,Zhu等人(2013)利用4亿多条微博帖子的样本,采取定量的方法调查微博的审查机制,提出大部分帖子在发布后一小时内就被删除。他们还表示,可能会部署不同的关键词列表来引导微博的内容删除,而趋势性的讨论话题很可能是目标。虽然绝大多数关于微博内容调控的研究并没有专门针对谣言,但黄晓明(2015)的研究强调了平台的谣言反驳实践。为了评估微博辟谣工作对中国公民对政府态度的影响,Huang(2015)进行了多阶段、大规模的在线实验,得出的结论是,社交媒体辟谣可以减少公民对谣言的相信,但往往不能恢复对中央政府的政治信任。

正如这篇对微博内容调控的综述所表明的那样,很多人关注的是平台的内容删除策略,而很少关注其标记策略。此外,之前没有研究调查内容审查和谣言反驳这两种策略的应用是否与话题事项有关。如前所述,微博上同时使用两种策略来反驳谣言。在本文中,我们试图了解这两种策略是如何针对各种话题实施的,以阐明为什么首先使用这两种策略–这是以前的研究中没有研究过的问题。因此,我们拟研究微博的谣言管理策略如何应用于不同的谣言话题。第一个研究问题是:

问题1. 与天津爆炸事件相关的各种谣言话题的审查和驳斥程度有何不同?

本研究还考察了微博的谣言规制策略对网络讨论的影响。根据我们对中国互联网现有文献的回顾,大量研究探讨了内容监管如何发挥作用(Bamman,O’Conner,&Smith,2012;King等,2013;Ng&Landry,2013;Zhu等,2013),但很少有学者实证检验其对个人用户在线活动的影响。Fu等(2013)采用统计分析的方法对微博监管政策对个体的寒蝉效应进行了评价。”寒蝉效应 “的观点基于行为抑制的心理学理论(Carver & White,1994),认为个体将审查政策视为一种 “惩罚 “或对个人行使言论自由权力的威胁,因此他们可能会抑制自己的行为以避免进一步的惩罚或威胁,从而减少发布或转发与被审查话题相关的信息。从宏观上看,寒蝉效应是指社交媒体平台的监管政策导致用户对某些话题的讨论减少的现象。

与其预期的寒蝉效应相反,审查制度在某些情况下可能会引起公众对被审查话题的兴趣。根据心理反应理论(Brehm,1966),人们对审查的反应可能会引导他们试图恢复被审查者威胁的自由损失–也就是说,审查的结果或后续审查的可能性对用户个人是一种威胁,导致他们对创造易受审查的帖子的关注和兴趣增加。早期的心理学实验发现,审查会导致对被审查信息的兴趣上升,并引发对信息立场态度的改变(Worchel,Arnold,& Baker,1975)。如果将该理论应用于中国微博用户对被权威机构审查的信息做出回应的情况下,用户可能会试图通过创建容易被审查的帖子、转发更多被审查的信息和/或对可能被审查的信息进行复制(如通过屏幕捕捉成图像)来 “恢复 “失去的言论自由和公开发言权。为了测试这两种形式的潜在效应–寒蝉效应和反效应,本研究的第二个任务是问:

问题2:微博的谣言管理策略有何影响?这些策略是刺激了还是压制了网上对这个问题的讨论?

背景

微博

2009年6月初,在天安门事件20周年纪念日的前几天,中国政府封锁了国内大部分可以访问的社交媒体网站,包括世界上最大的微博网站Twitter(Mackey, 2009)。封杀后不久,中国最大的互联网门户网站之一的新浪公司推出了自己的微博服务–新浪微博1,推出后,微博迅速成为国内最受欢迎的社交媒体网站,月活跃用户达2.97亿(范文,2017)。

众所周知,微博与中国当局的密切关系是其占据市场主导地位的关键因素。Benney(2013,第2页)将微博与中国政府的关系描述为 “客户关系”。也就是说,政权为微博在中国微博市场的事实上的垄断提供了便利,但作为回报,微博与中国政府合作,对敏感问题的网上讨论进行审查。微博对1989年天安门抗议事件(Ng & Landry,2013)、被取缔的法轮功组织(Bamman等,2012)和民权活动家陈光诚(Fu等,2013)的讨论的封杀都是典型的案例。

2011年以来,微博开始积极实施谣言监管。例如,它与新浪新闻中心合作成立了官方谣言控制办公室(曹安,2011;新华网,2016)。控谣办公室的工作人员24小时监控网络讨论,并通过官方辟谣账号@微博_辟谣(@ )对谣言帖子进行驳斥,还对微博的谣言传播者进行处罚。2013年,中国政府开展了一系列打击网络谣言的活动,而微博发布的谣言是反谣言活动的重要对象之一。例如,一项新规规定,微博用户发布谣言内容,如果帖子被分享超过500次或浏览次数超过5000次,就会被判处最高3年的监禁(Chin & Mozur,2013)。两年后,该处罚提高到最高7年监禁(新华社,2015a)。由于大多数中国公民在很大程度上依赖本土的社交媒体服务作为替代性信息来源或草根 “真相”(Nip & Fu,2016;White & Fu,2012),反谣言政策引起了评论员和学者对中国网络领域影响的广泛关注(Chin & Mozur,2013;Creemers,2016;Jiang,2016)。这种担忧构成了本研究考察微博对谣言相关话题的内容调控影响的背景。

天津大爆炸

2015年8月12日午夜前后,在中国北方的天津,发生了一系列仓库爆炸事件,摧毁了包括民房在内的大片区域。爆炸发生在私营公司瑞海物流旗下的一个仓库。该事件至少造成163人死亡,近800人受伤(新华社,2016年),是中国最具破坏性的工业灾难之一。除了死伤人数外,由于仓库内储存的大量有毒物质,爆炸还导致周边地区受到严重污染(埃尔南德斯,2016)。根据中国有关部门的调查报告,这场灾难是由该公司对大量危险品的不当储存造成的(新华社,2016)。25名地方政府官员被认定对爆炸负有罪责,瑞海物流董事长于学伟被判处死刑,缓期两年执行(Li & Wu,2016)。

传统媒体对爆炸事件的报道受到严格控制,在事后很长一段时间内,官方对爆炸事件的前因后果鲜有解释。在信息空白的情况下,社交媒体上提供了各种版本的爆炸解释作为猜测。然而,公众猜测的主要焦点是环境和健康损害、腐败问题以及政府对危机的管理不善。这些非官方信息的扩散最终导致了中国政府对谣言传播的严厉打击。结果,中国有50多家网站被关闭,300多个社交媒体账号被暂停,12人因在网上传播谣言而被捕(CNBC,2015;新华社,2015b)。可以说,中国当局对非官方信息的主动回应,本身就证明了天津爆炸谣言的社会和政治影响。本文以微博平台的作用为重点,探讨爆炸事件后如何管理谣言,以及其对公众讨论的影响。

方法

数据收集

为了回答有关谣言反驳和审查的研究问题,我们收集了三组有关天津爆炸事件的微博信息,并将其标注为:通过微博搜索页面的网页界面收集的信息(用户信息);谣言反驳信息;微博大项目获得的审查帖(审查信息)。用户留言用于分析普通公众对天津爆炸事件的讨论情况,但未被反驳或删帖。辟谣信息是指那些已经被微博官方辟谣账号反驳,但微博用户仍可公开的信息。删帖消息是指那些微博用户无法访问的帖子。

用户留言和谣言反驳信息是从微博的搜索引擎中收集的。开发了一个网络爬虫,在整个研究期间,即2015年8月12日至2015年8月26日期间,通过搜索包含一组关键词中任何一个关键词的帖子,每小时从微博的搜索引擎2的Web界面追溯收集搜索结果。部署网络抓取而不是从新浪微博官方应用编程接口(API)中检索数据,是因为API对非特权研究者并非无限制使用,其功能有限3,之前的一项研究使用网络抓取方法收集微博的专题信息,并认为收集到的信息具有代表性(Fung等,2016)。本研究以 “天津”( )和 “爆炸”( )为关键词收集用户消息,以 “天津”( )和 “辟谣”( )为关键词收集辟谣消息。

通过密切跟踪一批有影响力的微博用户,并在固定的时间间隔内随机抽取微博用户,收集被删信息。将这些消息列表与紧接着前一个时间点收集到的版本进行对比,从而找出缺失的消息。通过使用新浪微博API调用验证,进一步检查缺失的消息。如果返回 “权限拒绝 “的错误信息,则确认该帖子被审查。Fu等人(2013)对该方法进行了完整的说明,类似的研究(Zhang&GoncSalves,2016;Zhu等人,2013)也使用了同样的定义(即 “权限拒绝 “的错误)对被删信息进行了检查。

數據分析

谣言管理中的相似性,主题的聚类。第一作者(JZ)将谣言反驳信息和被审查的信息手动分类为谣言主题,并采用归纳法,即开放编码内容分析(Elo & Kyng€as,2008)。采用了归纳法,即开放式编码内容分析(Elo & Kyng€as,2008)。从谣言反驳信息和被审查信息中提取出高频词汇列表,并将其编码为每个对应的主题。然后,通过搜索列表中的术语,将用户消息分类为谣言话题。

根据谣言反驳信息和用户信息数据集中这些主题的相对概率,采用聚类分析法考察主题之间管理策略的相似性。对于每个话题,通过用户消息中话题消息的概率所反映的对该话题的普遍兴趣来调整其在删帖消息和谣言反驳消息中出现的概率。对于第j个集合中的第i个话题,利用以下公式计算出每个集合中每个话题的对数赔率(log OR)。

例如,在109,099条用户信息中,有500条信息被确定为第i条话题,在1,744条辟谣信息中,有50条信息被确定为第i条话题。

Data set ith topic Not ith topic
Rumor-rebuttal messages User messages 50 1694
ith topic 50 500 108599

对数OR值越大,说明第i个话题在第j个集合中出现的可能性比预期的大,反之亦然。计算每个话题的对数OR(i,谣言-反驳)和对数OR(i,審查)值并用于聚类分析。采用聚类分层聚类(AHC)算法进行聚类,并通过肘子法确定最佳话题数(Anderberg,2014)。

谣言管理的 “有效性”:时间序列分析

为了评估微博谣言管理策略实施后,特定话题帖子数量的后续变化,我们采用先导滞后分析的方法,探究平台的谣言回应是否导致相应话题的讨论数量后续下降,或者是否真正刺激了公众更频繁地讨论该话题。

对每个话题进行了引导滞后分析。以特定话题的每日用户留言量的时间序列作为因果时间序列。谣言反驳信息和删帖信息的每日信息量的特定时间序列被视为独立时间序列。通过交叉相关函数(CCF)检验了因变量和独立时间序列之间的先导滞后关系。时间序列的自相关会显著夸大相关性,因此,按照Cryer和Chan(2008)的建议,采用ARIMA模型对时间序列进行预白。我们采取了以下步骤。(i)获取indepen- dent时间序列的ARIMA结构,包括删减信息和谣言反驳信息;(ii)从输入时间序列的拟合ARIMA模型中提取残差时间序列;(iii)对因序列(用户信息)拟合具有相同ARIMA结构的ARIMA模型,并提取残差时间序列;(iv)检验两个残差时间序列的CCF。

由于两个时间序列都是白噪声,预白化过程可以消除自相关对结果CCF的影响。观察到的显著关联,如果有的话,可以解释为独立变量和因变量之间的关系,而不是自相关。由于研究周期较短,我们只考虑了15天的滞后单位(7~þ7天)。当交叉相关在任何滞后单位和前导单位在7至þ7天范围内的5%水平上显著时,这对因变量和独立残差时间序列被认为是一种关联。例如,在负滞后时的正交叉相关表明独立时间序列(即谣言反驳或审查)领先于因果时间序列(即一般讨论)。在这个分析中,只包括每天至少有一个帖子的审查和谣言反驳信息的主题。最后,只分析了六个话题。

結果

我们共收集了109,099条用户信息,1,744条辟谣信息,800条删帖信息(表1)。

所有的辟谣和删帖信息(2,544条)被人工划分为14个与爆炸事件相关的谣言主题(表2)。通过对这些话题的关键词搜索,确定了用户留言数据集、辟谣数据集和审查数据集的相关帖子。表2中还包括了特定话题帖子的数量。

研究问题1

图1绘制了删帖信息和辟谣信息中各话题的对数OR,显示出微博平台上各话题受到不同内容管理策略的影响。例如,”CNN “这个话题,指的是CNN记者被当地政府官员攻击的指控,在删帖信息和辟谣信息中,该话题的对数OR值均为高度正向。图中显示,该话题在微博平台上既被高度审查,又被高度驳斥。相比之下,”DF “这个话题,即关于发现大量死鱼的故事,在删帖信息和辟谣反驳信息中的对数OR值都明显为负。该话题的讨论大多未被微博平台所触及。

Data Set Description Keywords Time Frame Number of Messages
User messages Posts related to the accident that “ were collected from Weibo’s search engine ” (Tianjin) “ (explosion/blast) 12–26 August, 2015 109,099
Rebuttal messages Posts related to discussion of “ rumors that circulated after the blasts. ” (Tianjin) “ (explosion/blast) “ (rumor-debunking) 12–26 August, 2015 1,744
Censored messages Tianjin-blast-related posts that are “ censored by Weibo ” (Tianjin) “ (explosion/blast) 12–26 August, 2015 800

话题缩写的颜色表示集群成员。对数几率比为零,表示此类话题在用户消息中出现的几率与辟谣或被查封消息相同。对数几率比值越是正值,表示这样的话题被辟谣或删帖的几率越大。

利用AHC算法,计算出最佳聚类数量为三个。在本次数据驱动分析中,三组话题分别为 “高度驳斥且可能被查封”(“红色 “话题,7个话题。对数OR为RR>=0)、”轻度驳斥且被查封”(“黑色 “话题,5个话题。对数OR为RR>=2和<0)、”允许公开讨论”(“绿色 “话题,2个话题。对数OR为RR<=2),反映了微博平台谣言管理的三种不同做法。通过分析,我们发现谣言管理根据话题的不同而有所不同。

如图1所示,有8个话题(CNN、CHA、VOL、LM、TRA、OFF、RH、FAR)被查封信息的对数OR值大于0,即有可能被查封。这组谣言包括声称当地政府官员在现场报道中攻击CNN记者(”CNN”)、批评天津城市警察 “抢夺 “志愿者募集的公众捐款的谣言(”VOL”)、猜测当地政府与瑞海物流关系的谣言(”RH”)。在这些谣言中,大部分(8个中有6个,占75%)涉及批评政府对危机的错误反应。

相比之下,在6个被删信息的负面日志或OR的主题中,只有一个主题 “BDE “涉及批评政府的危机反应。这条谣言称,如果当局在消防工作中遵循国际上的 “烧毁原则”,即在所有东西都被烧毁之前,不允许消防员进入现场,那么消防员的伤亡是可以避免的。除此谣言外,其他5个话题都是关于爆炸造成的损失,如空气污染、水污染等。这种 “可能被查处 “的谣言话题与 “不可能被查处 “的谣言话题之间的对比表明,涉及批评政府危机应对或不应对的谣言是影响微博审查决策的关键因素。

研究問題2

我们使用时间序列分析来探索平台的谣言回应是否导致谣言讨论的下降或持续。对于每个话题,我们评估了所有三个数据集中每日帖子数量之间的领先-滞后关联。图2中列出了每个主题的CCF。

图2显示了每个话题在7至þ7滞后单位时,谣言-反驳、删帖和用户消息的每日数量之间的先导-滞后关系。CCF图上的毛发表示不同滞后单位下的交叉相关值。持久性的模式可以解释为在负到零滞后(7到0)时的交叉相关为正,即当前此类话题的用户消息量与输入时间序列的历史消息量(无论是辟谣消息还是删帖消息)正相关。同样,在负向零滞后处出现负交叉相关,说明存在寒蝉效应。

时间序列分析结果显示,平台对一些话题的辟谣力度实际上是随着话题讨论量的增加而增加的。在5个话题中,谣言-反驳时间序列与未来用户留言时间序列水平呈正相关,但 “地方媒体 “例外。因此,有关网络谣言的谣言-反驳活动的增加通常与这些谣言的一般讨论的增加有关。

此外,几乎没有证据表明微博平台的审查制度对用户分享谣言产生了寒蝉效应。观察到的是一种个案模式。对于与腐败相关的谣言(”瑞海 “和 “官员 “话题),即使在审查之后,讨论仍然存在。但对于 “污染 “和 “志愿者 “相关的谣言,未来被审查的信息时间序列与用户信息时间序列呈正相关,这意味着审查活动滞后于一般讨论,表明信息压制的模式。尽管如此,普通公众仍然在讨论这些话题,因此我们没有观察到一致的信息压制模式。只有在 “傷亡 “這個題目上,我們觀察到寒蟬效應的模式,即審查活動與同日一般討論的活躍度下降有關,這在滯後單位0的負交叉關係中顯示出來。

討論

本研究结果表明,微博平台对不同的信息主题以不同的方式应用了辟谣和除谣的做法。例如,平台对政治敏感度较低的谣言话题的回应更多的是依靠公开驳斥,即利用平台官方账号将此类信息标记为虚假谣言。该类谣言包括声称爆炸产生的震动可能导致大量居住在该地区的居民器官受损(话题 “HC”),以及要求人们停止使用某些高速公路以使其可供救护车使用的帖子(话题 “TRA”)。相比之下,对于政治性较强的敏感话题,微博干脆将帖子删除,停止公众讨论。在天津爆炸事件的背景下,政治敏感话题与批评当局对危机处理不当有关。例如,本研究发现的谣言话题之一涉及对CNN记者的攻击(话题 “CNN”)。由于这一谣言引起了国际社会的关注,同时也可能引发中国当局与国际大型新闻机构之间的冲突,微博彻底删除了所有相关帖子,同时利用其官方辟谣账号反复告诉公众,袭击事件并未发生。

聚类分析的结果还显示,对于政治敏感度最低的话题,如与爆炸造成的环境污染相关的谣言,微博既没有大量驳斥,也没有删除相关内容。关于死鱼的谣言就是一个典型的例子(话题 “DF”)。爆炸发生后,天津附近的一条河里发现了数十条死鱼。微博上广泛猜测,死鱼与爆炸之间有关联。不过,由于这个话题的非政治性,这个谣言(话题 “DF”)并没有得到审查人员和微博反驳账号的重视。

微博对谣言回应的不一致支持了Gillespie(2017)对社交媒体平台内容节制做法的担忧。Gillespie(2017)认为,网络平台很难采用一致的策略来监管内容,这种不一致表明平台的监管政策存在主观性、偏见和自利性。在中国语境下,社交媒体平台的内容监管实践不仅受商业利益的驱动,还受到政府的政治压力(Benney,2013;Meng,2011)。由于微博如果不能妥善处理 “公众投诉”,就可能面临国家的处罚(蒋建国,2016,第140页),因此其对谣言内容监管的做法可以被认为是一种自我审查。这种自我审查源于维护平台自身利益和保持高用户流量的协商,也源于国家为维护用户活动的政治正确性而施加的外部政治压力。

早期的研究认为,微博的监管行为会使中国的微博环境变得冷清(Creemers,2016;Fu等,2013),而本研究则证明了中国网民对平台审查的抵制能力。例如,我们发现,微博的谣言反驳工作通常与具体驳斥话题的公开讨论显著增加相关。对于几乎所有的分析话题,在微博开始公开驳斥相关谣言后,微博用户发布了更多讨论该话题的帖子。同时,也没有足够的证据表明谣言删除会持续导致微博平台的寒蝉效应。我们只能观察到可能的证据表明,微博用户对此次事故中到底有多少人遇难的猜测产生了寒蝉效应。也就是说,当微博开始删除关于爆炸事故伤亡的谣言内容时,公众开始明显减少发布关于这个问题的帖子。以物流公司瑞海与政府有联系的谣言和政府官员参与此次事故的谣言为例,微博通过删除相关帖子,实际上带来了这两个话题讨论量的增加。

在这次分析中,我们无法观察到寒蝉效应,至少有两个可能的原因。从方法论上讲,我们的线索滞后分析是比较短期的,而寒蝉效应可能是一个长期的现象。实际上,在危机传播过程中,寒蝉效应可能并不突出,因为谣言的传播速度很快(Doerr,Fouz,&Friedrich,2012),不能像微博上其他敏感的政治传播那样迅速得到遏制(Zhu等,2013)。尽管如此,尽管平台努力标记和删除有关爆炸事件的谣言,但对这些谣言的讨论似乎依然存在。

社交媒体平台的这种谣言管理策略的反作用具有理论和实践意义。中国网民对官方版本灾难的抵制表明,谣言作为对抗当局(包括平台和政府)的社会和政治意义。正如文献中所讨论的那样,社交媒体平台已经越来越被确立为一个权威的空间(Rogers,2004),在这里,信息和用户活动都是通过前端和后端规定形成的。然而,我们的案例研究观察到,用户是如何抵制社交媒体平台的前端策略(官方反驳)和后端策略(审查)来规范谣言内容的。在中国的案例中,由于政府越来越多地试图将社交媒体平台作为一种政治工具,用户对网络平台监管的抵制构成了对专制政权的一种抗议。以往关于微博上的审查和反驳的理论化,并没有完全考虑到其反作用的潜在效果。我们的发现为King等人(2013)关于互联网审查和集体行动的理论展开了有趣的讨论。集体行动相关的互联网审查会不会反噬?同样,如果这些策略不能保证寒蝉效应的产生,那么对反政府信息的审查和反驳是否能像Chen和Xu(2017)所理论的那样,有效地遏制代价高昂的政策改革?这些问题应该通过精心设计的实证研究来回答。

从实践的角度来看,微博谣言管理策略的反作用表明,更多的情境化的谣言反驳策略非常重要。如前所述,媒体与传播领域的大多数谣言研究都集中在开发检测和过滤谣言的技术解决方案上(Castillo等,2011;Procter等,2013;Wu等,2015)。然而,我们分析了微博反谣言策略的影响,以证明在一些谣言案例中,技术解决方案可能只是表面上解决问题。谣言管理策略的制定应基于对平台地缘政治环境的充分了解。正如胡志明(2009)所指出的,中国公众越来越多地利用谣言来挑战权威。在这种情况下,谣言的流传不仅仅是 “官方信息 “缺失的结果,也是由 “制度信任的崩溃 “造成的(Fine,2007,p.7)。为此,重建主流媒体和政府机构等权威信息源的公信力,应列入国家辟谣的优先议程。

此外,本案例研究还暗示,微博平台的谣言管理策略应该更加透明。正如本研究的结论所表明的那样,微博选择性的辟谣方式很大程度上是由平台与党国的关系和专制政权的政治议程所决定的。谣言管理中的这种潜在权力滥用形式也可以与西方民主国家的社交媒体平台相关。例如,西方民主国家逐渐出现了一种将权力赋予社交媒体平台成为 “真相仲裁者 “的趋势。尤其是在Brexit和2016年美国总统大选之后,公众越来越多地要求社交媒体平台在信息核实过程中承担更多的责任(Bump,2016;Solon,2016)。虽然在民主背景下,很难想象国家会直接干预社交媒体平台的谣言管理,但任何平台的决策总会涉及到自身利益和主观性(Andrejevic,2013;Gillespie,2015;Vaidhyanathan,2012)。正如本案例研究所暗示的那样,社交平台谣言管理策略的透明化和责任化不仅对防止权力滥用,而且对提高辟谣工作的有效性至关重要。

本研究有四大局限性。首先,它是观察性的,因此我们不能从结果中产生任何因果关系的说法。对研究结果应谨慎解释。例如,观察到的谣言反击效应也可以被解释为谣言随后从线下到线上的再次出现,而新浪微博的谣言管理机制无法有效管理随后的谣言浪潮。需要进一步研究,通过实验设计来证实这一结论。为了研究中国的互联网审查制度,已经进行了一个大规模的在线实验,涉及创建一个实验性的社交媒体服务(King,Pan,&Roberts,2014)。另一种策略是用其他方法对我们的发现进行三角测量,例如,对审查人员进行定性访谈,以证实我们关于灾后管理谣言的策略不一致的发现;之前已经有记者尝试采访审查人员5。另外,微博用户也可以接受采访,了解他们为什么在灾难期间发布谣言,以及他们对审查和谣言反驳的反应。

其次,我们的内容分析方法可能会被认为不够稳健,可能会因为编码者的主观偏差而无法复制。这种方法不如演绎法(采用先验固定的编码方案)严谨,但之前并没有针对中国突发事件期间网络讨论的话题进行研究,因此我们无法对话题特征进行操作。无监督的话题建模可以用来研究话题特征,但结果往往难以解释(Chang, Gerrish, Wang, Boyd-Graber, & Blei, 2009)。基于我们的研究结果,未来的研究或许可以对中国社交媒体上危机相关讨论的话题特征进行操作。

第三,由于Weiboscope数据收集方法固有的弱点,如被试选择不是随机的,重访被试时间线的间隔不是恒定的等局限性,删帖信息的数据收集可能不全面。因此,我们不能将Weiboscope数据集得出的研究结果概括为代表整个微博用户群体。不过,由于本研究主要是针对不同话题和不同组别采集数据的内容调控策略的比较,因此同样存在上述一系列的局限性,但我们认为话题之间的比较应该是恰当的,因此我们的结论可以公平地认为是有效的。
最后,本研究是对天津爆炸事件的个案研究,研究结果可能无法普遍适用于所有情况。目前的研究范围是有限的,因此我们只能分析有限数量的谣言话题来发现内容调控策略的模式。我们相信,更广泛的研究范围可能会提供更多的话题进行分析,并有可能发现更好的模式,以帮助我们了解内容调控策略如何对不同的话题发挥作用。

最后,本研究分析了2015年天津爆炸事件发生后,微博平台如何应对谣言。我们的研究结果表明,根据谣言话题的政治敏感性,平台对谣言的回应方式不同。在研究的第二部分,我们考察了平台对谣言的回应如何影响后续的公众讨论。我们的研究结果表明,在大多数情况下,尽管网络媒体平台采取了辟谣措施,但对该问题的讨论仍在持续,没有证据表明平台的审查工作导致了一致的寒蝉效应。