新报告:为什么虚假总是能‘击败’真相?机器人水军并不是主要原因

  • 这是一份令人沮丧的报告。它揭示了诸多长期存在的、且没有简单解决方案的问题:主要是人,而不完全是网络机器人(宣传性水军)在“心甘情愿”地毁掉民主,社交媒体变成了认知操纵者的桃花源。唯一的“好消息”是,该报告首次以直观的形式证实了心理学和传播学长久以来的推论,即 人类并不喜欢真相……

人们经常说,中国的异议人士“太喜欢传播甚至杜撰虚假消息,把推特中文变成了垃圾场”。但事实上,非异议人士同样喜欢传播和杜撰假消息,这几乎是人类的通病,太过痴迷于满足或表达自己的立场,只信任那些符合自己立场的信息,而无所谓真假。然而这种人性弱点与民主理想完全背道而驰,它只能意味着最擅长欺骗的人将最终赢得权力。

民主要建立在公民清醒的认识并理解现实的基础上,只有真相才能让人民做出正确的选择。而如今,讲述真相变成了某种勇气,因为人们会因个人狭隘的眼界和错误的理解而怀疑你的整体立场,让你变得可疑。反馈往往完全令人无语。我们编译整理的隐私国际组织(Privacy International )的优秀报告《国家级监视赞助商》被中国异议人士认为是“中南海的外宣写的”,只因为其中揭示了美国对外国监视技术能力的促进……如果我们不顾完整性删除关于美国的部分,只发布中国和欧洲对其他国家监视能力的协助,或许就不会招致如此奇怪的评价了?但这不是解决方案。就如负责采集新闻的编辑告诉我,“某些消息应该移除”,因为“中文读者没必要了解这些东西”,我拒绝了。我们的立场是就事论事,而不是顾及哪个政权的脸面。

但我们有可能很难赢过虚假消息,就如当前的状况,我们的就事论事原则令我们脱离了大部分中国异议人士的群体,以至于技术和知识的协助难以惠及这些最需要它们的人。

中国人对假消息概念有误解,源于当局对所谓的“谣言”的打击,人们开始“喜欢谣言”,以此反驳当局对言论的审查。立场是正确的,但该方法是一种被恶意愚蠢的结果。要知道,当局打击的“谣言”只是违背其自身利益的信息,而并非仅仅是假消息,每一种权力都在试图打造自己的“现实”。如果人们被捆绑在这一狭小的视野内是无法赢得胜利的。因为中国社会的胜利应该是获得民主,而不仅仅是结束当下的专制。

然而,当下的时机非常不利。我们在《真相衰变》这篇文章中已经解释了很多。本文则来自于一份最新的报告,它显示了更加严峻的现实。

“Falsehood flies, and the Truth comes limping after it”

英国讽刺作家 Jonathan Swift 曾经写过这样一句话:“虚假一日千里,真相举步维艰”。在三个世纪前,这是夸张的。但根据上周发表在“ 科学”杂志上的一项研究报告显示,这句话就是对社交媒体的事实描述。

这项大规模的新研究分析了 Twitter 存在的每一个主要有争议的新闻故事 — 大约 126,000 个故事、时间跨度超过 10 年、被 300 万用户发布,结果发现,真相根本无法与恶作剧和谣言竞争。

研究显示,通过每一个常见的指标,虚假消息在 Twitter 上始终支配着真相,虚假新闻和谣传往往能覆盖更多人、更深入地渗透到社交网络中,并且比真实的消息传播得更快

“我们的研究似乎很清楚的表明,虚假信息的表现的确优于真实的信息,”麻省理工学院数据科学家 Soroush Vosoughi 表示,他自 2013 年开始研究假新闻,并领导了这项调查。“这不仅仅是因为机器人,更可能是源于人性本身。“

该研究已引起社会科学家的警觉。“我们必须在 21 世纪重新设计我们的信息生态系统,”一组 16 位政治科学家和法律学者在发表于“ 科学”杂志上的一篇文章中写道。他们呼吁开展跨学科研究的新动力,“以减少假新闻的传播,并解决其所揭示的潜在病理。”

“我们怎样才能创造一个新闻生态系统……重视和促进真相?”

新的研究表明,这并不容易。虽然 Vosoughi 和他的同事只专注于推特 — 这项研究是利用该公司向麻省理工学院提供的独家数据进行的 — 但他们的工作对 Facebook、YouTube 和每个主要的社交网络都有用。任何经常放大引人入胜或挑衅性内容的平台都有可能随之放大假消息

尽管该研究是用统计学的应用语言编写的,但它提供了对在这些平台上传播的信息之准确性的系统性指控。作者发现,一个虚假错误的故事比一个真实的故事更容易形成病毒式传播。平均而言,一个虚假故事比一个真实的故事的传播速度快六倍。虽然虚假故事几乎体现在每个主题上 — — 包括商业、恐怖主义和战争、科学技术和娱乐 — — 但其中关于政治的假新闻经常做得“最好”。

研究发现,Twitter 用户似乎更喜欢分享谎言。即使研究人员控制了虚假消息起源账户之间的每一个差异 — 比如那个人是否有更多的粉丝或被认证了身份 — 结论是这些条件完全无关紧要,与准确的新闻相比,虚假信息被转发的可能性仍然高出 70%!

并且,把全部责任归咎于机器人水军是不合理的。研究发现,从 2006 年到 2016 年,Twitter 机器人也放大了真实故事,就像它们放大了虚假故事一样。作者写道,谎言的繁荣是“因为人类,而不是机器人,是人类更容易被骗、更有可能传播它。”

政治科学家和社交媒体研究人员在很大程度上赞扬了这项研究,称它是迄今为止在社交网络上对虚假消息问题的规模进行的最广泛和最严格的审视,尽管有些人对机器人部分的调查结果提出质疑,并质疑其对“新闻”的定义。

“这是一项非常有趣且令人印象深刻的研究,并且在样本中,明显不真实的断言如何比可证明的真相传播得更快更广泛的调查结果,看起来非常强大,” 牛津大学政治传播学院的 Rasmus Kleis Nielsen 教授说。

是什么让这项研究与众不同?在过去,已经有很多研究人员考察过网上传播虚假信息的问题。他们经常关注围绕奇异事件的谣言,比如在 2012 年发现希格斯玻色子之前的猜测,或者 2010 年海地地震之后的一系列假消息。

这篇新论文的观察覆盖面更为广泛,几乎涵盖了 Twitter 的整个生命周期:从 2006 年9月到 2016 年12月,Twitter 传播的每一条有争议的新闻。但要做到这一点,Vosoughi 及其同事不得不回答更多初步问题,第一条就是:究竟什么是真相?我们要怎么知道什么是真相?

这个问题可能会产生生死攸关的后果。

“虚假消息已经成为一个白热化的政治问题、和真正的文化话题,但触发人们警觉的是五年前的波士顿袭击事件,” 麻省理工学院媒体科学家也是作者之一 Deb Roy 表示。

2013 年4月15日,两枚炸弹在波士顿马拉松赛道附近爆炸,造成3人死亡,数百人受伤。几乎立即,关于爆炸事件的疯狂阴谋论就完全接管了 Twitter 和其他社交媒体平台。4月19日,马萨诸塞州州长要求数百万人留在家中,因为警方进行了大规模的搜捕,信息的混乱变得更加激烈。

Roy 和妻子还有两个孩子被困在贝尔蒙特的房子里,已经陷入困境,Twitter 成为了他们对外界了解的唯一生命线,但是,他说:“我们听到的几乎都是假消息”。

危险解除之后他制作了一个“真相机器”:一种可以对推文进行排序的算法,并从中推出最可能准确的事实。这一算法侧重于给定推文的三个属性:作者的属性(他们通过验证了吗?),推文使用的语言类型(它是否复杂?),以及给定的推文如何通过网络传播。

此后,麻省理工学院管理学教授 Sinan Aral 和 Soroush Vosoughi 转向审视整个Twitter上的谎言是如何发生的。他们不仅回到了“什么是真相?”这个问题,并且更重视另一个密切相关的问题:计算机如何知道什么是真相?

他们选择转向在线事实的最终仲裁者:第三方事实核查网站。通过数据刮取和分析六个不同的事实查证网站,包括 SnopesPolitifact 和 FactCheck.org(它们产生了在 2006 年和 2016 年之间于 Twitter 上的传播的数以万计的谎言列表)然后,他们使用社交网络 Gnip 拥有的专有搜索引擎在 Twitter 上搜索这些谣言。

最终,他们发现了大约 126,000 条推文,这些推文总共被转发了超过 450 万次。其中一些与其他网站上托管的“假”消息有关;一些人开始传言,无论是在推文的文本中还是在附图中;(该团队使用了一个特殊程序 — 就是我们曾经介绍过的“光学字符识别 OCR”,可以搜索静态推文图像中包含的单词)其中有些推文包含的信息半真半假或与其他地方相关联。

然后,他们进行了一系列的分析,比较虚假消息的受欢迎程度和真实新闻的受欢迎程度,结果,他们发现的东西令人震惊。

Vosoughi 举了一个例子:他说,有很多方法可以让推文获得 10,000 转推。如果一位名人发送 Tweet A,并且他拥有几百万粉丝,那么可能有 10,000 个人会在他们的时间线上看到 Tweet A 并决定转发它。Tweet A 被播出,创造了一个大而浅层的模式;与此同时,没有很多关注者的人发送 Tweet B,消息向他们的 20 个关注者发送 — 但是其中有一个人看到了它,并转发了它,然后转发者一个追随者继续看到它并转发它,直到成千上万人看到并分享了 Tweet B。

Tweet A 和 Tweet B 最终都拥有了相同规模的观众,但相比下 Tweet B 有更多的“深度” — — 它的转发有可能将相隔很远的回音壁气泡链接在一起了,以 Tweet A 从未达到过的方式形成了病毒式传播。它同样可以最终获得 10,000 转推,但它具有一个非常不同的扩散模型。

延伸阅读:《为什么社交媒体的气泡生态很容易被操纵?

事情就是这样:根据两个指标,虚假消息占主导地位,它始终覆盖更广泛的受众,并且它比真实新闻更容易深入到社交网络中 — — 数据分析发现,准确的新闻无法将 10 多个转推链接在一起;而假消息可以组成一个至少 19 个转推的连锁,并且假消息比准确的新闻传播的速度快 10 倍。

更重要的是,这些结果即使完全通过人类、而不是机器人操作,也被证明是强大的。与主要调查分开,一组本科生团队实际检查了同一时期的大约 13,000 份随机选择的英文推文。研究表明,虚假信息以“几乎完全相同”的模式就跑赢了真实消息。

以上一次美国总统选举中出现的两个消息为例。2015 年 8 月,社交媒体上传出一则消息,特朗普让一个生病的孩子使用他的专机获得了紧急医疗护理。Snopes 确认几乎所有的部分都是真实的。但根据该团队的估计,只有大约 1,300 人分享或转发了这个故事。

2016 年 2 月,有传闻说特朗普的表弟最近去世了,他的讣告中反对这位大亨竞选总统。该“讣告”说,“作为特朗普姓氏的骄傲继承人,我恳请你们所有人,请不要让那个行走的垃圾袋成为总统。” 但是,Snopes 找不到“堂兄”或他的讣告的任何证据,并将这个故事视为虚假

尽管如此,依然有大约 38,000 名 Twitter 用户分享了这个故事,它将转发链条组合在一起了,这个数字是“病童”故事的三倍

另一个假消息声称拳击手 Floyd Mayweather 戴着穆斯林头巾参加特朗普的集会,也达到了惊人的病毒式传播,拥有超过病童故事10 倍的观众。

我们也不喜欢特朗普,但特朗普如果真的做了善事(帮助生病儿童)哪怕那是一种政治表演,该消息本身也应该被认可为真,与我们所有人对特朗普的看法毫无关系。是真是假与任何人的任何立场都无关。但大多数人做不到这点,无法承认那些违背个人立场的真相。这就是为什么调查性新闻衰落,而所谓的内容营销在操纵大众认知。

为什么谎言如此高效?麻省理工学院的团队确定了两个假设

首先,假新闻似乎比真实新闻更“新颖”。该团队发现,虚假消息通常与它们被转发前 60 天内出现在用户时间线上的所有其他推文有着明显的不同;

其次,虚假新闻比平常的推文更能引发激烈的情绪反应。研究人员创建了一个关键字数据库,Twitter 用户过去常常回复的126,000 条有争议的推文,然后使用最先进的情绪分析工具对其进行分析。他们发现,假推文倾向于引导出与惊讶和厌恶情绪相关的关键词,而准确的推文则会传达与悲伤和信任相关的关键词。

该团队想回答另一个问题:Twitter 机器人是否有助于传播错误信息?

在对 300 万 Twitter 用户的样本中使用两种不同的机器人检测算法后,他们发现,自动机器人的确正在传播虚假新闻 — 但它们以与转发真消息相同的频率转发假消息

“真实和虚假在 Twitter 上传播的巨大差异无法通过机器人的存在来解释,”Aral 说。

但是这一结论让美国一些政治学家不高兴了,他们说,“这不应该被用来反驳俄罗斯机器人最近在播种虚假信息方面的作用”。据“ 纽约时报”称,在佛罗里达州帕克兰的学校枪击事件发生后,与俄罗斯有关的机器人“军队”帮助扩大了分裂言论。(好吧,不过不论如何我们也不想赞成把地缘政治立场拉入科学研究领域的意向)

“这里可能有两种情况(1)在整个10年的数据集中显示,机器人并没有直接支持虚假宣传;(2)在最近的一部分案例中,僵尸网络已被战略性地部署,以扩大虚假宣传的范围。“乔治华盛顿大学政治学家 Dave Karpf 在一封电子邮件中写道。

“我的猜测是,这篇论文将被视为’科学证明机器人并不重要!’ ,如果我们关注 Twitter 的整个生命周期,本文确实表明了这点。但基于机器人的辩论则假设它们的使用最近已经被升级,因为战略性水军已经将资源投入到对它们的使用中。本文并未反驳这一假设,“他说。

Vosoughi 同意他的论文并不能确定僵尸网络的使用是否会在 2016 年美国大选中发生变化:“我们没有研究机器人角色的变化,这是一个有趣的问题,我们可能会在未来的工作中涉入这个问题。”

一些政治科学家也质疑该研究对“新闻”的定义。通过转向事实检查网站,该研究模糊了各种各样的虚假信息:彻头彻尾的谎言,都市传说,恶作剧,恶搞,虚实相间的消息(就是夸张化)和所谓的 “假新闻”。 “它本身并不只是专注假新闻 — 即看起来像新闻内容的文章或视频,它们似乎经历了一个新闻过程,但实际上是捏造的“。

因此,该研究可能会低估“无争议的新闻”:即 广为人知的准确新闻。多年来,Twitter 历史上收获最多的帖子是庆祝奥巴马再次当选总统。但由于他的胜利不是一个广受争议的事实,Snopes 和其他事实核查网站从未进行过证实。于是也就没有被这项研究报告抓取。

政治科学家 Tromble 在一封电子邮件中说:“关键的一点是,能引起强烈情绪的内容更容易在 Twitter 上进一步传播,更快,更深入,更广泛。这一特殊发现与许多不同领域的研究相一致了,包括心理学和传播研究。该报告的体现也相对直观。”

达特茅斯学院教授 Nyhan 说:“网上的虚假信息通常非常新颖且经常是消极的。众所周知这两个特征通常会引起人们对他人的关注,并导致我们希望与他人分享这些信息 — 人类习惯于注意到新的威胁,特别注意消极的威胁。”

“当你不受现实的限制时,创造这两种情绪简直太容易了。因此,人们可以通过强大的方式利用人类心理学与这些网络设计的相互作用“。

他称赞 Twitter 向研究人员提供数据,并呼吁其他主要平台(如 Facebook)也这样做。“在研究方面,平台是关键,我们有很多东西需要学习,但我们在没有平台伙伴关系和合作的情况下可以学习的东西将非常受限,“他说。

这些公司现在拥有很大的权力和影响力,完全可以阻止人们获取民主化的新闻生态。平台现在掌握的权力意味着他们必须面对大量的监督和保持足够的透明度,“他说。

可惜他们没有。所有这些集中化的巨头的“透明度”都不存在,他们的算法作为“商业机密”受到法律保护,他们完全可以大模大样地服务于地缘政治利益和本土维稳,而公民完全不得而知。

然而,以上这些还没有包含研究中最令人沮丧的发现。当开始研究时,麻省理工学院的团队预计,分享最多假新闻的用户基本上都会很受欢迎。他们认为会发现一群人以一种党派意识形态或煽情的方式过度使用 Twitter(类似中国“帝吧”那种五毛团队的用法),积累的粉丝量会比基于事实的其他用户更多。

但最后该团队发现,情况正好相反。与假新闻分享者相比,分享准确信息的用户拥有更多关注者,并发送了更多的推文。这些说实话的用户也在 Twitter 上运作了更长的时间,他们更有可能被验证(蓝色✅)。简而言之,最值得信赖的用户可以拥有 Twitter 作为公司或社区可以赋予其最佳用户的每一个明显的结构优势。

换句话说,真相已经开始运转了,但不知何故,虚假信息仍然赢得了胜利。作者写道:“ 尽管存在 [帐户之间]的这些差异,但虚假的信息依旧比真相更加分散、传播更加快速。而不是理论上的反过来”。

这一发现应该被社交媒体上每一位希望查找或分享准确信息的用户所警惕。这表明,不管人们如何巧妙地计划使用 Twitter,不管他们如何精心策划自己的 feed 或跟随可靠的消息来源,他们仍然很有可能被在这一时刻里推到高热的谎言所欺骗。

而且,人们只要相信了一则假消息便很难放弃这种信任。

假消息分为两种,一种就根植于恐惧本身,另一种则源于希望,它们都与散播者的即有认知存在着或多或少的联系。比如担心网络管制的中国人会相信那些原本出于自我审查而杜撰出来的管制消息;担心恐袭的欧洲人会轻信恐袭很快会再次发生的传言;把改变寄希望于权力斗争的人们会信任所谓的“海外中文小报”杜撰出来的宫廷戏;如果你买了一只股票希望它升值就会倾向于相信该公司生机勃勃之类的宣传性消息……

人们恐惧和期待的心理都会引诱他们相信不同的假消息。对一个群体来说属于“忧患类谣言”的信息,对另一个群体来说就有可能是“心愿类谣言”,谣言的制造者当然深悟这个道理,他们决定散播一则什么样的谣言取决于他们希望人们 — 他们的受众 — 做出什么样的反应。这就是操纵,基于社交工程学。

有趣的是,对一些群体来说,忧患类谣言本身在某种程度上也可以是心愿类谣言,比如特朗普听说他的政敌正在酝酿一个邪恶计划、或者你最不喜欢的那个官员做出了一些令人毛孔悚然的事……你是不是会感觉很满足呢?如果你听到了一则消息描述一件令人愤怒的事,恰好证实了你早前的判断,在愤怒的同时也会有一种满足感。即便是纯粹的假消息你也会倾向于深信不疑,只要它能让你“满足”。

在这一基础上,监视人们的言行就变得很简单了。并且假消息的传播本身就能获取到一些隐私信息,也就是人们称之为“钓鱼帖”的假消息杜撰方法,它还具有次生效应,可以进一步扭曲成为“含有真实信息的”半虚假消息。

尚不清楚哪些干预措施(如果有的话)可以扭转这种虚假的整体生态。几乎没有证据表明人们会改变他们的意见,即使是在他们看到了绝对可靠的事实检查站点做出了判断的情况下,如果结论证明是人们错了,人们就很可能不会承认。在社交网络或搜索引擎上将虚假新闻标记出来的方法如今被很多人信仰,但这种方法显然没什么用。

简而言之,社交媒体似乎一直在系统性地以牺牲事实为代价来放大谎言,专家、政治家和科技公司都不知道可以如何扭转这种趋势。对于任何以共同的公共现实为前提的民主体制来说,这无疑是一个危险的时刻。而对于那些惯用认知操纵以巩固权力和诱导他人以实现自己的利益的威权体制和其社交工程攻击部队来说,这是一个“美好的新时代”。⚪️

广告

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据