媒体操控:战略性欺骗的重头戏

  • 如果你认为你所追求的东西是正义的,那就最好不要采取任何不正义的策略

多年前,IYP 曾预测集中化互联网、尤其是社交媒体,将变成纯粹的广告栏,一切都是为了宣传、影响、甚至是操纵。如今看起来这一预言正在以惊人的速度实现并深化。

本文是另一个主题 —— 战略性欺骗的前奏,这种欺骗手段是交战中最常用的,不论是意识形态斗争还是军事斗争,不论是对内压制反对派还是对外打击敌人;它并不是撒谎这么简单,它需要是一种战略,也就是要在利己的前提下损人。

媒体操控是战略性欺骗采取的诸多手段之一,也是最常用的手段;媒体在普通人眼中是信息和知识的来源,在其他人眼中不仅是信息来源,而且是武器。

基于批评的异议其性质是一种协作;而反抗则是一种对战。如果您有意挑战主流政治,了解这些知识是很有必要的。我们不需要亲自撞墙才能学到东西,他人曾经撞过的墙都应该被画上一个大大的惊叹号。

要理解战略性欺骗在当今的用法就要首先需要了解当下最有利于其操作的背景。当然,关于监视资本主义、军事工业综合体这些背景概念已经被很多人所熟知,大多来自于新闻故事和由此展开的简要分析;但这样似乎不够系统。我们尝试在“Knowledge Node”中将它系统化处理一下,方便您的查阅。

—— 媒体操控 ——

媒体操控有着“悠久”的历史,作为信息战和心理战中最强有力的手段之一。

媒体操控并不是“党管媒体”这么简单和笨拙,它是深藏不露的,让你从表面上看上去是一群“自由的媒体”,而实际上其发布的内容仅有利于其被背后那只大手。我们曾经在独家消息中披露过中国当局在内部透露的对宣传的理解,即“润物细无声”,就是这个意思;继续仅仅嘲笑党管媒体会让你错过真正的威胁。

媒体操控是一系列相关技术,党派拥护者在其中创造有利于他们自己特定兴趣的图像或论据。

⚠️这种策略可能包括使用逻辑谬误、心理操纵、彻头彻尾的欺骗、修辞和各种宣传技巧、并且通常通过诱使其他人或群体*停止倾听*某些信息或观点来抑制操控者不同意的信息或观点,或者,简单地将公众的注意力转移到其他地方

在这里看到一些案例解释《秘密宣传网络》、《以谣言为武器》、《在线宣传战的结果》,两个完整分析《操纵式宣传:五个过滤器和识别线索》、《微妙的宣传》,一些历史《人格暗杀和抹黑运动》。

在《Propaganda: The Formation of Men’s Attitudes》一书中,Jacques Ellul 写道,公众舆论只能通过大众传播媒介提供的渠道来表达自己 —— 没有这些渠道就不会有宣传。宣传包括公关、政治宣传、营销等。虽然每个背景的目标都是完全不同的,但广泛的技术使用往往十分相似。

看一个案例 ——

媒体操控方面最厉害的人之一当属CIA。[另附四年前的一个报道,关于中国的媒体操控《大外宣战略、审查和自我审查》,对比一下会感觉很土]

请注意,⚠️CIA的做法是几乎所有当权者都有可能采用的,当然首先是他们能想到这么做,尤其是避免被揭露。内部举报人是击败这些阴谋的最强大力量(而不是国会)。

1、植入“新闻”

中央情报局高级官员 Ralph McGehee 揭露,中央情报局经常在媒体刊物中匿名发布“新闻报道”,以传播有利于中央情报局目标的错误观点

这种被植入的报道可能会被其他报纸和其他第三方所转载、并进一步扩散传播,形式略有改变,甚至被当成真正的新闻报道,然后由其他记者改写。

媒体间的*唯渠道转载*被利用来制造秘密的宣传攻势。

唯渠道转载指的是,比如一家知名媒体A独家报道了一个故事,其他媒体就可以迅速跟进并引述“知名媒体A报道说”;但是如果该报道的记者和编辑是被CIA控制的呢,其他媒体并没有兴趣了解这件事,因为它们没有核查的责任。

这件事更有意思的地方也在于其迅速传播的能力,正因此中央情报局为塑造公众舆论而制定的虚假宣传可能会变成回旋器并污染中情局自己的信息档案

McGehee 根据自己的工作经验给出的一个例子是,中央情报局在1965年制作的一个关于海上向越共支援武器的故事。中央情报局“从自己的仓库中拿走了大量共产党制造的武器,将它们装在越南沿海船只上,然后打电话给记者……以’证明’北越对越共的援助”。

这个故事迅速得到了其他新闻媒体的转载报道,以至于海军陆战队后来开始在海岸巡逻,以拦截早先“发现”的那种违禁品。[Ralph W. McGehee, “Deadly Deceits: My 25 Years in the CIA” (Sheridan Square; Ocean Press 1983, 1999), ISBN 1–876175–19–2]

此举是信息战中最常见的操作,我们将来会有更多详细介绍,媒体在信息战中被作为重要武器之一而利用,其中企业媒体(主流媒体)是重灾区,因为他们的流程要求他们的记者不去质疑当权者的话。[具体分析详见《媒体,你真的知道什么是事实吗?》]

2、秘密行动

中央情报局利用本国和外国的大众媒体资产进行秘密行动。

1973年,“华盛顿星报”报道称,中央情报局已经招募了30多名在国外工作的美国记者。把记者当间谍用。 [“U.S. Journalists Doubling as CIA Agents, Paper Says”. Los Angeles Times. 1973–11–30.]

由此,1975年至1976年出现了一系列国会调查,包括中央情报局与记者的关系,审查了各种中央情报局的行动。

对于外国新闻媒体,报告的结论是:

中央情报局目前在世界各地拥有数百名外国人的网络,他们为中央情报局提供情报,有时还试图通过秘密宣传来影响舆论。

这些人为中央情报局提供直接访问大量报纸和期刊的权限,包括数十家新闻服务和新闻机构、广播和电视台、图书出版商和其他外国媒体。[Church Committee Final Report, Vol 1: Foreign and Military Intelligence, p. 455]

对于国内媒体,报告指出:

大约50个所谓的情报资产是美国个人记者或媒体组织的雇员。其中,只有不到一半的人被媒体机构“认证”……其余的人都是非认证的自由撰稿人和驻海外媒体代表……有十多家美国新闻机构和商业出版社以前曾为国外的中情局特工提供庇护。其中一些组织没有意识到自己在做什么。[Church Committee Final Report, Vol 1: Foreign and Military Intelligence, p. 455]

记者 Carl Bernstein 在1977年10月滚石杂志的一篇文章中也指出了一些与中情局合作的记者名字 —— “400多名美国记者在过去二十五年中秘密为中央情报局执行任务”。[The article, The CIA and the Media”, is available on Bernstein’s website.]

与中央情报局合作的其他媒体组织包括美国广播公司、国家广播公司、美联社、联合新闻国际、路透社、赫斯特报业、斯克里普斯 — 霍华德、新闻周刊杂志、迈阿密先驱报、纽约先驱论坛报……还有其他,详见上面的链接。

在这里看到一个详细案例的解释《冷战故事~ CIA 如何操纵媒体影响舆论:Mockingbird 行动》。

另见《什么是秘密行动》(包含当局对反对派团体的渗透行动)。

3、影响海外舆论

中情局敦促其外站使用其“宣传资产”来反驳那些不同意Warren报告的人。[“Cable Sought to Discredit Critics of Warren Report” (PDF), New York Times: A3, 26 December 1977, retrieved 2013–11–27]

中央情报局总部在1967年4月的一次调度说:“阴谋论经常引出对我们组织的怀疑,例如错误地声称 Lee Harvey Oswald 为我们工作。这项调度的目的是提供反对和诋毁阴谋论家的主张的材料,以阻止在其他国家传播此类主张。”[Lee Harvey Oswald 被认为是肯尼迪遇刺案的主凶]

该机构指示世界各地的电视台“与可合作的精英联系,特别是政治家和编辑,以讨论宣传问题”、并 “利用宣传资产来回答和驳斥批评者的攻击。并指出,书评和专题文章特别适合于这个目的。”[http://jfkfacts.org/wp-content/uploads/2013/11/Countering-Warren-critics-040167.pdf]

4、利用娱乐业

在20世纪90年代中期,中央情报局任命 Chase Brandon,一名被分配到南美的运营官员,作为好莱坞的联络人。[Patterson, John (5 October 2001), “Hollywood reporter: The caring, sharing CIA: Central Intelligence gets a makeover”, The Guardian]

Brandon 的电影作品包括“招募”,“所有恐惧的总和”,“国家的敌人”,“坏公司”、和“间谍公司”等;还曾为电视节目包括 The Agency、Alias 和 JAG 提供咨询。[CIA operative Chase Brandon, archived from the original on 2005–11–24, retrieved 2008–03–27]

中央情报局提供援助的电影包括1992年汤姆克兰西小说的电影版“爱国者游戏”、和2003年的电影“新兵”等。

2012年,Tricia Jenkins 出版了一本书,《好莱坞的中央情报局:电影和电视如何被该机构塑造》,进一步记录了中央情报局从20世纪90年代到现在,通过娱乐媒体操纵宣传的努力。

该书解释说,中央情报局已经使用电影来促进招募,加强自己的形象,甚至通过虚假宣传活动。[TY — BOOK T1 — The CIA in Hollywood: How the Agency Shapes Film and Television A1 — Jenkins, Tricia PY — 2012 PB — University of Texas Press CY — Austin SN — 9780292737075 UR — https://muse.jhu.edu/book/14683ER -]

显然,这些方法都是非常简单的。中国读者应该能理解到,即便中宣部和广电总局全解散了,也并不意味着宣传战就此结束

互联网操纵 ——

在媒体操控的所有方式中,目前最常用的手段之一就是互联网操纵。

就如我们在同名类目简介中所注明的:监视是为了操纵,不只是失去隐私那么简单。监视就内嵌在这个互联网里,不可能真正剔除;监视者利用技术手段施加的操控如今已经随处可见。

这种操纵可以用于宣传、诋毁、损害企业或政治竞争对手、改善个人或品牌的声誉、或简单的 trolling 等目的。为了实现这些目标,可以使用在线影响力者、雇佣的专业人员和/或软件技术 —— 通常是互联网/社交媒体机器人

这种社交工程手段被称为认知黑客,指的是旨在改变用户感知和相应行为的网络攻击。[“Cognitive Hacking” (PDF). 2003. Retrieved 4 February2017.; Thompson, Paul (2004). “Cognitive hacking and intelligence and security informatics” (PDF). Enabling Technologies for Simulation Science VIII. 5423: 142–151. doi:10.1117/12.554454. Retrieved 4 February 2017.]

互联网操纵有时也被用来描述选择性的互联网审查、或违反网络中立性。

这种操纵手段之所以能在互联网上最成功,是因为以下几个因素

  • 激烈的情绪病毒:很多研究发现,唤起激烈的情绪(例如敬畏、愤怒或焦虑)的内容更具病毒性传播效力,并且当考虑到惊讶、有兴趣或有用时,这也是有效的。
  • 越简单越好:为复杂环境提供的简单解释经常被用于在线宣传的操作。通常这样比较容易被人们相信,并且具有比任何复杂、细致入微的解释和信息更高速的病毒性传播能力。简单说,你在互联网上审慎思考是不会有影响力的。
  • 同伴影响:网络内容的先前集体评论会影响一个人对该内容的看法。你也能意识到这点,人们喜欢看评论来理解正文,而不是自己去读正文。2015年的研究表明,在线环境中人们对艺术作品的感知因外部影响而有所不同,因为同盟评级受到实验参与者的意见和可信度的操纵。reddit 上的“滚雪球投票”原理也是如此。
  • 过滤气泡:网站管理员或主持人可能会通过修改观点、或建立某些规则、或通过在线圈子或互联网“部落”的形式来创建回音壁和过滤气泡。详见我们对此做过的详细分析《社交媒体的隧道生态和心理操控
  • 确认偏误和受控制的流行程度:假新闻不需要被阅读,仅仅通过其标题和情绪刺激就可以对足够大的受众面产生影响。有读者曾询问为什么IYP经常不采取能完整呈现文章内容的标题,答案就是这个原因,因为前者方式是假消息最爱使用的。
  • 信息的时效性和不可纠正性:人们是倾向于先入为主的,并且互联网的新闻周期非常短,当损害已经达成时,澄清和对假消息的揭露通常会因迟到而基本无效。IYP此前在《人格暗杀和抹黑运动》中对此有过强调。人格谋杀采取的都是虚无缥缈的不可证信息,并无切实证据,但是通常不会被质疑,正是这个原因。辟谣几乎没有用。
  • 心理定位:社交媒体活动和其他数据均可用于针对性分析人的个性并预测他们的行为和偏好。这就是*军事工业综合体*的目标 —— 监视资本主义作为反乌托邦的工具。Michal Kosinski 博士就开发了这样一个程序,通过社交媒体操纵选民、以间接操纵政治。[“Ich habe nur gezeigt, dass es die Bombe gibt”. Das Magazin. 3 December 2016. Retrieved 30 April 2017] 此处详见早前的分析《看不见的独裁

算法专制、回音壁和极化 ——

在线资源的激增曾经一度被认为是媒体多元化的有利基础,但是,社交网络平台和搜索引擎使用不透明的算法为用户提供基于个人偏好的个性化体验,其结果是,不仅没能多元化,反而高度部落化了,限制了人们对不同观点和新闻的接触。这通常被称为“回声壁”和“过滤气泡”。

在算法专制的世界里请谨记这一道理:你能看到的东西基本是他们想让你看到的东西;没有人能知道自己不知道什么

在算法的帮助下,过滤气泡通过给人以广泛共享特定观点或表现形式的虚假印象,借以影响用户的选择和对现实的感知。

这种操纵一直存在,然而却直到2016年英国脱欧和美国总统选举投票之后,才引起了人们的关注。但是,却一度被主流媒体和收钱说话的所谓学者简单地解释为民粹 —— 也就是希望将真正复杂的全球性新专制问题简略为一两名政客的个人问题。这本身就是一种欺骗行为。[符合上述五种因素之二:越简单越容易被信任的效应]

来自 Flaxman、Goel 和 Rao、Pariser 和 Grömping 的研究表明,使用社交媒体和搜索引擎往往会增加而不是减少个体之间的意识形态距离,形成更严重的极化 —— 这就是为什么互联网上极难促成民主辩论。民主基于批判性思考和协商,算法专制下没有这个条件。[Flaxman, Seth, Sharad Goel, and Justin M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly 80 (S1): 298–320.]

密歇根大学的研究人员进行的一项研究表明,个人自己的选择会反过来推动算法过滤,从而限制对一系列内容的曝光。即便假设算法本身不会导致极化,它们也可以在最大程度上放大极化。

—— 军事工业综合体对媒体操控的利用 ——

对于这部分的介绍最全面的一篇报告是《互联网霸主的时间线》,我们将于8月9日发布。

英国最高情报机构政府通讯总部(GCHQ)的联合威胁研究情报小组是全球性监控体系的一部分,被斯诺登泄露的文件曝光。该机构的任务范围包括使用“肮脏的技巧”来“摧毁、否认、压制[和]破坏”任何政治对手。[Glenn Greenwald (2014–02–24). “How Covert Agents Infiltrate the Internet to Manipulate, Deceive, and Destroy Reputations”. The Intercept. — contains the DISRUPTION Operational Playbook slide presentation by GCHQ]

该间谍机构的核心策略包括:⚠️在互联网上注入虚假材料,以破坏目标的声誉、操纵在线语话和行动,其中的方法包括向互联网发布材料并将其虚假地归因于其他人,假装成为目标的受害者可以诋毁其声誉并销毁在各种论坛上发布的“否定信息”。具体解释详见《人格暗杀和抹黑运动》。

被称为“影响”的行动,JTRIG 的工作已成为 GCHQ 2010 年运营的“主要部分”。

该部门的在线宣传工作(名为“在线隐蔽行动”)通过 Twitter、Flickr、Facebook 和 YouTube 等媒介利用“群发消息”以“推动故事”。JTRIG 还针对目标使用在线“假旗”操作。[“Snowden Docs: British Spies Used Sex and ‘Dirty Tricks’”. NBC News. 7 February 2014. Retrieved 7 February 2014.]

JTRIG 甚至通过修改伪造社交媒体网站上发布的消息照片,以及通过电子邮件和短信向目标的同事和邻居发送有关目标个人的“令人讨厌的信息”,强效抹黑。[“Snowden Docs: British Spies Used Sex and ‘Dirty Tricks’”. NBC News. 7 February 2014. Retrieved 7 February 2014.]

2015年6月,Glenn Greenwald 发布的NSA文件揭示了 JTRIG 隐蔽操纵在线社区工作的更多细节。

⚠️此次披露揭示了“证件收集”技术,其中记者被用来散布既定的信息,并识别到曾经被操纵过的非英国记者。目前尚不清楚这些记者是否会意识到他们被操纵了。[“Snowden Docs: British Spies Used Sex and ‘Dirty Tricks’”. NBC News. 7 February 2014. Retrieved 7 February 2014.]

此外,俄罗斯经常被指控资助“trolls”在互联网上发布亲俄意见。

Internet Research Agency 因使用数百名俄罗斯人在虚假身份的掩护下在线进行政治宣传而闻名,以创造大规模支持的幻景。

使用 trolls 进行的隐蔽政治宣传是一种全球现象,这里有一篇详细报告《巨魔崛起:政府资助的网络水军正遍布全球》。

在2017年的一份报告中,Facebook 公开承认其网站被政府用于操纵其他国家的公众舆论 —— 包括在美国和法国的总统选举期间。[Solon, Olivia (27 April 2017). “Facebook admits: governments exploited us to spread propaganda”. The Guardian. Retrieved 30 April 2017.]

它确定了“信息运营活动”中涉及的三个主要组成部分:有针对性的数据收集、虚假内容创建和放大、包括窃取和公开非公开信息;通过虚假账户向第三方传播既定信息;并且协调虚假账户来操纵政治讨论,例如在压制一部分人的同时放大另一部分人的声音。

关于军事工业综合体的一个最典型案例,见这里《解密文件:科技产业巨头为什么能成为巨头?私有化间谍活动如何发动了认知战争?

2016年,安德烈斯·塞普尔韦达(AndrésSepúlveda)透露,他操纵民意来装备拉丁美洲的选举。

操纵计划预算为60万美元,他领导的黑客团队窃取了竞选策略、操纵社交媒体制造虚假的热情和嘲笑浪潮,并在反对派办公室安装间谍软件,以帮助候选人 EnriquePeñaNieto 赢得大选。[“Man claims he rigged elections in most Latin American countries over 8 years”. The Independent. 2 April 2016. Retrieved 22 January 2017.]

在印度2014年大选之前,印度人民党(BJP)和国大党都被指控雇用“政治 trolls”在博客和社交媒体上进行媒体操控。

中国当局实施的“五毛水军”也是非常著名的,以加强对中国共产党的有利意见,并压制异议。

2014年12月,乌克兰新闻部发起反击俄罗斯的宣传活动,其首要任务之一是创建社交媒体账户(也称为 i-Army),并积聚乌克兰东部的居民。[Shearlaw, Maeve (2 April 2015). “From Britain to Beijing: how governments manipulate the internet”. The Guardian. Retrieved 4 February 2017.]

更多:《国王们的晚宴 — — 这是一场看不见的政变》、《为什么技术有利于暴政? — — 一场你必须参与的政治斗争》。

2009年4月,4chan 的互联网 trolls 投票选出该网站的创始人 Christopher Poole,作为2008年*全球最具影响力人物*,由时代杂志进行的一项公开网络民意调查显示,其获得了16,794,368票。[“The World’s Most Influential Person Is…” TIME. April 27, 2009. Retrieved September 2, 2009.]

甚至在投票结束之前结果就受到了质疑,因为自动投票程序和手动投票填充被用来影响结果。这是一个最好玩的案例,关于伪真相如何成为了现实真相

—— 对策 ——

毫无疑问,诸如强制实名登记和惩罚威胁等民族国家规则并不是解决在线机器人操控媒体问题的适当措施。尤其是审查,绝对会适得其反。

为了防止马太效应,Reddit 等几个网站已采取了措施,例如在指定时间内隐藏投票数。

万维网的发明者 Tim Berners-Lee 反对让极少数几家寡头公司负责决定什么是真实的主张,这是危险的,他指出,开放性才能使网络更加真实。

其实,真正的的解决方案应该是社会工作:重新重视批判性分析性思维的培养,将“形式逻辑”作为学校的学科引入,培养公民的媒体素养和客观评价。看一个视频:

更多分析详见《为什么虚假总是能‘击败’真相?机器人水军可能不是主要原因》。

—— Astroturfing ——

Astroturfing 有时候被翻译为“草根营销”,其实并不准确,它与草根没有任何关系,正相反是伪造草根,目的是营销。它是人工创造出来的一个很有草根口碑的产品、服务或者政治观点;使其看起来好像源自草根参与者、得到基层参与者的支持。其实是假象。

术语 astroturfing 源自 AstroTurf,一种合成地毯的品牌,其设计类似于天然草,其实是塑料的。

在政治科学中,它被定义为通过帮助政治行动者找到并动员一些富有同情心的公众来寻求选举胜利或立法成功的过程,并且旨在创造一种既定的公众共识的形象。

Astroturfing 通常由大公司和政府实体资助,以影响更大面积的公众舆论。一些研究表明,astroturfing 的确可以做到改变公众的观点,甚至产生足够的怀疑以抑制计划内的行动

牛津大学教授 Philip N. Howard 认为,互联网使强大的游说者和政治运动更容易激活一小群受害公民,使其在公共政策辩论中具有夸大的重要性。[Howard, Philip N. (2005). New Media Campaigns and the Managed Citizen. New York, NY: Cambridge University Press. pp. 93, 144. ISBN 9780521612272.]

在《Grassroots for Hire: Public Affairs Consultants in American Democracy》一书中,Edward Walker 将“astroturfing”定义为欺诈(声称归因于那些未作出此类陈述的人),或称为伪装成群众运动的精英竞选。

数据挖掘专家 Bing Liu(伊利诺伊大学)估计,互联网上三分之一的消费者评论都是假的。这使得“流行情绪”和“制造舆论”之间难以区分。并且,它威胁着真正的草根运动的合法性

George Monbiot 表示,支持 astroturfing 的角色管理软件“可能会破坏互联网作为建设性辩论论坛的角色”。[Monbiot, George (February 24, 2011). “The need to protect the internet from ‘astroturfing’ grows ever more urgent”. The Guardian. London, UK. Archived from the original on February 23, 2011. Retrieved February 24, 2011.]

技术 ——

Astroturfing 采用一个或多个前线团体,这些团体通常表现为服务于公共利益,而实际上是代表公司或政治赞助商。

前线团体可以通过强调少数群体的观点、灌输怀疑、推高公司赞助的专家发表的反驳意见,来抵制损害赞助商业务的立法和科学共识。

Astroturfing 也会创建似乎由消费者编写的虚假博客,实际上由商业或政治利益在背后操作。

当你发现同样是“草根”,有些话题你说出来就会被删除,而其他某些人可以长期说,并因此被拥护,这种时候就要小心 Astroturfing 了。

另一种技术是使用 sockpuppets,其中一个人在线创建多个身份以给予“草根支持”的外观假象。 Sockpuppets 可以发布关于产品的正面评论、攻击批评该组织的参与者,或者在虚假身份下发布关于竞争对手的负面评论。

可以使用角色管理软件,以便每个付费说话的博主可以轻松管理五到七十个令人信服的在线角色,而不会让他们感到困惑。[Monbiot, George (February 24, 2011). “The need to protect the internet from ‘astroturfing’ grows ever more urgent”. The Guardian. London, UK. Archived from the original on February 23, 2011. Retrieved February 24, 2011.]

角色管理软件可以对账户进行“做旧”,看起来不是新注册的账户,并模拟独立性,使其更具说服力,确保观众认为它们是真实的。

印第安纳大学的 Filippo Menczer 小组在2010年开发了一种软件,通过识别行为模式来检测 Twitter 上的 Astroturfing。[Ratkiewicz, Jacob; Conover, Michael; Meiss, Mark; Gonçalves, Bruno; Alessandro Flammini; Filippo Menczer (November 16, 2010). “Detecting and Tracking the Spread of Astroturf Memes in Microblog Streams”. Proceedings of the 20th International Conference Companion on World Wide Web — WWW 11: 249. arXiv:1011.3768. doi:10.1145/1963192.1963301. ISBN 9781450306379.]

根据英国“金融时报”的报道,在美国政治中,Astroturfing 是“司空见惯”的;但在欧洲是”革命性的” —— 反隐私“智囊团”欧洲隐私协会被揭露为实际上是由科技公司赞助的。[Fontanella-Khan, James (June 27, 2013). “Astroturfing takes root; Brussels”. Financial Times.]

2010年6月,美国空军招标“人物管理”软件,该软件要“使运营者能够从同一工作站操作多个不同的在线身份,而不必担心被复杂的对手发现。人物角色必须能够看起来像是来自世界上几乎任何地方,并可以通过传统的在线服务和社交媒体平台进行互动……”这份价值260万美元的合同被授予了 Ntrepid 公司。[“Persona Management Software. Solicitation Number: RTB220610”. Archived from the original on February 23, 2011. Retrieved October 12, 2012. “Mirror” (PDF). Washington Post.]

—— 搜索引擎营销 ——

搜索引擎营销允许操控者沿着他们想要的方向引导搜索结果,从而影响搜索者的认知。

企业有很多策略可以吸引客户进入他们的网站,并产生收入,如横幅广告、搜索引擎优化、和按点击付等费营销工具。这些手段经常是合法的,也是非常普遍使用的。

—— 分散注意力 ——

通常被称为“烟幕”,这种技术包括让公众关注一个对宣传者来说更便利的话题。这种特殊类型的媒体操控在流行文化中也经常被引用,足见它有多么普遍。一些例子包括:

  • 电影 Wag the Dog(1997)描述了如何使观众转移注意力到另一个事件上从而忽略了最重要事件的做法。
  • 在美国电视剧“纸牌屋”中,主角 Frank Underwood 发现自己被困在媒体的狂轰滥炸中,他向观众说:“当你是鲜肉时,避免被咬的方法是杀死并抛出更新鲜的东西”。

政客们经常通过使用电视和其他媒体向人们展示自己“闪亮的一面”,从而分散公众的注意力,公众最容易被个人魅力所吸引,从而忽视了根本性的政策问题。这就是景观政治的目的。在这里看到介绍《中国政府已攀上景观政治的边缘》。

景观政治是一种更加潜移默化的转移注意力操作。转移注意力本身还有其他很多传统的操作,比如民族主义、树外敌等等

这种技术包括通过诉诸民族主义或鼓励对外国或所有外族人的恐惧和仇恨来驳斥反对的论点。它具有重要的潜力,因为它使宣传者有权诋毁来自其他国家的任何信息。

举个例子比如:

  • 问:“你怎么看待 Khokara 关于X问题的政治观点?”;答:“我认为他们在过去20年左右的时间里一切都是错的……”
  • 问:“你的想法与 Falala 提出的想法非常相似。”;答:“你是否暗示 Falala 是一个比我们更好的国家?”

—— 图片和视频造假 ——

如今被称之为深度造假,详见《当恶意者掌握技术:信息战的未来究竟有多可怕?》。

在1990年,Adobe 发布了开创性的 Adobe Photoshop,这项技术以及其无数竞争对手允许用户以数字方式改变上传到该程序中的真实照片。虽然竞争服务需要一些专业知识才能使用,但Adobe 设计的 Photoshop 是格外用户友好的,任何人都可以制作。

新功能引发了新的担忧。同年,“新闻周刊”发表了一篇名为“当照片撒谎 ”的文章。正如“新闻周刊”所预测的那样,摄影操控技术上升的后果可能是灾难性的:“以中国领导人为例,去年他们曾试图阻止摄影师揭露北京大屠杀。将来,中国人或其他有意撒谎的政权甚至不会再担心摄影师曝光真相了。“

这些担忧并非完全没有价值。Fred Ritchin,前纽约时报杂志的图片编辑,现在是国际摄影学院的荣誉退休人员,他说,由于照片编辑技术,过去几十年来对摄影的信任已经受到侵蚀。

确实,“相机永远不会说谎”的说法再也无法持续了 — 当最终产品被操纵时,相机可以并且经常会撒谎。然而,Ritchin 和新闻周刊所预言的真相危机还没有实现。

为什么?因为社会适应了这项技术。

回想一下1994年6月,时代杂志在月刊的封面上刊登的 OJ辛普森的照片,事实上他们已经明显编辑了这张照片,使辛普森的肤色显得比实际上更暗。更糟糕的是,“新闻周刊”刊登的是未经编辑的照片,两本杂志并排放在超市货架上。虽然时代为这一所谓的“艺术选择”做了辩护,称没有任何种族意味,但明显编辑过的照片引发了大规模的公众抗议。

警惕造假只是公众意识日益增强的一部分。多年来,时尚杂志普遍采用欺骗手段来改变封面模特的外观。封面上具有更具吸引力模特的杂志通常比那些吸引力较弱的杂志卖得好,因此编辑会修饰照片以使其更吸引公众。不幸的是,这种做法在社会中创造了一种不切实际的美丽形象,一旦被发现,卫生组织就开始公开警告这种现象所造成的危险 — 最明显的是饮食失调的流行。由于随后公众的强烈抗议,全国各地的家庭开始意识到了照片编辑技术及其能力。

社会警惕性是否意味着没有人会因照片造假而被欺骗并作出错误的选择了?当然不是。但是,照片造假并非造成了真相的死亡,而是对新技术的认识鼓励人们采取新的指标 — 例如来源的可信度 — 以做出关于所呈现的图像是否真实的明智决定。

结果,新闻媒体和其他照片出版商继续制定政策并就他们使用的图像做出规定,着眼于赢取受众的信任。例如,2003年,洛杉矶时报迅速解雇了一名记者因为编辑们意识到发布的一张被编辑过的图像会明显降低读者对报纸真实性的看法,这名记者对伊拉克战争的照片进行了数字化改造。

然而,现在,随着新的人工智能和机器学习技术进入市场,再次引发了“真相已死”的担忧 — 主要是在假新闻和虚假信息泛滥的背景下。想想看,如果有人在选举前发布了一个候选人正在收受贿赂的深度造假作品该怎么办?或者造假称美国总统宣布即将发生导弹袭击?正如斯坦福大学国际安全与合作中心国际安全研究员 Andrew Grotto 所预言的那样,“这项技术……将不可抗拒地导致民族国家攻击者在虚假宣传活动中使用,以操纵公众舆论,欺骗公众并破坏对我们机构的公信力。 “

也许更大的问题是,如果社会无法区分假视频和真实视频,那么任何人都可能对他们在视频上所做或所说的任何事采取否认:这都变成了一切皆为假新闻。

但是,谁能肯定社会对深度造假的反应不会像曾经人们对PS照片的回应那样发展?

现在,深度造假技术远非完美无缺。虽然一些假货可能看起来非常逼真,但其他假货却有明显的纰漏,可以提醒观众他们伪造的性质。与之前的 Photoshop 和数码照片编辑一样,通过手机应用程序产生的制作不良的假货可以教育观众了解这种技术的存在。当公众意识到,深度假货造成的伤害将无法实现到预期的程度。

事实上,围绕使用这项技术的新争议同样也提高了公众对该技术可以做些什么的认识。例如,“深度造假”这个词实际上来自一个 Reddit 用户,他最初开始使用这种技术来制作逼真的名人假色情视频。这种类型的内容很合理地引发了对隐私权侵犯的警惕。随着公众的强烈抗议开始加剧,该平台公开禁止深度造假社区及其网站上的任何非自愿色情内容。

与使用 Photoshop 创建不切实际的裸体图像所引起的公众强烈抗议一样,使用深度造假技术创建不恰当和彻头彻尾的令人震惊的内容将反过来使公众更加了解该技术,从而避免造成伤害。

也许最重要的是,许多政策制定者和私营公司已经开始采取措施教育公众了解深度造假的存在和其污蔑的能力。著名的立法者,如弗吉尼亚州的马克·沃纳和内布拉斯加州的本·萨斯,最近提出了一些重要的话题。Facebook 最近宣布它正在投入大量资源进行针对深度造假的识别和检测。由于非常注重教育公众关于这种技术的存在和使用,只要公众能提高认识,恶意行为者成功传播有害的深度造假视频就将更加困难。

这绝并不是说深度造假不会造成任何新的伤害或威胁。与 Photoshop 不同,如今任何拥有智能手机的人都可以使用深度造假技术,这意味着可以生成和共享更多的逼真的假货。

与20世纪90年代不同的是,今天有更多人使用互联网分享新闻和信息,以极快的速度在全球范围内传播内容,正因此,大多数观众来不及思考,只是为了寻求视觉刺激,给了假冒以广泛的空间。

但是,如果我们不采取措施来规范技术,我们就不应该认为社会会陷入欺骗和虚假信息的深渊。这项技术可以提供许多重要的好处,例如几十年前失踪儿童的成长后照片,或者为课堂上的学生们创造逼真的历史人物版本图像。

立法者不应急于起草立法,而应该回顾过去,并认识到深度造假并非一些前所未有的问题。相反,深度假货仅仅代表了历史上一直使用的一系列欺骗性视听实践中的最新技术。

只要我们理解了这一事实,我们就可以确信社会会想出一些方法来减轻隐患和威胁。

—— 最后 ——

媒体操控的目的是获取影响力,以令预期目标群体形成操控者满意的想法、行动和立场。

虽然获得影响力的手段很普遍,但其目标各不相同,从政治、经济到个人;可以包括宣传员、营销人员、民意调查员、销售人员和政治倡导者。

如果你确认自己所倡导的内容是正义的,那么就绝不可以使用虚假的媒体操控;一旦被你的对手拿到把柄,你将失去所有信誉,你所倡导的一切都将因此失去意义。

追求正义的人们能采取的最佳策略就是,用充分的证据揭露你的对手暗中采取的不正义手段,占据道德制高点,汇聚更多的支持。⚪️

广告

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据