深圳遭遇台风的 DragonAir 波音 737 的视频是假的,这里是为什么

  • 如今你能看到的更多是阴谋论、段子、恶作剧和不专业的报道,而不是真正的新闻。如果公民社会还不能承担起捍卫真相的职责,互联网就真的一无是处了

一则显示在“深圳”台风中被发现的商用客机的视频正在网上流传。视频中,客机被认为是在进行低空飞行。

视频附带的说明声称“无论台风如何,飞行员都能安全降落” — DragonAir B-737 hit by typhoon in Shen Zhen. But managed to land safely。视频的后半部分显示人们在着陆后从“同一架飞机”撤离的场景。

如果你看出这个视频有点问题,那么恭喜,你猜对了。因为显示飞机正在执行看似不可能的低空行驶的视频的前半部分是被数字化创建的,并且与人们撤离时画面 即视频的后半部分所示的背景完全不同。

仔细观察你会发现,碰上了台风的飞机实际上来自从 2017 年6月14日的 MeniThings YouTube 频道的视频(视频在这里)。MeniThings 是一家制作公司,除其他事项外,该公司还生产一些有趣的视觉效果。他们的网站上就直接这样写着:

MeniThings 是一家全功能的制作公司,支持导演 Aristomenis Tsirbas 的原创动画和现场表演作品,其中包括故事片、电视节目、音乐视频和视觉效果。

该公司的 YouTube 频道充满了 CGI 飞机特技、不明飞行物的视频,甚至还有几次对外星人的采访(Haha)。因此,在台风中捕获的飞机视频显然是 CGI 创建的视频,并没有描绘真实的飞机。

视频的后半部分显示一架飞机上的乘客正在疏散,看起来很像是前半部分那个安全着陆的飞机?

但完全不是这样。在视频的下半部分显示人们从中撤离的这架飞机,是来自于 2018 年8月28日发生的事件,当时从北京到澳门的一架飞机因发动机和起落架问题而不得不转移到深圳机场,而不是任何与台风相关的问题。

下面这组连续图片显示了飞机在空中时和后面人们撤离时的场面:

你可以清楚地看到,飞机的尾部有不同的标志。尽管该视频声称这架飞机是 DragonAir Boeing 737,但空中的 CGI 飞机是加拿大航空公司 Jetz Boeing 737(在这里通过原始视频更清晰可见),人们撤离的飞机是北京首都航空公司的空客 320 。

一架飞机在遭遇台风之后以这种方式表演出令人难以置信的绝技,还能以某种方式奇迹般安全降落,肯定能吸引主流媒体的关注吧。唉,没有,因为视频明显是假的。

请关注我们的技术推荐《虚假信息鉴别工具箱:如何验证图片和视频的真伪?》您将可以完成对更复杂的造假技术的揭露。

相比下本文是一个非常简单的例子。视频和图片的造假如今一点不比文字造假少一些,科技的进步、加之各路隐性宣传巨魔和网络水军具备远高过大众的技术水平,假信息几乎铺天盖地。

还有太多不专业的媒体,这类“媒体”中国尤其多,很多在职的中国新闻人甚至不了解最常用的验证技术 ……

突发事件是造假的高峰时段。比如 YouTube 总部枪击案,就是个很严重的案例,事发后假消息蜂拥而至,大量的在线账户被指为枪手,甚至连互联网活动家也加入了这场轰轰烈烈的造假游戏:

博主和媒体也无法免于被诬告。Buzzfeed 的记者 Jane Lytvynenko — 当时正在报道这类假新闻 — 结果她自己也变成了假消息的主角,消息称她为枪手。

整体上,有超过四十人在枪击案后 24 小时内被诬告为枪手。

事实就是这样,如今你能看到的更多是阴谋论、段子、恶作剧和不专业的报道,而不是真正的新闻。如果公民社会还不能承担起捍卫真相的职责,互联网就真的一无是处了。

至于为什么真相如此重要?为什么如今人们普遍不关心真相?为什么这样的现实正是民主最大的杀器?详见这里的分析:《真相衰变》。

虽然谎言的历史几乎与人类的起源同龄,但当下,人们正面临着前所未有的欺诈世界:人工智能的进步已经开创一个假视频和音频的新时代。

GAN(生成性对抗网络)是一种用于执行无监督机器学习的 AI 。在 GAN 中,相反的神经网络协同工作以制造越来越逼真的音频、图像和视频内容。 GAN 中的一个神经网络充当箔片,推动其他网络产生更高保真度的结果。神经网络还可以更容易伪造音频,可以将源音频的元素转换为统计属性,并且可以重新排列这些属性以制作高超的假音频剪辑。

Sketch of a Generative Adversarial Network for creating fake images, credit DL4J

高质量的外交操纵和政治宣传,可能会将 AI、音频和视频欺骗结合成一次致命的攻击。目前,世界各地的研究团队正在开发看似良性的技术,然而,如果我们不小心的话,这样的“机会”随时会出现。

斯坦福大学的研究人员发表了早期结果,表明可以实时改变一个人预先录制的面部画面来模仿出另一个人的表情。

从本质上讲,想要冒充目标人的演员可以通过将脸部变成网络摄像头来创建数字人类木偶。 目标面部的数字再现将实时模仿演员的面部。

目前,这种技术仍然需要数小时的预先录制的目标视频片段才能让它看起来真实。不幸的是,强大的公众人物经常可被追踪,有充足的历史录像带足够显示他们在现实生活中的谈话和移动,基础素材极为丰富。

造假者使用低科技网络摄像头和这种高科技软件的事实表明,视频爱好者和复杂的宣传家都可以使用这种技术。竞争环境被平衡了,扩大了能够伪造视频进行欺骗的实施者的范围。

Face2Face, Stanford University

在威斯康星大学进行的奥巴马假视频实验是由三星、谷歌、Facebook、Intel 和该大学的动画研究实验室资助,研究人员使用了神经网络,首先从一个音频文件转换成声音的基本口形。然后系统将这些口型移植并混合到现有的目标视频上并调整时间以创建新的逼真的唇形同步视频。

University of Washington’s sketch of the process that created the fake Obama video

制作假音频也变得越来越容易和消费化。 例如,加拿大创业公司 Lyrebird 正在开发一种技术,可以从某人的声音中录制一分钟的音频,从而以相同的声音生成更长的音频片段。同样,在2016 年,Adobe 就推出了名为 Project VoCo 的原型(也被称为 “Photoshop for voice”)。该项目旨在让用户编辑人类语音,就像使用 PS 编辑数字图片一样简单……

显然,人工智能对视频和音频干预的广泛采用意味着对“高价值目标”的声誉攻击也将相应增加。声誉攻击可以诋毁一个人的人格,使其不可信,甚至可以因此制造出一个逮捕的理由!

这是危险的。但没人能挡得住技术的发展,于是,更危险的在于,公民对技术的陌生,无法使用技术反击、因无力鉴别而被欺骗。技术被掌握在恶意者的手中就是民主的灾难。

希望能有更多公民至少熟悉鉴别真伪的技术,这具有重大的意义。⚪️

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据