来自中国和美国的政府监视:7个危险的用例

  • 人们经常会用文化差异来强调灾难的可能或不可能、以及程度,也许有一定的道理,比如以顺从为美德的文化会令邪恶更快速地膨胀。但邪恶本身的产生与文化并无关系,而是权势固有的对掌控一切的欲望……

毫无疑问,“人工智能政府监控”的谷歌搜索结果中有很多涉及中国。

人们的共识是,中国不仅在人工智能研究中追赶或超越美国,而且,对于使用人工智能令政府实现对自己的人民无限监视的权力方面是非常开放的。

虽然它可能是地球上最具侵略性的监视状态 —— 但中国并不是唯一一个将 AI 用于监视目的的国家 —— 本文将探索和对比中国和美国监控技术新的和独特的用途、以及人工智能在全球的间谍应用。

美国在政府监视方面有着悠久的历史,从1928年开始就是窃听大国。

许多人还记得2013年国家安全局举报人 Edward Snowden 的惊人揭露。其实在监视的历史上那不是新鲜事。

推荐一本书《美国间谍、和匿名真相》。

此外在这里看到完整版揭露文件《互联网霸主的时间线》;以及为什么揭露并没能阻止监视的继续(并且部分还升级了)《6年,改变了什么?

在俄罗斯、英国和澳大利亚以及阿联酋,政府监视的威胁也越来越受到关注。

与大多数技术一样,人工智能同时具有优点和缺点,并且如果能通过正确的应用,可以证明其超过成本的效益。

在这里看到一本书的介绍,关于为什么平衡监视和安全非常难《在正反乌托邦之间

然而,人工智能技术通常难以规范,因此误用和滥用是一个真正的问题。

视频监控是基于人工智能的政府监控的最普遍和众所周知的用途。

无论是通过闭路电视摄像机(CCTV)还是无人机,如今每个人都知道,几乎在任何时候都有一只眼睛在看着你,特别是在公共场所和机场等区域。

今天的监控技术有很多种形式 —— 远远超出商场或机场的固定摄像头。

本文将探索全球普遍存在的七个特定的、独特的AI监控用例:

  • 机器鸟
  • 智能眼镜
  • 支持AI的随身摄像头
  • EEG头带
  • 带监视器的制服
  • 腕带
  • 社会信用评分

首先介绍的是本列表中一个相比下更独特的用例:

机器鸟

虽然人们广泛地讨论了机器人和无人机作为秘密民事监视工具的问题,但在这件事上,机器鸟是一个纯粹的小聪明。

一些看起来像鸟、移动状态也像鸟的东西,但是这种鸟的工作就是盯着所有人。

鸟可以无处不在,大多数人都没有给予它们太多的关注。这一事实引起了人们对使用鸟形监视器的兴趣。

如今说起来,这不是新鲜事。

2011年推出以来,机器鸟已经能够自主并在空中停留超过几分钟,其中 Festo 公司的 Smartbird 看起来可以像鲱鱼一样灵活移动。

中国西安工业大学的顶尖科学家团队恰当地称其为鸽子项目,由 Song Bifeng 领导,开发了这种鸟形的无人机,可在中国的多个地区部署,特别是新疆地区。虽然该计划仍处于早期阶段,

但该团队认为:“这种监视在满足军用和民用领域对无人机的需求方面具有一些独特的优势。” 特别是这些无人机的能力:甚至通过雷达也很难发现

以下是解析图:

据报道,美国陆军在2013年就投资了鸟形无人机技术,从 Prioria Robotics 购买了名为 Maveric 的30个微型无人机

并且,美国的机器鸟比中国“鸽子”更加厚实,一家公司声称中国那种监视鸟总体上是一个不合格的产品。

此后美国方面的研发就没有详细消息了。

最后一次看到这种空中无人机监视是在纽约市新年庆祝活动期间 —— 这场活动被雨水挫败了。

智能眼镜

政府监视其公民的另一种方式是通过配备面部识别软件的“智能”眼镜来扫描面部,并将其与数据库进行快速匹配。

这些增强现实(AR)眼镜(例如 AR Boss Smart Glasses Techlens T2)由 Xloong 开发,为执法部门提供了一种快速巡视大规模人群的方法。

随着中国计划建立一个14亿公民的面部识别数据库,这种眼镜绝对是应运而生的。

以下是 Xloong AR 眼镜的运动版:

据报道这种智能眼镜在东南亚国家和美国都有广泛的使用

而且,这种技术已在美国上市。

实际上,向中国执法部门提供 AR 产品 GLXSS 的 LLVision 公司,与商业上不太成功的 Google Glass 非常相似,后者偶然会作为企业产品而不是消费产品卷土重来。

在这里看到为什么这种东西非常值得警惕《一个愚蠢带来的启示》。

支持AI的身体摄像头

可穿戴式监控技术以及车载监视摄像头在马来西亚首次亮相

Auxiliary Force Sdn. Bhd. (AFSB) 与 YITU Technology 达成协议,为他们提供可以使用面部识别技术寻找任何目标人的视频系统。

AFSB 首席执行官 Dato’Rosmadi Bin Ghazali 表示:“这是我们迈出的重要一步,因为我们利用人工智能来提高公共安全和保障。”

然而,与中国不同,AFSB面部识别系统分析捕获的镜头而不是实时的监视,尽管AFSB已经有计划将其扩展到实时监视的方向

美国至少有一家执法机构已知已经在以类似的方式使用了亚马逊的面部识别系统 Rekognition

警察使用该系统在线整理视频和图像、车载监视、以及从其他来源查找任何感兴趣的人并与数据库相匹配。

虽然对于识别犯罪分子的目标来说显然非常有用,但是,准确性和种族肤色相关的偏颇问题会继续限制其在执法中的广泛使用。

“华盛顿邮报”播放了一段视频,关于 Rekognition 系统的执法用途,以及由此产生的有关隐私问题。

华尔街日报在下面的简短视频中总结了中国不断增长的监控技术:

中国也开始在其学校教室中使用了面部识别技术和计算机视觉,使学生在小小年纪时就开始接受监视,中国声称此举是鼓励学生在课堂上集中注意力:

无论如何,用于政府监视的人工智能技术只会激增,因为这些用例(在机场、学校、购物中心)从经济或安全角度均获得了强大的牵引力,并被证明是有价值的 —— 虽然,显然仅仅有利于1%的特权阶层。

在这里看到其“经济牵引力”:《在中国:致富的捷径》。

脑波头带

人工智能可穿戴技术的一个有趣发展是脑波监测。

仅北美就拥有数十家 EEG 创业公司 —— 包括 Muse、Thync 等品牌。

这些品牌中的大多数都声称可以辅助某种情绪控制(例如帮助专注或冥想),但是,其他品牌则作为脑机接口实验的开放平台。

延伸,关于脑机接口《超级战士:DARPA 想要制造精神控制的战争武器》。

中国政府批准了在员工身上使用大脑监测设备,以捕获情绪和其他大脑活动的数据。

员工被要求佩戴由 Deayea Technology Co.,Ltd 开发的带传感器和专用相机的头带,被称为“情绪监视”。

该项目的目标是培训操作员、军事人员、某些部门的生产工人,以及在未来针对学童,声称提高生产力和效率。

总部位于美国的 BrainCo 公司计划为中国的一项试点研究提供名为 Focus 的监视脑部活动的头带。他们声称为“帮助教师识别可能需要额外帮助的学生”。

下面这个视频展示了 Focus 系统的工作原理:

制服

中国贵州省有10所学校制作了“智能校服”要求学生必须穿着。

整合到这些制服中的芯片能实时跟踪和识别学生,使父母、教师和其他权威能够随时了解孩子在哪以及在干什么。

然而,中国并不是唯一一个使用人工智能来监控学龄儿童的国家。

美国也是如此

联邦政府资助的学校必须在学校的计算机上安装所谓的安全管理平台(SMP),如 Securly 和 GoGuardian,以监控学生的一举一动。

这些SMP使用自然语言处理来扫描学生们输入计算机的数百万个单词,以查找不良行为(欺凌)或有害行为(自我伤害)。

法国的一所学校也正在使用 Nestor 软件进行两个在线课程监视,以监视学生是否关注讲座。

在这里看到至少一个案例介绍《监狱式教学》。

以下是 GoGuardian 的1分钟宣传视频,重点介绍了教师的价值主张,并回顾了其基本功能 —— 请注意这是宣传片:

腕带

然而,学生并不是受到详细审查的唯一目标人群。

监狱囚犯也正在受到不断加深的监视,例如 监视大部分监狱的摄像机,包括牢房内。

在这里看到介绍(和视频)《AI警卫:机器人专制》。

下面是一段一分钟的视频,展示了监控技术在盐城监狱的运作方式:

这些技术当然可以与计算机视觉监视相结合,从而创造出更加严密的圆形监狱。

人工智能协助的“社会信用”评分

“黑镜”中有一集名为“Nosedive”,描述了一个社交评分的世界,眼球植入物和星级评定系统决定每个人能在这个世界中占有什么样的一席之地。

高星级评级意味着享有更多特权,而低星评级意味着成为弃儿。

虽然电视剧是讽刺性的,但是,社会信用评分计划 —— 中国政府正在制定的国家级声誉系统 —— 正在将一种奇怪的类似情景变成现实。

该计划背后的想法是基本治理:惩罚政府认为的坏,奖励政府认为的好。

两个月后该计划就会在中国全国铺开,但数十个试点计划近年来一直在收集数据,以使该监控系统更具响应性。

正如所预料的那样,来自社交媒体和其他在线活动的数据肯定会成为该“评分”参数的一部分

延伸:《什么是社交媒体情报?你的推特如何成为抓捕你的理由?》;《您不应该在社交媒体上说什么》;《如何自由地表达而不必担心被捕:使用社交媒体的注意事项》。

如此全面地扫描每个人的私密个人信息当然是非常令人恐惧的,尤其是它掌握在专制国家的手中时。

并且,用于确定排名的算法也完全没有透明度。从一个非常真实的意义上说,政府可以完全控制一个人的社会经济是成功还是失败。

France 24 从中国公民的角度制作了一个4分钟的视频,探索社会评分系统:

政府追求让14亿人保持一致虽然表面上看起来很难,但中国的社会信用分数(加上更顺从的儒家文化可能有助于执政党做到这一点。

包括 Emerj 创始人 Daniel Faggella 在内的一些专家认为,中国的监控技术将基于人工智能的监控提升到了一个新的“正常”水平 —— 很可能会将这些技术的更具侵入性的使用案例传播到西方国家。

包括英国在内的欧洲国家也正在考虑为其公民实施类似的评分计划,尽管调查结果显示大多数人(78%)或参与者认为这是一个坏主意。

简单说,现在只能寄希望于文化 —— 中国容易顺从,英国人不容易顺从 —— 而无法寄希望于取消该技术本身。

关于人工智能进行政府监视的结论

当权者永远会以所谓的“国家安全”为由要求1984。

然而,识别安全性和操控之间的细微差别并不总是容易的。

也就是说,必须有一条线将倡导与偏执真正切分。关键是在任何一种情况下都要达到适当的平衡,具体取决于具体情况。

英国和中国在许多当前用于政府监视的人工智能应用中占有突出地位,而且往往是负面的。

西方一些人甚至认为,当涉及到政府监视和数据保护的人工智能时,中国对人工智能的最佳接触方式的“理解更好”。

正如丹尼尔·法格拉(Daniel Faggella)所指出的那样,“西方需要一种新战略来维持自身的价值观,并在国际舞台上展开竞争。如果西方希望确保其价值和繁荣继续下去,就必须不能违规”。

但是,正如文章开头所申明的,政府监视的最终可能性程度将取决于民间的反抗精神,而非对权势会否善意的期待

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据