科技寡头如何操纵学术界以延续隐性专制?

  • 从大规模监控到算法暴政,从维稳到杀人,他们在竭尽全力让自己看起来合理合法 ……

如果您了解中国高校中一些著名教授目前致力于从事的所谓 “AI道德” 研究,您将会理解,本文为什么应该是一种警告。

麻省理工学院媒体实验室前主任伊藤穰一(Joichi Ito)的道德丑闻中最具讽刺意味的是,他曾领导过有关道德的学术倡议。

在被指控与年仅14岁的未成年少女的性交易后,伊藤辞去了麻省理工学院的多个职务、哈佛法学院的客座教授职务、以及约翰·D·凯瑟琳·麦克阿瑟基金会和约翰·S·詹姆斯·奈特基金会的董事会成员职务,还有纽约时报公司的职务。

伊藤作为人工智能伦理学家的影响力使许多围观者感到困惑。

确实,他的倡议对于建立如今在学术界和主流媒体中普遍存在的所谓 “道德AI” 的语话至关重要。2016年,时任总统奥巴马将他描述为AI和道德方面的“专家”。

自2017年以来,伊藤通过2700万美元的 “AI道德与治理基金” 为许多项目提供了资金,该倡议由MIT媒体实验室和哈佛大学伯克曼·克莱因互联网与社会研究中心共同发起。

关于 “道德” 的真正语话到底应该是什么?

在14个月的时间里,我在媒体实验室的伊藤人工智能伦理小组中担任研究员。伊藤发表了关于他与爱泼斯坦的联系的最初 “道歉”,他在那次致歉中承认接受了金融家的资助,包括媒体实验室和伊藤的外部风险基金。

受举报人 Signe Swenson 和其他发表讲话的人的启发,我决定报告我从中所了解到的有关伊藤在塑造AI伦理学领域中的作用的知识,因为这是公众关心的问题。

这个领域是最近出现的现象,因为过去的AI研究人员对伦理学研究基本上不感兴趣。

一位前媒体实验室的同事回忆说,麻省理工学院已故的AI先驱 Marvin Minsky 曾经说过:“伦理学家就是对您所想的一切都有疑问的人。” 那么。为什么AI研究人员突然开始谈论道德?

在媒体实验室,我了解到,伊藤大力倡导的 “道德AI” 的论述在战略上与硅谷寡头努力避免有争议的技术在法律上的可实施性的限制,基本一致

这项工作背后的一个关键小组在加利福尼亚州提出了政策建议,该建议与我和几位实验室同事进行的研究结论相矛盾,这项研究使我们反对使用计算机算法来决定是否监禁待审人员。

伊藤本人最终在与财务和技术主管举行的非公开会议上抱怨说,该小组的建议等同于 “粉饰” 一个棘手的道德问题。他向一位亿万富翁透露说:“他们淡化了我们试图说的东西,以防止在看管决定中使用看起来不太有效的算法”。

我还看到:麻省理工学院帮助军方摆脱了无人机战争的道德争议、主持前国务卿兼臭名昭著的战犯亨利·基辛格谈人工智能和道德问题的会议,并为美国国防部的 “ AI伦理原则 ”提供作战方面的投入,其中包含 “允许偏差的” 算法,并避免使用 “公平” 一词,因为五角大楼认为 “战斗不应该是公平的”

伊藤未回复置评请求。

Joichi Ito, then-director of MIT Media Lab, speaks during a press conference in Tokyo on July 8, 2016. Photo: Akio Kon/Bloomberg/Getty Images

麻省理工学院(MIT)认为,当行业面临越来越多的批评并需要法律监管时,寡头技术公司可以自己监管自己对人工智能的使用。

而仅在2018年,就出现了多项著名的争议:2018年3月,Facebook 的剑桥分析公司丑闻利用了超过5000万用户的私人数据; Google 与五角大楼签订了用于战区的计算机视觉软件的合同;5月,亚马逊向警察部门出售面部识别技术;微软与美国移民和海关执法局的合同于6月公布;以及9月透露的IBM与纽约警察局秘密合作在视频监视录像中采取的面部识别和种族识别技术。

在 #TechWontBuildIt 的口号下,这些公司的数千名工人组织了抗议活动,并散发了反对此类合同的请愿书。

从 #NoTechForICE 到 #Data4BlackLives,一些基层运动要求对使用计算机技术的某些行为进行法律限制(例如,禁止警察使用面部识别)。

同时,这些寡头公司试图将讨论重点转移到自愿的 “道德原则”、所谓的 “负责任的做法” 、以及以 “公平” 为框架的技术调整或 “保障”(例如,要求或鼓励警察采用“无偏见”或“公平” 的面部识别技术)。总之就是想方设法维护监视的生命力。

2018年1月,Microsoft 从所谓的 “公平” 开始发布了AI的 “道德原则”。然后去年5月,Facebook 宣布了 “对AI的道德发展和部署的承诺”,以及一种 “寻找偏见” 的工具,称为 “Fairness Flow”。

然后6月,Google 发布了AI研究与开发的 “负责任做法”。 9月,IBM 又发布了一个名为 “ AI Fairness 360” 的工具,该工具被称为旨在 “检查数据集和机器学习模型中是否存在不必要的偏见”。

2019年1月,Facebook 拨款750万美元用于在德国慕尼黑建立所谓的AI道德中心。然后3月,亚马逊与美国国家科学基金会共同赞助了一项2,000万美元的计划,自称旨在 “人工智能的公平性”。

在选拔右翼遗产基金会的反跨性别总裁 Kay Coles James 后,Google于4月取消了AI伦理委员会。

这些寡头公司的举措经常引用伊藤至少通过麻省理工学院-哈佛基金资助的学术研究。

为了刻画公司议程,在给定技术中区分三种 “监管” 可能性会很有帮助:

  1. 根本没有法律法规,仅将 “道德原则” 和所谓的 “负责任做法” 留为自愿;
  2. 适度的法律法规,鼓励或要求与利润没有明显冲突的技术调整;
  3. 真正限制或禁止使用该技术的法律法规。

👉毫不奇怪,科技行业倾向于支持前两个,而反对最后一个。但只有最后一个才是有效的。

由寡头公司赞助的所谓 “道德AI” 语话恰恰可以实现这一立场。

考虑面部识别技术的情况。去年,旧金山、奥克兰和伯克利的市政立法机关(均在加利福尼亚州)以及马萨诸塞州的萨默维尔通过了对面部识别技术的严格禁令。

⚠️而同时,微软游说支持限制性较小的立法,要求进行技术调整,例如对 “偏见” 的测试,特别是在华盛顿州。

一些大公司甚至可能完全无视这种温和的法律法规,因为大型公司可以更容易地投资于专业团队以开发符合法规要求的系统。

👉因此,硅谷大力推广的所谓 “道德AI” 已经构成了一项战略游说活动,这项努力已经招募学术界,以使其合法化。

伊藤在公司学术交流中发挥了关键作用,他还定期与技术主管会面。

这个 MIT-Harvard 基金的首任负责人曾是 Google AI 的 “全球公共政策负责人”。伊藤和他的同事们通过该基金赞助了许多项目,包括在计算机科学领域建立一个关于 “公平、问责和透明度” 的著名会议。请注意,该会议的其他赞助商全部是监视资本家技术寡头包括 Google、Facebook 和 Microsoft。

尽管自2016年以来,硅谷的游说努力明显巩固了学术界对所谓的 “道德AI” 和 “公平算法” 的兴趣,但是,早在多年前就出现了关于这些主题的少量论文,即使框架不同。

例如,微软计算机科学家在2012年就发表了可以称得上是 “算法公平” 领域的论文。2016年,该论文的主要作者 Cynthia Dwork 成为哈佛大学计算机科学教授,并同时继续在微软任职。

当我于2017年在哈佛大学学习密码学和统计学的数学基础课程时,我采访了她,问她如何对研究所谓公平的算法定义感兴趣。

她长期以来一直关注歧视性广告的问题,但是 Microsoft 经理鼓励她从事这一工作,因为该公司正在开发一种新的在线广告系统,并且提供的服务在经济上是有利的。 “没有监管问题。”

👉在麻省理工学院和哈佛大学采取了初步措施之后,其他许多大学和新机构也从科技行业获得了资金,用于开展所谓的AI伦理学研究

⚠️大多数此类组织还由科技公司现任或前任高管直接领导。例如,数据与社会研究所由微软研究人员领导,最初由微软资助;纽约大学的 AI Now 研究所是由另一位微软研究员共同创立的,部分由微软、谷歌和 DeepMind 资助;斯坦福大学的AI研究所由 Google 的前副总裁共同领导;加利福尼亚大学伯克利分校数据科学部由微软资深人士领导;麻省理工学院 Schwarzman 计算学院由亚马逊董事会成员领导 ……

在媒体实验室工作期间,伊藤与所有这些组织的高管和规划人员保持着频繁的联系。

Illustration: Yoshi Sodeoka for The Intercept

事实证明,寡头企业的财路与诚实的道德探索相矛盾,至少从我在那个所谓的 “人工智能造福人民和社会的合伙企业” 项目中的经验来看。该项目是由 Microsoft、Google / DeepMind、Facebook、IBM 和 Amazon 在2016年成立的小组。

媒体实验室成员将这个合伙企业定义为 “多利益相关方团体”,并声称其 “不是游说组织”。

但是,即使该合伙企业的活动可能未达到要求注册为游说者的法律门槛(例如,通过直接影响当选官员的选票),他们当然也在试图影响立法

2018年12月,我和媒体实验室的三位同事对该合伙企业影响立法的努力提出了严肃的异议。我们注意到,他们的政策建议与寡头公司的议程高度一致

我们的研究导致我们强烈反对在刑事案件中采用风险评估工具,并拒绝提议的技术调整,这些调整自称使其 “无偏见” 或 “公平”。

但是,正如同事在发送给伊藤和其他人的内部电子邮件中所说的那样,该合伙企业的草案似乎是 “通过强调该问题为技术性问题,来规避道德问题”。

更糟糕的是,该合伙企业的建议与反对监视扩张的基层组织的努力完全不匹配,这些组织包括 Black Lives Matter 运动、废除监狱的组织 Critical Resistance(我自愿参加)、以及 Immigrant Youth Coalition 组织等。

基层联盟认为:“任何风险评估工具都忽略了当前和过去警务实践中的种族偏见。” 有充分的理论和经验依据可支持这一说法,因为风险评估通常基于逮捕、定罪或监禁的数据,所有这些数据都不足以代表个人行为或倾向。

联盟指出:“最终,风险评估工具会形成种族特征、审判前拘留和定罪的反馈回路。一个人的自由不应沦为被一种算法所决定。”

2018年12月,我和我的同事敦促伊藤退出该合伙企业。我争辩说:“如果学术组织和非营利组织希望有所作为,唯一可行的策略是退出PAI,并通过反对联盟发表公开声明。”

然后一位同事提出:“还有许多其他组织在刑事司法的预测分析领域做着更多实质性和变革性的工作 —— 拿我们现在支持 PAI 的资金去支持他们如何?”

我们相信伊藤拥有足够的自主权,因为 MIT-Harvard 基金主要由 Knight 基金会支持,即使大部分资金来自 eBay 创始人 Pierre Omidyar,Omidyar Network 以及 LinkedIn 创始人硅谷人脉王 Reid Hoffman 和 Microsoft 董事会成员。

伊藤确实承认了这个问题。他刚从对冲基金巨头 Two Sigma 联合主席、麻省理工学院成员 David Siegel 那里收到消息。

Siegel 建议为硅谷的 “搜索和社交媒体” 公司提出一种自我监管的结构,以 FINRA 为模型,这是一家私人公司,是华尔街证券公司的自律组织。伊藤回应了 Siegel 的提议,

他说:“我认为民间团体在行业团体中没有很好的代表。我们一直在参与AI合作计划,他们会竭尽全力阻止我们尝试使用似乎效果不佳的算法(例如保释前的风险评分)。我对自我监管感到担忧。例如,WhatsApp 假消息引发的惊人的种族灭绝(指的是罗兴亚),而 Facebook 知道发生了这种情况。”

(Facebook 承认其平台曾被用来煽动缅甸的暴力行为;新闻报道记录了 Facebook 平台上的内容如何助长了该国的种族灭绝事件,尽管人权活动家和研究人员向 Facebook 高管反复警告过。据报道,在印度大选期间,WhatsApp 被用来散布假消息之后,WhatsApp 使其用户更难以转发消息。)

👉但是,寡头企业和学术界的联盟过于强大和便捷。媒体实验室仍保留在该合伙企业中,伊藤继续与硅谷和华尔街的高管和投资者结为伙伴。

伊藤将亿万富翁 Siegel 描述为 “潜在的出资者”。**友好的** 批评可以作为建立业务关系的杠杆。

在私人会议上,伊藤和技术主管坦率地讨论了公司游说活动。

不管个人参与者的意图如何,公司游说组织勾结学术研究界的努力都非常成功。现在在所谓的 “AI伦理” 的旗号下有大量工作。

公平地讲,其中一些研究是有用且细微的,尤其是在人文和社会科学领域。但是,大部分资金充足的 “道德AI” 研究工作都与技术游说的议程保持一致 —— 自愿或适度地调整而不是在法律层面限制有争议的技术的部署。

奇怪的是,未经正式培训的伊藤就被定位为AI伦理学的“专家”,而AI伦理学在2017年之前几乎不存在。更奇怪的是,两年后,知名学科的受人尊敬的学者必须证明他们自己与公司游说所霸占的领域的相关性。

Former Google CEO Eric Schmidt, now chair of the Department of Defense’s Defense Innovation Board, takes his seat for the House Armed Services Committee hearing on “Promoting DOD’s Culture of Innovation” on April 17, 2018. Photo: Bill Clark/CQ Roll Call/Getty Images

这个领域也与美国军方息息相关,⚠️不仅帮助官方对杀伤性技术的道德担忧洗地,而且在硅谷公司之间关于有利可图的军事合同的纠纷中也是如此。

11月1日,美国国防部创新委员会发布了有关 “人工智能道德原则” 的建议。

该委员会由 Eric Sc​​hmidt 主持,他是谷歌母公司 Alphabet 的前执行主席,当时奥巴马的国防部长 Ashton B. Carter 于2016年建立了该委员会并任命了 Sc​​hmidt。

根据 ProPublica 的说法,“Sc​​hmidt 的影响力在 Carter 的领导下已经很强大,而且在 James Mattis 出任[特朗普]国防部长时开始快速增长。

该委员成员包括来自 Google、Microsoft 和 Facebook 的多名高管,引发了有关利益冲突的争议。

五角大楼负责应对利益冲突问题的一名员工在挑战 “五角大楼不仅与[亚马逊首席执行官杰夫]贝佐斯,而且与谷歌的埃里克·施密特保持友好关系后,也被从创新委员会中撤职。”

这种关系对大型科技公司而言可能是有利可图的:在五角大楼向微软授予了价值100亿美元的云计算合同后不到一周,就出现了AI道德规范建议,该合同正受到亚马逊的法律挑战。

这些建议旨在迫使五角大楼增加对人工智能的军事投资,并采用诸如硅谷公司开发和出售的所谓 “道德AI” 系统。

创新委员会将五角大楼称为 “深度道德组织”,并提出将其 “现有道德框架” 扩展到AI。为此,委员会引用了 Google、微软和 IBM 的所谓AI伦理研究小组以及麻省理工学院-哈佛基金会资助的学者。

该委员会指出,尽管 “公平” 一词在AI社区中经常被提及,但建议还是避免使用该词,因为 “国防部的口头禅是战争不应该是公平的,国防部旨在创造条件来维持比任何潜在的对手都更多的优势。”

因此,“某些应用程序将被允许合理的偏见”,特别是 “更成功地瞄准某些对抗性战斗人员”。五角大楼的AI伦理学概念排除了道德审议的许多重要可能性,例如 禁止使用无人机进行有针对性的杀戮。

所谓 “道德AI” 的公司、学术界和军事支持者已经紧密合作以实现互惠互利。

2月,伊藤与 Carter 一起参加了题为 “Computing for the People: Ethics and AI” 的小组讨论,该小组还包括微软和谷歌的现任和前任高管。

该小组是麻省理工学院耗资10亿美元为专攻AI的大学成立庆典的一部分。庆典上的其他演讲者包括施密特(Schmidt)、西格尔(Siegel)和亨利·基辛格(Henry Kissinger)。

当基辛格宣布 “世界依赖由数据和算法提供动力,不受道德或哲学规范支配”的可能性时,麻省理工学院礼堂外的一场抗议活动引起了人们对基辛格在越南、柬埔寨和老挝以及其他地方的战争罪行的关注

对 “道德” 的任何可辩驳的主张都不能回避对大规模监视和系统暴力技术的部署采取法律上可强制执行的限制的紧迫性。

在这样的限制真正确立之前,关于技术道德和政治思考的问题将继续保持该媒体实验室的座右铭 “Deploy or Die” 所表达的以获利为首要任务的附属地位。⚪️

THE INVENTION OF “ETHICAL AI” How Big Tech Manipulates Academia to Avoid Regulation

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据