无形的极权主义

  • 技术不是中立的。如何使用它以及为了什么目的反映了特定文化的社会规范和价值观。因此,在世界各地,算法和其他类型的人工智能通常会复制社会不平等并为强国的利益服务 ——而不是创造一个更平等、自由和公正的社会民主的范式。推荐一段对话

虽然我们无法直接感知算法,但我们在日常生活中一直都在被算法所包围着:它们控制着我们与设备交互的方式,控制我们使用计算机和 ATM 以及移动世界的一切。

位于计算机程序和AI深处的算法有助于管理主要道路和高速公路上的交通模式;银行和其他贷方也使用算法来确定一个人是否该被视为“有价值”;算法还决定了 Google 等搜索引擎上被显示的结果、以及通过 Facebook 等社交媒体平台你能看到什么样的信息。五角大楼与私营工业联合正在开发的算法将赋予无人驾驶飞机自主决定如何以及在什么情况下使用致命武力对付人类……

技术不是中立的。如何使用它以及为了什么目的反映了特定文化的社会规范和价值观。因此,在世界各地,算法和其他类型的人工智能通常会复制社会不平等并为强国的利益服务 — — 而不是创造一个更平等、自由和公正的社会民主的范式。

计算机算法产生这些结果的具体方法是什么?谷歌和其他搜索引擎如何成为了传播种族和性别偏见观念的手段?在一个“大数据”和算法无处不在的时代里,这些技术和实践如何真正破坏了民主 — — 并同时推进了威权主义和其他极右翼运动的事业?社交媒体和其他形式的数字技术是否通过让人们更加孤独和疏远社会而抑制了反抗的动力?

为了回答这些问题,我最近采访了南加州大学安纳伯格传播学院教授 Safiya Noble,她最近写了一本新书,题为《压制性的算法:搜索引擎如何加强了种族主义》。Noble 教授还是 Stratelligence 的合伙人,该公司专门研究信息和数据科学挑战。她还是信息伦理与公平研究所的联合创始人,该研究所为致力于将其信息管理实践转变为更公正、合乎道德和公平之结果的组织提供培训。

以下是这场对话的简洁版。

Q:在这个政治时刻,当民主在美国和其他国家受到围困时,你会更广泛地阐述 Facebook,Twitter 和互联网在其中充当的角色吗?

A:我们的社会正在全面数据化发展 — — 我们的每一步行动都在被跟踪,我们的每一种感觉和每一次接触都被收集和描述,它正在改变我们所有人并颠覆我们的自由。

这些进程真正破坏了我们的公民自由和公民权利。这是一个让公众变得麻木失去控制的彻底时刻。而且,甚至失去了了解自己正在被控制的能力。这是专制独裁政权的全面完美时刻。我们正在世界各地的独裁运动中看到这一点。

例如,当剑桥分析公司的丑闻在 Facebook 爆发时,我与人们交谈,他们告诉我,“好吧,我又能怎么办呢?我必须有[Facebook]。“退出参与这些大数据项目并不是一件容易的事。它们已经被武器化了并用于对抗公众。

人们崇拜这些监视资本主义巨头公司,他们的主要文化认同就在于这些公司,而不是社会运动或价值观和想法。

我曾经做过广告工作,现在我是一名学者。几十年来我注意到人们如何失去了个人控制和权力。人们现在谈论他们的权利的方式实际上是为大公司腾出空间以对他们自己的生活产生巨大影响。这个社会系统失败的时刻即将到来,我们将不得不做出一些非常艰难的决定。

Q:孤独是法西斯主义和其他类型的专制政权的先决条件。研究表明,孤独和社会异化无疑是选民涌向极右翼的原因之一。社交媒体技术在创造和培养这种社交萎靡方面的作用是什么?

A:孤独可能更多是我们与这些技术接触后的副产品,而不是说孤独或异化是前兆或存在于自身。总的消费者体验是,当你失去真正的社会力量和真正的经济机会时,你需要一种方法来解决你感受到的异化。

那就是社交媒体或技术 — — 这些数字干扰 — — 成为了处理这些感受以及做其他类型的情感劳动的好方法。例如,我教我的学生关于“快时尚”。如果你和时尚学者谈过话,他们会这样告诉你,“嘿,听着,当你无力上大学时,因为现在获得学位是10万美元。哥们,在 H&M 买20美元两件的毛衣真是太棒了。“

这就是人们正在经历的现实。你怎么能不觉得肯定会有一种方法可以从你的内啡肽中获得高值?当然,我们知道人们在社交媒体中获得的即时满足感很重要,它触发了人们在生活中其他方面无法获得的心理和情感兴奋剂。

孤独问题更多是源于没有住房、缺乏实际工资、缺乏负担得起的教育等因素带来的。那令人难以置信的孤独,唤起了人们绝望的真实感受。他们没有停下思考,而是转向了其他地方以获得安慰。

Q:“互联网作为一种伟大的社会平等者和创造机会与自由的空间以拯救我们“,这种错误观念从何而来?

A:早期的互联网用户和传播者总是把互联网视作为一个解放的网站,也就是那种无国籍、无国界、无阶级、无性别差异的地方。的确是,但那是早期的商业化前互联网时代。

随着时间的推移,互联网全面商业化了,互联网成为了 Facebook、互联网就是谷歌。普通用户无法真正了解互联网之外的内容。人类被归为了 Google 及其产品,作为人们所依赖的基本知识或感知的工具。

人们已经开始将它们视为一种既热闹又悲惨的民主形式。人们与互联网互动,互联网又是另一个拥有众多参与者的企业商业空间。当然,我们知道互联网是社会的一面镜子,它是种族化的、它是性别化的、它是一种基于阶级的经验。

所有这些限制将被消除的承诺都是骗人的。

不幸的是,很多人觉得他们在网上的参与是“参与真正民主的一种方式”。太多人实际上相信这点,因为他们可以评论或以其他方式进行在线参与,它伪装成了一个完全自由和民主的空间。

而人们看不见算法。算法是隔离和创造的市场,是谁能看到哪些类型的消息或广告的消费者市场。这对所有人来说都不是自由的。这是一个被高度策划了的空间。

相对于技术和这些平台的“民主”并不能取代任何层面上的真正民主 — — 它们会排除人们的批判性思考的可能性(如果批判性思考曾经存在的话),因为在这些空间中移动的是广告驱动的内容。这实际上与基于证据的研究、或对民主至关重要的其他形式的知识,都非常的不同。

Q:算法和相关技术如何重现了社会不平等?可以举一些例子吗?

A:这些平台的兴起与公共信息领域的日益萎缩接连发生。例如,公共信息领域包括公立学校、公共图书馆、公立大学和公共媒体,这对于在我们的社会中建立共同教育和共同知识基础非常重要。这些也是公平代表、历史准确性和报告我们社会面临的问题以及其他挑战的政治斗争的重要场所。

在巨头公司控制的媒体扩张的同时,公共领域正在萎缩。

我们看到的是,那些拥有最多资本的公司参与者能够将他们的内容优化到信息堆的顶端。搜索引擎尤其如此。具有大量技术技能的个人和团体也能够优化他们的存在。例如,白人民族主义者拥有令人难以置信的技术技能,你不会相信他们在控制有关种族和种族关系的语话方面有多高效。他们擅长诋毁 Black Lives Matter 等社会运动以及其他类型的人民运动,因为他们也得到了右翼组织和亿万富翁的充分资助。

这就是一个拼资本的世界。

如果你既有资本又有技术技能,那么你就可以用第三种力量来控制世界,那就是硅谷,人们正在开发这些平台。这些工程师和其他设计师中的许多人甚至在相信他们自己正在开发据称将成为伟大的解放者或知识解放者的平台时,甚至无法识别这些社会力量。

总之,这是一个真正的混乱,我认为,这是导致新型法西斯主义兴起的原因。这些想法正在网络上被规范化。那些被剥夺了权利的人,那些在美国和其他地方被钉在种族主义和性别歧视政策十字架上的人并没有很多资本,他们也可能没有很多技术实力,他们当然更没有深深植根于硅谷。

Q:人们认为这些技术是“中立的”,它们不可能是“种族主义者或性别歧视者”,你如何反驳?

A:这是典型的奥本海默式反应 — — 我们不得不制造氢弹,因为它是“科学”。 “我们必须处理符合科学最佳利益的事,如何应用这些研究取决于政治家。”这些实际上是社会问题。这通常是硅谷工程师谈论他们所做工作的方式,也就是说,“我们建立工具,他们是中立的。如果它们被破坏,那是因为人们与他们接触并使用它们的方式所造成的。“

首先,我们都知道计算机语言被称为语言,正因为它们是主观的。如果编程语言是主观的,那么它们是高度可解释的。例如,搜索引擎是特定类型的AI。

AI是关于自动化决策的。如果存在这些条件,则应采取这些措施。如果没有主观的思考优先级和时间优先级的过程,就无法进行逻辑和自动决策。

这些不是数学问题。它们非常主观。事实上,谷歌本身已经表示,有超过200个因素可用于开发其搜索技术以及如何排序信息的优先级。那么,这些因素究竟都是什么?我们看不到它们 — — 包括谷歌为中国制造的“蜻蜓”,但我们当然可以看看结果。

代码试图迎合大多数人的感知,这就是为什么“女孩”在搜索引擎结果方面成为色情内容的同义词的原因之一 :因为想要以特定方式寻找“女孩”的观众最有可能是寻找色情内容的男性。这是通过算法和AI的设计做出的主观决定。

Q:关于谷歌和其他搜索引擎如何加强了种族主义和性别歧视,如搜索词“黑人女孩”所示那样,对此我们知道些什么?

A:多年来,直到2012年秋天,第一个结果都是“sugaryblackpussy. com”,其次是一系列色情网站或其他深度性感的网站。这是第一页上80%的内容 — — 当然这是最重要的,因为大多数人通常不会继续翻找下一页。多年来,色情内容是搜索“黑人女孩”的主要结果。

拉丁裔和亚洲女孩也是如此。由于引发了严重争议,谷歌改变了“黑人女孩”的算法。几年来一直有很多关于它的讨论。通过这些搜索引擎结果,色情内容是非白人妇女和女孩在线搜索结果的主要代表内容。这与主流的陈规定型叙述高度一致,这些叙述被用来合法化对美国和全球社会中非白人妇女和女孩的公民权剥夺。色情制品不仅不是性解放,更是资本主义和对女性身体和女性性行为的暴力控制的功能性反映。

Q:在生成这些搜索引擎结果时,算法会做出哪些类型的决策?

A:谷歌的网络抓取工具正在寻找流行的东西,他们也希望看到什么带有大规模超链接,他们还试图找出什么是欺诈性的。谷歌有一个认真和真实的努力,例如不能将某些类型的内容放到首页,因为“这在内容某些国家可能是非法的‘。

但在另一个层面上,您可以使用 Google Adwords 等工具优化内容的排序。有些人会付钱给谷歌以让自己的内容更加醒目和获得高位排名。

当我们谈论民主时,这一点非常重要 — — 少数族裔永远无法获得这种优势,特别是如果他们无法获得货币和其他类型的资源时。在政治游戏里方面这种能力非常重要,因为某些参与者能够确保他们的信息被广泛传播,无论它是虚假的、危险的、性别歧视的、种族主义的还是其他类似的。由于人们试图购买关键字并将最糟糕的内容优化到搜索排名的前几位,就完全可以影响所有人的思考方式。

Q:最近有一个案例,由于人工智能与互联网上的用户互动,它“学会”了种族主义和性别歧视。这是“垃圾中的垃圾”的典型例子吗?

A:如果人们能够将某些事物变得流行或通过付钱让某些类型的想法变得流行,那么这就将成为训练AI的主导逻辑。“人工智能”是个可怕的概念,因为人类的智慧不仅仅是文本分析、图像分析或图像处理,我们还有感情和情绪。

神经科学家会告诉你,技术网络的任何数量的映射都无法产生人类智力的那些维度。人工智能优于人类智能的这种观念是一场闹剧,因为人类的多个维度无法被机器复制。机器正在接受有偏见的数据培训,数据很危险,数据甚至可能不是真实的或根本不是事实,然后它们却被用来取代人类的逻辑。

这部分变得非常具有挑战性,因为我经常说的一句话是,“如果算法歧视你,你就不能把它告上法庭。”我们也没有法律和社会框架来干预这些项目。当AI侵犯我们的人权时,没有任何一个国际权利组织可以让我们提出申诉。

Q:美国社会存在着数字素养的危机。公民素养也存在危机。我们还有工程师和其他技术专家,他们知道如何制造机器和编写计算机程序,但他们往往缺乏任何哲学、道德或伦理框架来指导他们的研究。你会如何解决这些非常严重的问题?

A:如果你对社会一无所知,你就无法为社会设计技术。我们将不得不让那些对社会有深刻了解的人参与其中。这些是研究后殖民主义、民族研究、妇女权利研究和相关社会学的学者。人文主义者 — 特别是研究道德和伦理的哲学家 — 将不得不坐在驾驶员的位置上,以制止技术正在做出的一些错误选择。

技术是在研发实验室设计出来的,从来没有经过公开讨论关于我们作为一个社会是否需要甚至是否想要这些东西。当然,也没有关于这些新技术的社会后果或政治后果的长期研究。

注:这就是为什么一直以来 IYP 对伪知识分子的危害深表遗憾。因为如果没有社会学、哲学、传播学和伦理学专业知识的协作,技术就无法控制在为人类服务的范围内。当你看到中国伪知识分子转发并倡导对谷歌的赞美和崇拜时,你就很难不陷入这种深度的焦虑。

本文的突破使用的是今年初非常流行的一部电视剧《Black Mirror: Bandersnatch》的海报,正因为这部电视剧描述的就是本文的主题 — — 是的,绝大部分关于该剧的评论都是错误的。在这里看到关于“Bandersnatch”的分析:https://www.facebook.com/DonEvanswent/posts/1843263712446783

广告

发表评论

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据