推荐系统渗透到我们的在线生活中。它们构建了我们购买、阅读、观看、聆听的内容,甚至是我们的想法。尽管这些算法系统的内部运作仍然对我们隐藏,但我们几乎在所有数字平台上都会遇到它们。谷歌、亚马逊、Netflix、Facebook、阿里巴巴、Twitter、TikTok、Instagram、Spotify 和无数其他公司使用推荐系统将我们引导至某些类型的内容和产品。每当我们尝试搜索某些东西或呈现一个有序的选项列表时,我们都会看到这些系统的结果,通常带有排名和层次结构。但是这些列表到底是什么?
您可能会认为它们只是数据。您可能会怀疑它们是公司、品牌或搜索引擎的首选。您可能会将它们视为无数其他用户的存档搜索历史的反映。您甚至可能怀疑它们是基于您自己的购买记录,或者您之前的搜索查询中的特定单词和语法。但是您是否曾经将这些推荐列表视为意见——算法的表达,或创建它的公司?
推荐系统提出了关于说话意味着什么以及说话是否只有一个人才能做的难题的难题。我们如何在表达式和动作之间划清界限?谁(或什么)可以被认为是“演讲者”?在我的工作中,我研究了这些问题是如何在法律上进行辩论和决定的。我的发现让我感到惊讶:机器正在重塑言论的监管和定义方式,它们正在决定谁在公共领域拥有发言权。搜索结果和其他算法表达式就是这种情况。但这些建议真的可以被视为“意见”或“表达”吗?解开这些问题引发了关于语音本身不断变化的性质的更广泛的问题:在一个由人类、企业和算法话语组成的公共领域,说话到底意味着什么?
像谷歌这样的公司辩称,他们的搜索结果不是数据,也不是商业产品,也不是行动。相反,它们是一种演讲或意见的形式,就像报纸编辑一样。谷歌这样做,部分是出于务实的原因。在美国,意见是一种受宪法保护不受监管和其他诉讼的表达形式,这就是为什么如此多地取决于特定活动是否被理解为“演讲”或“表达”的一个例子。如果搜索结果是“言论”,那么产生这些结果的公司将不受政府监管,并免受一系列法律威胁,包括反竞争行为的指控、诽谤指控或来自竞争对手、内容创建者或用户的其他投诉.这就是为什么谷歌更喜欢你——或者更确切地说,美国法律体系——将其搜索结果视为意见。
算法输出可能会受到其创造者的价值观、意图和信仰的影响,但它们并不等同于它们
从这个角度来看,将算法输出和决策表征为意见可能看起来像是自旋,这是公司试图博弈系统并找到最有利的先例集的一种尝试。但在这些辩论中还有更深层次的东西。谷歌和其他科技公司之所以做出这些描述,是因为他们的搜索结果确实与观点相似——但也存在重要差异。也就是说,这些“意见”与人类的判断和陈述重叠,但并不等同。我们还没有一种很好的方式来谈论和思考这种“演讲”或“表达”。
我们可能很想用“意见”之类的词来描述搜索结果的“语音”,因为算法输出与人类的意见和表达有一些相似之处。算法是由人类构建的,涉及思想、信念和价值判断。例如,搜索算法涉及有关如何定义搜索结果中的相关性和质量以及如何实施这些定义的人工决策。例如,当算法的创建者必须确定质量是否最好由指向网站的许多链接或来自高度认可和信誉良好的网站的链接来定义时,就会发生这种情况。通过这种方式,创作者正在参与类似于关于新闻价值的编辑决策的高级决策。即便如此,算法输出与如何理解“语音”之间存在重要差异。
言语通常以暗示人类意识、意图、个性和能动性的方式来定义。当我们谈论演讲时,我们使用诸如“意见”、“判断”、“话语”、“倡导”、“说服”、“良心”、“信念”和“感觉”等术语。这些术语在人文主义思想以及关于言论自由的法律推理中有着丰富的历史。传统上,说话涉及个人通过口头或书面文字、图像、音乐甚至服装、手势、舞蹈和其他行动将想法或感觉外化。这反映在法律中:美国对言论自由的法律保护包括诸如敬礼(或焚烧)旗帜、佩戴臂章、坐着或站着无声抗议、裸体跳舞、看电影、 播放留声机等行为。在所有这些例子中,行为都是一种表达,因为它向他人传达了某种形式的心理活动或进行“表达”的人所持有的信念。这是关于说话意味着什么的传统的、自由主义的概念。在这一传统中,演讲或演讲与作为一个人和一个政治社区的参与者的意义密切相关。当我们提到“说话的对象”或“有发言权”的个人或团体时,我们表达了这个想法。
算法输出不太符合这个定义。它们可能受到其创造者的价值观、意图和信仰的影响,但它们并不等同于它们。它们展示了我所说的独特的语言结构。它们不涉及希望表达特定想法、意见或信仰的演讲者(如在典型的对话、出版物或意见表达中)。在表征我们当前媒体格局的复杂算法系统中,算法创建者及其输出之间的因果关系和意图链通常是减弱或间接的。当我们试图将这些输出视为意图、代理或判断的表达时,就会出现问题——也就是说,就像自由主义的言论概念一样。
谷歌的论点展示了算法输出如何与观点相似和不同
算法系统的输出是由其设计者的想法、判断、信念或价值观塑造的,但不能还原为它们。搜索结果不会反映或表达 Google 或其工程师对您的搜索查询的看法。相反,这些结果反映了他们对如何在一般搜索查询中定义相关性和质量的想法。因此,我们不能简单地将这些输出描述为人类创造者的表达。事实上,在许多这样的系统中,设计师并不是判断和价值观的唯一来源。复杂的算法系统是动态的,这些系统的输出取决于从众包在线活动中提取的多个且经常变化的数据流。正如政治地理学家(和算法专家)Louise Amoore 在她的《云伦理》(2020 年)一书中所说,“我们每个人”都被征召来编写这些系统。我们这样做没有意图、知识或协调。
谷歌的另一个例子有助于说明这种动态,该公司声称其搜索结果不是它的观点,而仅仅是大众信仰的反映。大约在 2004 年,搜索“犹太人”一词的最高结果是一个反犹太主义网站。虽然网站的内容显然是其创建者想法的表达,但推荐本身的来源或原因却(并且仍然)不太清楚。在这种情况下,谷歌辩称其建议并未反映公司的价值观或信念——这不是谷歌的观点,它纯粹是对在线流行内容的反映。结果是一群匿名的其他人的判断的总和,这些人与反犹太主义网站有联系或互动。这些众包的判断或决定不是由一群人为了某个目的而故意合作产生的,而是由与算法输出具有不同且通常不透明的因果关系的各种在线交互产生的。同样,该公司在搜索结果方面将自己定位在最有利的法律位置:在这种情况下,距离和缺乏责任感。然而,与此同时,谷歌的论点证明了算法输出是如何既相似又不同的观点。因为推荐是由设计师的价值观和优先事项决定的,所以创作者确实对他们负有一些责任。但它们也不等于一组单一的设计师的表达方式。换句话说,推荐不等于经典的、自由的言论模型。算法表达是不同的:没有说话者的演讲,或脱离人格的演讲。
试图通过经典的语音和表达模型来思考算法系统的含义并没有帮助,但这并没有阻止谷歌和其他公司尝试。表达与意向之间的直接联系以及演讲背后的代理人(如个人)的假设一直是上述公司机会主义的核心。谷歌利用这些论点将自己定位为一个可以主张合法权利的经典演讲者或个人——以及在公共领域的发言权。这些论点会让我们问:谁真的在说话?但这是个错误的问题。在算法表达的情况下搜索特定的代理或说话者不太可能帮助我们思考围绕这些系统的复杂的道德和政治问题,因为算法输出是动态系统和许多不同(通常不知情)参与者的产物。
相反,算法表达可能会让我们有机会重新思考我们当前对作为一个人说话意味着什么的概念的局限性。随着算法越来越多地定义我们在21 世纪了解世界的方式,我们需要更多的方法来追踪表达中的因果关系和意图。我们需要能够让我们识别新形式的代理和责任的语言和框架——低于我们为人类说话者想象的门槛的减弱形式。
与其将在线推荐视为一家公司或一组设计系统的工程师的意见,不如将它们理解为具有不同结构的演讲,展现出不同的表达方式和代理方式。算法表达不仅仅是设计师和建造它们的公司中其他人的决策和行动的结合。当您查看搜索结果和其他形式的推荐时,您也会同时看到:纯粹的数据编织;公司、品牌或设计师组合的价值观或目标;阅读、观看或链接到您正在查看的结果(以及您未看到的结果)的其他人的意见;包括您在内的无数用户的存档搜索历史的反映。这种分布式表达并不能证明算法是人,或者他们的“观点”真的像人类,甚至是公司。相反,它暗示了我们可能甚至更准备不足的东西:一种思考和谈论演讲的方式,而无需找到潜伏在某个地方的完全有意的演讲者。
原文: https://psyche.co/ideas/can-algorithms-speak-and-should-their-opinions-be-protected