很难知道如何看待人工智能。
很容易想象未来,聊天机器人和研究助理会让我们所做的几乎所有事情变得更快、更智能。同样容易想象一个世界,同样的工具会取代我们的工作并颠覆社会。这就是为什么,人工智能要么拯救世界,要么毁灭世界,这取决于你问的是谁。
我们该如何看待这种不确定性?
Jaron Lanier 是一位数字哲学家,也是多本技术畅销书的作者。在这个领域的众多声音中,拉尼尔脱颖而出。几十年来,他一直在撰写有关人工智能的文章,他认为我们谈论人工智能的方式是错误的,而且是故意误导的,这一观点颇有争议。
我邀请他参加灰色地带的人工智能系列节目,因为他具有独特的优势,既可以谈论人工智能的技术方面,也可以谈论人类方面。拉尼尔是一位热爱技术的计算机科学家。但本质上,他是一位人文主义者,总是思考技术对我们做了什么,以及我们对这些工具的理解将如何不可避免地决定它们的使用方式。
我们讨论了此时此刻我们应该问的有关人工智能的问题,为什么我们需要一种新的互联网商业模式,以及描述性语言如何改变我们对这些技术的看法——特别是当这种语言将人工智能视为某种神一样的实体时。
与往常一样,完整的播客中有更多内容,因此请在Apple 播客、 Spotify 、 Pandora或任何您能找到播客的地方收听并关注The Gray Area 。每周一都会推出新剧集。
为了篇幅和清晰度,本次采访经过编辑。
当您说人工智能的整个技术领域“由近乎形而上学的断言定义”时,您是什么意思?
形而上学的断言是我们正在创造智慧。那么,什么是智力呢?一些人性的东西。整个领域是由艾伦·图灵的思想实验(称为图灵测试)创立的,如果你能欺骗一个人,让他认为你已经创造了一个人,那么你也可能创造了一个人类,因为还有什么其他测试呢?这很公平。另一方面,除了支持舞台魔术师之外,还有什么其他科学领域是完全基于能够愚弄人们的呢?我的意思是,这很愚蠢。愚弄人们本身是没有任何作用的。当然,除非你正在研究被愚弄的认知,否则就没有生产力,就没有洞察力。
还有另一种方式来思考我们如何使用所谓的人工智能,那就是没有新的实体,那里没有任何智能。人与人之间存在一种新的、在我看来有时非常有用的合作形式。
如果我们这样做有什么坏处?
这是一个公平的问题。谁在乎是否有人想把它视为一种新型的人,甚至一种新型的上帝或其他什么?这有什么问题吗?可能什么都没有。人们总是相信各种各样的事情。
但就我们的技术而言,让我这样说,如果你是一名数学家或科学家,你可以以一种抽象的方式做你所做的事情。你可以说,“我正在推进数学。从某种程度上来说,即使没有人意识到我已经做到了,这也是真的。我已经写下了这个证明。”但对于技术人员来说情况并非如此。技术人员只有在有指定受益人的情况下才有意义。你必须为某人制造技术,一旦你说技术本身是一个新人,你作为一个技术专家就失去了意义。
如果我们犯了现在很常见的错误,并坚持认为人工智能实际上是某种神、生物、实体或神谕,而不是你所定义的工具,那么这意味着这将是一个非常严重的错误,对吧?
这是正确的。当你将技术视为自己的受益者时,你就会错过很多让它变得更好的机会。我一直在人工智能中看到这一点。我看到人们说,“好吧,如果我们这样做,它会更好地通过图灵测试,如果我们这样做,它看起来更像是一个独立的思想。”
但这些目标都与经济上有用的目标不同。它们不同于对任何特定用户有用的东西。它们只是这些奇怪的、近乎宗教的仪式目标。因此,每次你全身心投入到这件事上,就意味着你没有全身心投入让它变得更好。
一个例子是,我们故意设计了大型人工智能模型,以掩盖人工智能训练所用数据的原始人类来源,以帮助创造新实体的这种幻觉。但当我们这样做时,质量控制就会变得更加困难。我们使身份验证和检测模型的恶意使用变得更加困难,因为我们无法判断其意图是什么,它所利用的数据是什么。我们故意以一种我们可能并不真正需要的方式让自己变得盲目。
我真的想强调,从形而上学的角度来看,我无法证明,其他人也不能证明,计算机是否活着,是否有意识,等等。所有这些事情永远都是信仰问题。事情就是这样。但我能说的是,这种强调试图让模型看起来像是独立的新实体的做法确实让我们看不到一些可以让它们变得更好的方法。
那么,所有关于人类灭绝的焦虑,包括来自人工智能世界的严肃人士的焦虑,对你来说是否感觉像是宗教歇斯底里?
让我疯狂的是,这是我的世界。我和那些一直相信这些东西的人交谈过,越来越多的人相信消灭人类是件好事,人工智能的未来会更美好,我们应该为人工智能的诞生佩戴一个一次性的临时容器。我经常听到这样的意见。
等等,这是真实的人持有的真实观点吗?
很多很多人。就在前几天,我在帕洛阿尔托吃午餐时,那里有一些年轻的人工智能科学家说他们永远不会有一个“生物婴儿”,因为一旦你有了一个“生物婴儿”,你就会感染[生物]世界的“心灵病毒”。当你感染了心灵病毒时,你就会对你的人类婴儿产生忠诚。但更重要的是致力于未来的人工智能。因此,生下人类婴儿从根本上来说是不道德的。
现在,在这个特殊的案例中,这是一名年轻男子,他的女性伴侣想要一个孩子。我的想法是,这只是一个非常非常古老的故事的另一种变体,年轻人试图尽可能推迟与性伴侣生孩子的事情。所以在某种程度上我认为这不是什么新鲜事,只是旧事。但这是一种非常普遍的态度,而不是占主导地位的态度。
我想说,占主导地位的是,超级人工智能将变成上帝,拯救我们,要么让我们永生,要么解决我们所有的问题,至少创造超级富足。我不得不说,直接参与人工智能系统开发的人与拥有这些不同信仰的邻近人之间存在着某种反比。我自己的观点是,那些能够对他们正在研究的技术持怀疑态度、有点无聊和不屑一顾的人,往往比那些过于崇拜它的人更能改进它。我在很多不同的事情上都看到过这种情况,而不仅仅是计算机科学。
我担心的一件事是,人工智能加速了数字技术(尤其是社交媒体)已经开始的趋势,即把我们从物理世界中拉出来,并鼓励我们不断地在虚拟世界中扮演自己的版本。由于它的设计方式,它有一种将其他人简化为粗俗化身的习惯,这就是为什么在网上很容易变得残忍和恶毒,也是为什么在社交媒体上使用过多的人开始变得彼此难以理解。你担心人工智能会增强这些东西吗?我将人工智能视为这些趋势的潜在促进者的想法正确吗?
这是有争议的,而且实际上与 [AI] 社区内部的说法一致,即迄今为止推动社交媒体发展的算法是人工智能的一种形式(如果您想使用这个术语)。这些算法的作用是尝试根据给予人类的刺激来预测人类行为。通过将其置于自适应循环中,他们希望引起人们的注意和对平台的痴迷。因为这些算法无法判断某些事物是否是由于我们认为是积极的事情或我们可能认为是消极的事情而被驱动的。
我把这称为奇偶校验的生命,这种概念是你无法分辨一个位是一还是零,但这并不重要,因为它是数字系统中的任意指定。因此,如果某人通过表现出混蛋来获得关注,那么这与他们提供救生信息或帮助人们提高自我一样有效。但好的峰确实很好,我不想否认这一点。我喜欢 TikTok 上的舞蹈文化。 YouTube 上的科学博主已经达到了令人惊讶的水平,等等。这里有所有这些非常非常积极的好地方。但总的来说,真相的丧失、政治偏执以及任意创建的文化群体之间不必要的对抗等等,这确实造成了损害。
那么,更好的人工智能算法会让情况变得更糟吗?貌似合理。它可能已经触底,如果算法本身变得更加复杂,它不会真正将其推得更远。
但我实际上认为它可以并且我对此感到担心,因为我们非常想通过图灵测试并让人们认为我们的程序是人。我们正在进入这个所谓的代理时代,在这个时代,你不仅有一个与事物的聊天界面,而且聊天界面一次会了解你多年,并获得所谓的个性等等。然后的想法是人们会爱上这些。我们已经到处看到这样的例子,以及整整一代年轻人爱上假化身的想法。我的意思是,人们谈论人工智能就好像它就像空气中的酵母一样。就像,哦,人工智能将会出现,人们会爱上人工智能化身,但事实并非如此。人工智能总是由公司运营,所以他们会爱上谷歌或 Meta 等的东西。
从很多方面来说,广告模式都是互联网的原罪。我想知道我们如何避免人工智能重复这些错误。这次我们该如何做对呢?什么是更好的模型?
在我看来,这个问题是我们这个时代的中心问题。我们这个时代的核心问题不是,我们如何能够进一步扩展人工智能?这是一个重要的问题,我明白了。大多数人都关注这一点。应对气候是一个重要问题。但就我们自身的生存而言,在某种程度上,提出一种不自我毁灭的文明商业模式是我们目前面临的首要问题和挑战。
因为我们的做法是,我们在互联网的早期阶段就经历过“信息应该免费”的情况,然后剩下的唯一商业模式就是为影响力付费。因此,所有平台对用户来说都是免费或非常便宜的,但实际上真正的客户正在试图影响用户。最终你会发现本质上是一种隐秘的操纵形式,成为文明的核心项目。
我们只能暂时摆脱这种情况。在某些时候,我们会变得疯狂而无法生存。所以我们必须改变文明的商业模式。如何从这里到达那里有点神秘,但我会继续努力。我认为我们应该激励人们将大量数据放入未来的人工智能程序中。我希望人们能够为人工智能模型使用的数据付费,并受到庆祝、可见和了解。我认为这只是一次大型合作,我们的合作者应该受到重视。
做到这一点谈何容易?你认为我们可以或愿意吗?
关于如何做到这一点,仍然存在一些未解决的技术问题。我正在非常积极地致力于这些工作,并且我相信这是可行的。有一个完整的研究社区专门致力于分布在世界各地的研究。我认为它会制作出更好的模型。更好的数据可以打造更好的模型,但有很多人对此提出异议,他们说:“不,这只是更好的算法。我们已经拥有足够的数据来应对接下来的时间。”但我不同意这一点。
我不认为我们是有史以来最聪明的人,未来可能会发生我们无法预见的新的创造性事物,而我们目前构建的模型可能不会扩展到这些事物。拥有一些开放的系统,人们可以为新模式和新方法做出贡献,这是一种更广泛、更公正的思考未来的精神乐观方式。
您是否有一种恐惧,您认为我们可能会犯严重错误,但目前我们很少听到这种情况?
天哪,我什至不知道从哪里开始。我担心的一件事是,我们正在逐渐将教育转移到人工智能模型中,而这样做的动机往往是非常好的,因为在地球上的很多地方,不可能拿出支持和培训足够的人类教师的经济学。不断变化的社会中的许多文化问题使得学校很难运转起来等等。问题很多,理论上来说,一个自适应的人工智能导师可以以较低的成本解决很多问题。
但随之而来的问题又是创造力。如何让人们在这样的系统中学习,如何培训他们,以便他们能够超越系统的培训内容?有一种有趣的方式,你总是在任何人工智能系统中重写和重新组合训练数据,并且你可以通过不断的新输入以及这样那样的方式在一定程度上解决这个问题。但我有点担心人们在封闭的系统中接受培训,这会让他们比原本应有的水平要低一些,对自己的信心也会低一些。
收听其余对话,并务必关注Apple 播客、 Spotify 、 Pandora或任何您收听播客的地方的灰色区域。
原文: https://www.vox.com/the-gray-area/407154/jaron-lanier-ai-religion-progress-criticism