要制造一台机器,必须知道它的零件是什么以及它们是如何组装在一起的。要了解机器,需要知道每个部分的作用以及它们如何发挥作用。换句话说,人们应该能够解释它如何运作的“机制”。
根据一种称为机制的哲学方法,人类可以说是一种机器——我们思考、说话和理解世界的能力是我们不理解的机械过程的结果。
为了更好地了解我们自己,我们可以尝试建造模仿我们能力的机器。这样做,我们将对这些机器有一个机械的理解。机器展示的我们的行为越多,我们就越接近于对自己的思想进行机械解释。
从哲学的角度来看,这就是使 AI 变得有趣的原因。 GPT-4和 Midjourney 等高级模型现在可以模仿人类对话,通过专业考试,只用几句话就可以生成漂亮的图片。
然而,尽管取得了所有进展,但问题仍未得到解答。我们怎样才能让一些东西具有自我意识,或者意识到其他人都知道?什么是身份?什么意思?
尽管对这些事物有许多相互竞争的哲学描述,但它们都抵制了机械解释。
在斯德哥尔摩第 16 届人工智能年会上接受的一系列论文中,我对这些现象提出了机械解释。他们解释了我们如何构建一台能够感知自身、他人、他人所感知的自身等的机器。
情报和意图
许多我们称之为智能的东西归结为在信息不完整的情况下对世界做出预测。机器做出准确预测所需的信息越少,它就越“智能”。
对于任何给定的任务,实际有用的智力是有限度的。例如,大多数成年人都足够聪明,可以学会开车,但更高的智力可能不会让他们成为更好的司机。
我的论文描述了给定任务的智能上限,以及构建达到该上限的机器所需的条件。
我将这个想法命名为 Bennett 的剃刀,用非技术术语来说就是“解释不应该比必要的更具体”。这不同于对奥卡姆剃刀(及其数学描述)的流行解释,后者更倾向于更简单的解释。
差异很微妙,但很重要。在一项比较人工智能系统学习简单数学需要多少数据的实验中,偏好不太具体解释的人工智能比偏好简单解释的人工智能高出 500%。
探索这一发现的含义使我对意义进行了机械解释——称为“ Gricean pragmatics ”。这是语言哲学中的一个概念,着眼于意义与意图之间的关系。
为了生存,动物需要预测其环境(包括其他动物)将如何行动和反应。你会毫不犹豫地将无人看管的汽车留在狗附近,但你的臀部牛排午餐却不能这样说。
在社区中变得聪明意味着能够推断出他人的意图,这源于他们的感受和偏好。如果机器要达到依赖于与人类交互的任务的智能上限,那么它还必须正确推断意图。
如果一台机器可以将意图归因于发生在它身上的事件和经历,这就提出了身份问题以及了解自己和他人意味着什么。
因果关系和同一性
下雨的时候我看到约翰穿着雨衣。如果我强迫约翰在晴天穿雨衣,会下雨吗?
当然不是!对于人类来说,这是显而易见的。但因果关系的微妙之处更难教给机器(感兴趣的读者可以阅读 Judea Pearl 和 Dana Mackenzie 合着的The Book of Why )。
要推理这些事情,机器需要知道“我导致它发生”与“我看到它发生”是不同的。通常,我们会将这种理解编入其中。
然而,我的工作解释了我们如何构建一台能够以智能上限执行任务的机器。根据定义,这样的机器必须能够正确识别因果关系,因此也能推断出因果关系。 我的论文确切地探讨了如何。
这其中的含义是深远的。如果机器学习“我导致它发生”,那么它必须构建“我”(它自己的身份)和“它”的概念。
推断意图、了解因果关系以及构建抽象身份的能力都是相互关联的。达到任务智能上限的机器必须具备所有这些能力。
这台机器不仅为自己构建身份,而且为每个对象的每个方面帮助或阻碍其完成任务的能力构建身份。然后它可以使用自己的偏好作为基准来预测其他人可能会做什么。这类似于人类倾向于将意图归因于非人类动物的方式。
那么这对人工智能意味着什么?
当然,在我的研究中,人的思维远不止是用来进行实验的简单程序。我的工作提供了一个可能的因果路径的数学描述,以创建一个可以说是自我意识的机器。然而,设计这样的东西的具体细节还远未解决。
例如,类似人类的意图需要类似人类的体验和感受,这很难设计。此外,我们无法轻易测试人类意识的丰富程度。 意识是一个广泛而含糊的概念,它包含——但应该区别于——上述更狭义的主张。
我已经对意识的各个方面进行了机械解释——但这本身并不能捕捉到人类体验到的意识的全部丰富性。这仅仅是个开始,未来的研究将需要扩展这些论点。
本文根据知识共享许可从The Conversation重新发布。阅读原文。