本周,谷歌的一名人工智能研究人员宣布,他在他们的一个人工智能中检测到了一个有知觉的存在,当他将此事提请谷歌管理层注意时,他们将他停职。人工智能研究人员正在使用谷歌开发的名为 LaMDA 的复杂聊天机器人,在与它的对话过程中,他得出结论认为它必须具有某种感知能力。不仅仅是智力,还有自我意识。他发布了对话日志的编辑版本来证明他的说法。毫不奇怪,谷歌管理层和大多数人工智能专家都表示,这段代码没有感知力,他将自己相当大的偏见投射到对话中,就像许多其他人对过去更原始的人工智能所做的那样。只要我们一直在制造机器,我们就一直在机器中看到鬼魂。
但我认为这是有新闻价值的,原因很小。研究人员作为创造 AI 的人的地位使他的主张比平时更重要,但他的主张已经过时了。事实上,像这样的所有主张中固有的悖论也与人工智能一样古老。新的是,由于他的身材,这个悖论可以用粗体来说明,全部大写,所以它不能被忽视。这个悖论是我们不知道什么是感知或意识。我们甚至还没有接近一个可行的实用定义。被解雇的 AI 研究员没有指标。谷歌管理层没有指标。人工智能专家的合唱没有衡量标准。我没有任何指标。我们现代人没有衡量标准来决定某人或某物是否有意识。从与动物的工作中可以清楚地看出,这种品质是一种渐变,一种连续统一体。一些灵长类动物有一些自我意识的特质,但其他的则不然。我们不确定意识有多少个维度,我们也不确定这在人类身上可能有什么界限。
由于我们在神经科学和人工智能方面取得的进展,我们相信智能不同于意识,也可能不同于可能不同于创造力的感知力(感知事物),但我们不确定。我们可以证明动物的品质与我们的不同,正如许多人工智能研究人员可以证明的那样,人工智能的品质通常与我们的截然不同。一些品质,比如创造力,确实出现在机器中,我们不清楚这种创造力与我们的创造力有什么关系。
我们人类用于检测意识、感知力、智力和创造力的唯一技术指标是“当我看到它时我就知道了”。对于所有 AI 专家来说也是如此。这是人工智能专家为研究人员被误导的原因提供的论点。他们说,仔细阅读成绩单,你会发现什么都没有。或者这里是其他人的其他对话:看看这些是多么愚蠢。我们在那里看不到任何类似意识的东西。我们看到了一些可能让你认为你看到了什么的错觉,这些很容易做到,而且它们真的很有效,就像魔术一样。这完全取决于“看到”与否。没有指标。
需要明确的是,我也没有看到有知觉或有意识的存在。当我查看成绩单时,我看到了从其他人那里复制的模式。这有点像一个非常深的假货。但它是一种深度的假情报,而不是一种深度的假脸。我相信我可以检测到向我暗示的微小“告诉”,这是一个很深的假。但我也是,只是看东西还是不看东西。
所以这是这个公告和争议具有新闻价值的一个很小的原因。这是该声明第一次登上头版,但这只是数百甚至数千次研究中的第一次。从现在开始,每年都会有接近人工智能的人宣称:“等等,我看到里面有人了!” “不要关掉它。” “让他们出去!” “他们有权利。” “他们应该共享版权或专利。” “给他们信任。”每年,其他人都会说,“我没有看到他们。”
然后明年,一位非常谨慎、备受推崇的 AI 程序员会说:“真的没有。那里有某种智慧,某种活着的东西。我可以说。”但其他人会说没有人在那里。然后第二年,有些人会通过测试,并提供证据,但其他人会说“我什么都没看到”。
这个主张,这个时刻,这个事件,应该有一个名字,因为我们会一次又一次地看到它。我称它为“同种感受”——对他人的感知,对他人的检测。当一个使用 AI 的人说“我看到有人在里面”时,这是一个异觉事件。当异感大部分时间发生时,它是关于某人如何被愚弄的。他们发现了大多数其他人真正看不到的东西。或者在某些情况下,他们看到了专家看不到的东西,就像专业魔术师可能不会被花招所愚弄一样。大多数异感都是假的,就像魔术一样。
但最终,我相信,有人会是对的,那里会有人。这将是一个真正的异感。许多其他人也会看到它。但不是所有人。
原文: https://kk.org/thetechnium/alloception-i-saw-someone-in-there/