想象一下一个处于植物人状态的病人,他实际上可以感觉到发生在他们身上的一切,但无法沟通。想象一下一只章鱼被活活煮熟,经历着每一秒的痛苦。考虑一个人工智能系统,它可能会产生真实的情感,而我们只是将其视为另一种工具。这些道德问题让乔纳森·伯奇 (Jonathan Birch) 彻夜难眠。
作为伦敦经济学院的哲学家和伦理学家,伯奇多年来一直在努力解决科学上最令人困惑的问题之一:我们如何知道另一个存在是否有意识并能够承受痛苦?他的书《感知的边缘》认为,我们一直在问错误的问题。我们不应该要求绝对的意识证明——这可能是不可能获得的——我们应该专注于识别“有意识的候选者”,并采取实际措施保护他们免受伤害。
这不仅仅是学术理论。伯奇的工作已经影响了现实世界的政策——他领导的团队的研究说服英国政府在法律上承认龙虾和章鱼是有感知的生物。现在,他将注意力转向更广泛的案例,从脑损伤的人类患者到有意识的人工智能的可能性。
以下是本书中的四个关键见解:
当生命受到威胁时“假设有知觉”
“在做出重要的临床决定时,不应假定[患有长期意识障碍]的患者无法体验。所有临床决策都应尽可能全面地考虑患者的最大利益,并基于预防性假设,即存在有价体验的现实可能性,以及对避免痛苦和实现幸福状态的持续兴趣,但不要将此假设对预后产生影响。”
超越大脑大小和智力
“感知力既不是智力,也不是大脑大小。我们应该意识到动物王国中智力、大脑大小和感知力之间脱钩的可能性。保护动物福利的预防措施应该由感知力标记来驱动,而不是由智力标记或大脑大小来驱动。”
论经验的隐藏本质
“至少在原则上,可以存在没有效价的现象意识:感觉像某种东西但感觉既不好也不好的体验。目前还不清楚人类是否可以拥有这样的体验(我们的整体意识状态可以说总是包含情绪元素)。但是我们可以想象一个对世界有主观观点的存在,其中无价状态具有特征(它有意识地体验形状、颜色、声音、气味等),但其中一切都是评价中立的。根据我们一直使用的定义,这样的存在在技术上是无知觉的,尽管在更广泛的意义上它是有知觉的,这样的存在是否与具有有价体验的存在具有相同的道德地位?”
论未来人工智能风险
“随着这些模型变得越来越大,我们对它们可以隐式学习的算法复杂程度的上限没有任何感觉……我们很难看到这种判断从正确转变为危险的错误的点。真正的风险是,在这些系统变得有知觉后很长一段时间,我们将继续将这些系统视为我们的工具和玩具。”
原文: https://kk.org/cooltools/book-freak-176-understanding-potentially-sentient-non-human-beings/