点击右下角下载或在 Apple Podcasts、Spotify、Stitcher 等上查找。
如果我们能做一些事情来降低人类灭绝的概率, 1那将是非常好的。但有多好?防止灭绝更像是“拯救 80 亿人的生命”(今天还活着的人数),或“拯救 800 亿人的生命”(未来 10 代人的数量)……或者“拯救 625 亿亿人的生命”(一个我们的数据世界估计了可能出生的人数)……或“挽救了可笑的大量生命”(尼克博斯特罗姆认为包括数字人在内的总人数超过 10^46,谁能存在)?
更具体地说,“一个人过上美好的生活,否则他们永远不会存在”是我们应该重视的东西吗?它和“防止过早死亡”一样好吗?
在有效的利他主义者中,通常会回答:“是的,是的;防止灭绝与拯救[一些疯狂的]生命一样好;因此,如果有任何方法可以将灭绝的几率降低哪怕是很小的一部分,那就是我们应该集中所有注意力和资源的地方。”
我对此感到矛盾。
- 我被特定的、潜在的灭绝级别风险的重要性所说服,例如来自高级人工智能的风险。但是:这主要是因为我认为风险非常非常大,而且非常非常被忽视。我认为即使我们忽略上述论点并使用更适度的“有多少人可能受到影响”的估计,它们也值得关注。
- 如果这些风险非常小,我们应该努力应对这些风险,我对此不以为然。我对“一个人过上美好的生活,否则他们将永远不会存在”这一想法与“防止过早死亡”一样好,我的感受非常复杂。
反映这些复杂的感受,我将通过两个版本的我自己之间的对话来研究关心“额外的生命”的哲学案例(撇开上面的第一个要点):功利主义的霍尔顿(UH)和非功利主义的霍尔顿 (NUH)。 2
这代表了我与自己的实际对话(所以双方都不是一个纯粹的稻草人),尽管这个特定的对话主要是为了说明 UH 的观点以及他们如何抵御来自 NUH 的初始和/或基本反对意见。在未来的对话中,NUH将提出更复杂的反对意见。
这是一系列关于面向未来的伦理对话的一部分:在取得大量(社会和/或个人)道德进步之后,努力做出我们可以在未来仍然为之自豪的伦理决定。 (这里之前的对话,虽然这个是独立的。)
在我终于开始之前还有几点注意事项:
- 这里的流派是哲学,一种常见的论证类型是思想实验:“如果你必须在 A 和 B 之间做出选择,你会选择什么?” (例如:“是防止一个人过早死亡,还是让 10 个本来不会出生的人活下来更好?”)
- 回答这样的问题很常见,比如“我真的不认为现实生活中会出现这种选择;实际上,如果你做对了,你通常可以同时得到 A 和 B”或“实际上 A 不是可能;关于世界如何真正运作的基本假设不在这里。”在考虑哲学时,我的一般建议是避免这样的反应,并考虑如果你真的必须做出被指出的选择,你会怎么做,即使你认为作者关于为什么选择存在的基本假设是错误的。同样,如果您发现某个论点的某个部分无法令人信服,我建议您在接下来的文章中假装您接受它,看看其余的论点在该假设下是否具有说服力。
- 我经常举一个例子,说明在现实生活中人们如何面对 A 和 B 之间的选择,以便更容易想象——但给出这个例子的细节和足够的辩护是不可行的,以使所有读者都觉得它是现实的,而不会分散手头的话题。
- 哲学需要一定程度的怀疑,因为目标是提出关于(例如)你重视什么的问题,同时将它们与关于你相信什么的问题隔离开来。 (有关如何区分价值观和信念的更多信息,请参阅贝叶斯思维模式。)
关于“额外的生命”的对话
为了清楚谁在说话,我使用-UH-表示“实用霍顿”,使用-NUH-表示“非实用霍顿”。 (在这篇文章的音频版本中,我妻子为 NUH 配音。)
-呃-
让我们从这里开始:
- 假设如果人类能够避免灭绝(并且可能遍布整个银河系),那么将存在的人数大约是五亿分之一,也称为“十亿”或“10^18”。 (这与我们的数据世界对可以生存的人数的估计接近3 ;它忽略了数字人的可能性,这可能导致更大的数字。)
- 如果您认为实际发生的可能性为 1%,那么这是 10^16 人的预期值,这仍然足以承载我要说的其余部分。
- 你可以这样想:想象所有存在或曾经存在的人,都站在一个地方。今天大约有 10^10 个这样的人活着,剩下的只是“潜在的人”——这意味着超过 99.999% 的人是“潜在的人”。
- 现在想象一下,我们都在谈论您,作为有史以来最早的人之一,处于特权地位的人应该集中精力帮助他人。你说:“天哪,我真的很伤心:
- 我想如果我把精力集中在当今世界上,也许我可以帮助防止多达 10,000 人过早死亡。 (这将是一个非常高的目标。)
- 或者,我可以使灭绝风险略微降低,例如 1% 的 1% 的 1% 的 1%。这将帮助大约 1 亿人。 4我该怎么办?”
- (让我们忽略这样一个事实,即帮助当今世界的人们也可以降低灭绝风险。它可以,但它也可能增加灭绝风险——谁知道呢。可能有比帮助当今世界更好的行动来降低灭绝风险,这就是重点.)
在那种情况下,我想每个人都会说:“这怎么是个问题?即使你对灭绝风险的影响很小,即使它是不确定和模糊的,也有更多的人受到影响。如果你选择关注今天的世界,你实际上是在说你认为今天的人是未来人的 10,000 多倍。
“现在承认,在你那个时代活着的大多数人都会这样做——他们忽略了未来。但是有一天,如果社会在道德上变得更加明智,那将看起来是不可接受的;同样,如果你在道德上变得更聪明,你会后悔的。它基本上决定了 99.999% 以上的人类同胞不值得担心,只是因为他们还不存在。
“做前瞻性的事情,面向未来的事情。专注于帮助大量尚不存在的人。”
-NUH-
我觉得你在这里跳过了很大的一步。我们正在谈论尚未存在的潜在人会说给他们一个存在的机会?这甚至有意义吗?
那就是:听起来您将每个“潜在的人”视为我们应该尊重其愿望的人,包括他们希望存在而不是不存在的愿望。那么除其他外,这意味着更多的人口更好吗?
-呃-
是的。
-NUH-
我的意思是,这非常奇怪,对吧?比如尽可能多地生孩子在道德上是强制性的吗?
-呃-
不是,有很多原因。
目前最大的一个问题是,我们关注的是薄弱的功利主义——如何对捐赠和职业选择等行为做出选择,而不是如何对所有事情做出选择。对于像要生几个孩子这样的问题,我认为多维道德的范围要大得多,而不仅仅是尊重他人的利益。
我也普遍认为,如果我们谈论生殖决定,我们很容易感到困惑,因为生殖自主权是如此重要的价值,而且在历史上有时会以丑陋的方式受到破坏。我在这里的观点不是关于生育决定,而是关于避免存在的灾难。长期主义者(关注长期未来的人,正如我在这里所倡导的)倾向于关注可能影响世界最终长期人口的事情,而且目前还不清楚是否有孩子会影响到这一点(因为世界上最终的长期人口背后的主要因素更多地与灭绝的可能性和文明范围内爆炸性变化的可能性有关,目前尚不清楚生孩子如何影响这些)。
因此,让我们继续专注于我提出的问题。那就是:如果你阻止了一场生存灾难,那么未来会有大量繁荣的人口,那么这些未来的每一个人是否都算作你所做的事情的“受益者”,这样他们的利益就会累积到一个非常大的数字?
-NUH-
好的。我说不,这样的“潜在的未来人”不算数。你的故事让我不为所动,说这有朝一日看起来很残忍或不体谅人。并不是我认为某些类型的人不如其他人有价值,而是我认为增加某人存在的几率根本不会使他们受益。
-呃-
让我们简要介绍一下您的职位面临的一些挑战。您可以从学术人口伦理文献中了解有关这些挑战的更多信息;我推荐Hilary Greaves 的短片。
挑战一:未来的人与“单纯的加法悖论”
-呃-
所以你说你不认为“潜在的未来人”是利益很重要的“受益人”。但是假设气候变化的最坏影响要再过 80 年左右才能感受到,在这种情况下,绝大多数受影响的人将是今天不在世的人。你打折那些人和他们的利益吗?
-NUH-
不,但那是不同的。气候变化不是关于他们是否存在,而是关于他们的生活是变得更好或更糟。
-呃-
嗯,这两者都有关。我们控制/预防/缓解气候变化的世界在未来包含与我们没有的世界完全不同的人。两个世界之间的任何差异都会引起混乱,影响诸如哪个精子使哪个卵子受精之类的事情,这将彻底改变存在的未来人类。
所以你真的不能指出某些受气候变化“影响”的固定人群。你减轻气候变化的愿望实际上是为了让人们在未来变得更好,而不是完全不同的更糟糕的人。很难保持这个立场,同时还说你只关心“实际”而不是“潜在”的人,或者“现在”而不是“未来”的人。
-NUH-
我仍然可以采取以下立场:
- 如果有一定数量的人,最好做一些事情(例如缓解气候变化),让人们变得更好而不是更糟糕的人。
- 但这并不意味着有更多的人比没有更多的人是件好事。假设他们过着相当不错的生活,增加更多的人只是中性的。
-呃-
这将是一个很难维持的局面。
考虑三个可能的世界:
- 世界A:未来50亿人过上好日子。假设他们的生活在某个相关比例上是 8/10(将生活质量降低到一个数字是一种简化;有关此5的更多信息,请参见脚注)。
- 世界 B:未来 50 亿人的生活略好于美好,比如说 8.1/10。还有另外 50 亿人的生活虽然不那么好,但仍然相当好,比如说 7/10。
- World C: 100 亿未来的人过上好日子,8/10。
要求:世界 B > 世界 A 和世界 C > 世界 B。因此,世界 C > 世界 A。
我的猜测是,您认为世界 B 似乎明显好于世界 A – 未来有 50 亿人“过得更好,而不是过得更糟”,而增加的 50 亿人似乎是中立的(不好,也不错)。
但我也猜想你认为世界 C 似乎明显好于世界 B。这种变化是富裕的一半人口的生活质量略有下降,而富裕的那一半人口则有了很大的改善。
但是如果世界C比世界B好,世界B比世界A好,那不就意味着世界C比世界A好吗?而世界C和世界A一样,只是人口多一些。
-NUH-
我承认我的直觉如你所说。将其与 A 进行比较时,我更喜欢 B,而将其与 B 进行比较时,我更喜欢 C。但是,当我查看 C 与 A 时,我不确定该怎么想。也许某处有错误——例如,也许我应该认为额外的人出现是不好的。
-呃-
这意味着人类灭绝会很棒,不是吗?灭绝将阻止大量的人永远存在。
-NUH-
那绝对不是我所在的地方。
好的,你成功地让我对我大脑中发生的事情感到困惑。在我尝试处理它之前,你让我更加困惑如何?
挑战 2:不对称
-呃-
肯定的事。再来谈谈未来人多还是少的尝试“中立”的另一个问题。
假设你可以采取一些行动来防止可怕的反乌托邦在银河系的遥远角落出现。在这个反乌托邦中,绝大多数人会希望他们不存在,但他们不会有这样的选择。你有机会确保,除了这个反乌托邦,那里什么都没有。这个机会看起来有价值吗?
-NUH-
确实,非常有价值。
-呃-
好的。这里更广泛的直觉是,阻止比不存在更糟糕的生命具有很高的道德价值——这看起来对吗?
-NUH-
是的。
-呃-
现在你处于一个状态,你认为阻止坏的生活是好的,但阻止好的生活是中性的。
但问题是,每次生命出现时,都会有一些风险会非常糟糕(以至于生活在其中的人希望他们不存在)。因此,如果你把坏的算作坏的,把好的算作中性的,你应该认为每个未来的生活都纯粹是一件坏事——有些可能是坏的,有些可能是中性的。所以你应该想尽量减少未来的生活。
或者在文明层面:假设如果人类继续存在,我们将有 99% 的机会拥有一个巨大的(至少 10^18 人)繁荣的文明,还有 1% 的机会我们将最终进入一个同样巨大、可怕的文明反乌托邦。即使是繁荣的文明也会有一些人希望他们不存在。面对这种可能性,你应该希望人类不要继续存在,这样就不会有这些“希望自己不存在的人”。你应该再次认为灭绝是一种伟大的道德善。
-NUH-
哎呀。就像我说的,我不这么认为。
-呃-
在这种情况下,我认为最自然的解决方法是得出结论,一个巨大的繁荣文明足以弥补——至少部分地——弥补巨大反乌托邦的风险。
也就是说:如果你认为繁荣文明的概率为 99%,反乌托邦的概率为 1%,这意味着繁荣的文明至少比反乌托邦糟糕的概率高 1%。
这意味着“10^18 繁荣的生命”至少比“10^18 可怕的痛苦生命”不好的 1%。正如我们所讨论的,10^18 的 1% 很多!
-NUH-
好吧,你肯定让我对我对这个话题的看法感到困惑。但这不等于让我相信有更多的人是件好事。我看到试图对人口规模保持中立会导致奇怪的影响。但你的立场也是如此。
例如,如果您认为增加更多生命具有道德价值,那么您最终会得出所谓的令人反感的结论。实际上,让我们跳过那个并谈谈非常令人反感的结论。我将给出我自己的一组假设世界:
- 世界 D有 10^18 繁荣、快乐的人。
- 世界 E有 10^18 人遭受可怕的痛苦,还有更多(N)人的生活平庸/美好/“值得过”但并不好。
必须有一些“更大的数字 N”,这样你就更喜欢世界 E 而不是世界 D。这也是一个看起来很古怪的位置!
理论 X
-呃-
确实如此。没有办法处理像这样的问题(又名人口伦理),对于每一个可以想象的案例都感觉完全令人满意。
-NUH-
你知道的。但是可能有一些方法可以解开我们对这个话题的困惑,让反厌恶结论的直觉完好无损,也让我的直觉完好无损。我并不觉得有必要为了避免另一种观点而接受一种看似错误的观点。
-呃-
“以某种方式解开我们的困惑”是 Derek Parfit 所说的X 理论。人口伦理学家已经寻找了一段时间。他们不仅没有找到它,而且还提出了严重暗示它不存在的不可能定理。
也就是说,我们想要坚持的各种直觉(例如“非常令人反感的结论是错误的”和“灭绝不会是好的”等等)集体相互矛盾。
所以看起来我们可能不得不选择一些奇怪的东西来相信整个“有更多的人是好事吗?”题。如果我们必须选择一些东西,我将继续选择所谓的总体观点:我们应该最大化所有人的福祉总和的观点。您可以将其视为我们的“潜在受益人”包括所有可能存在的人,而存在6是一种能够压倒重大危害的好处。 (整体视图比这更复杂,但这不是本文的重点。)
我认为选择这种通用方法有很多充分的理由:
- 这很简单。如果你试图提出一些观点,认为人类灭绝既不是最好的也不是最坏的事情,你的观点可能会包含各种复杂且看似毫无动机的活动部分,比如讨论好的和坏的生活之间的不对称更多。但总体观点背后的想法很简单,它只是将每个人(包括潜在的人)视为值得考虑的人。简单性非常适合我将伦理系统化的目标,这样我的系统就更加健壮并且依赖更少的直觉。
- 在考虑了“采取哪种奇怪观点”的各种选项后,我认为“非常令人反感的结论实际上很好”与其他选项相比做得很好。我们对它的直觉厌恶完全有可能来自于无法将我们的大脑包裹在(a)“几乎不值得活”的生命的数量必须有多大的某个方面,以便得出非常令人反感的结论工作; (b) 只是混淆了“让更多人存在”的想法。 7
- 无论如何,它真的那么不直观吗?想象一下,在 1000 年前,您了解到有人为防止您祖先的死亡付出了代价高昂的努力,而现在您今天来到了这里。你不高兴你的存在吗?你不认为你的存在是那个人所成就的好事的一部分吗? (我的同事乔·卡尔史密斯在这篇博文中有更多这种想法。)你是否认为 10^18 人可能会或可能不会存在真的只是“这是否发生在道德上并不重要?”
-NUH-
也许这里令人困惑的部分是:
- 我对额外的幸福生活并不无动于衷——毕竟它们总比没有好。
- 但是,如果我改善世界的唯一或主要方式是让额外的幸福生活存在,那是不对的。
- 所以也许额外的生命在某种程度上很重要,然后就不那么重要了。或者,“多一条生命是件好事”是真的,但并不是“多一条生命比帮助已经存在的人更重要”。
-呃-
这种方法会与之前讨论的“以他人为中心的伦理”的一些关键原则相矛盾。
我之前曾说过,一旦你认为某样东西具有一定的价值是一种好处,那么足够多的东西就会淹没所有其他的道德考虑。在我们之前使用的示例中,“帮助某人在海滩度过美好的一天”足以胜过“帮助某人避免悲剧性死亡”。
-NUH-
唔。
如果这是一个哲学研讨会,我认为你在这里做了一个非常好的案例。
但此时我的感觉并不是“啊,是的,我看到所有这些潜在的生命是多么伟大的道德善!”作为“我觉得我被欺骗/说服了别无选择。”
我不需要“选择一个理论”。我可以拉回大局并说:“当我开始捐款以使世界变得更美好时,我并不想做让更多未来人存在成为可能的事情。解决当今的不公正和不公平问题并不能超过这个目标。”
我不需要完全一致的人口伦理方法,我不需要在捐钱时遵循“规则”。我可以做一些无可争议的有价值的事情,例如防止过早死亡和改善教育;我可以使用数学来最大化我所做的事情的数量。我不需要在这个奇怪的地方降落的主框架。 8
-呃-
同样,我认为很多详细的反复讨论掩盖了一个事实,即这里有一些简单的原则在起作用:
- 我希望我的捐赠能够最大程度地造福他人。如果他们公平/公正地考虑它,我想以其他人希望我的方式花钱,就像在“无知之幕”结构中一样。如果这就是我想要的,那么可以使大量人受益的捐赠通常看起来最好。 (之前讨论过)
- 有一个问题是谁算作我可以受益的“其他人”。可能会或可能不会最终存在的潜在人吗?我需要对此有一个立场。一旦我让某人进入道德圈,如果他们有很多,他们将成为我关心的人。
- 总而言之,似乎“可能会或可能不会最终存在的潜在人”可能属于道德圈。也就是说,一个更开明、更道德的社会很有可能会毫无争议地认识到这一点。
我可能最终会弄错并做零好事。你也可以。我正在尽我最大的努力避免我那个时代的道德偏见,并将我的奉献集中在帮助他人上,公平和广泛地定义。
有关人口伦理的进一步阅读,请参阅:
- 人口价值论——大约 20 页的人口伦理困境摘要
- 斯坦福哲学百科全书关于令人反感的结论——更短,讨论了许多相同的问题
- 论塑造遥远未来的压倒性重要性的第 2 章
结束的想法
我对UH 和 NUH 的平仓感到非常同情。
事实上,我认为像 UH 的观点确实为我提供了高度“以他人为中心”和“面向未来”的道德规范。但是当我思考这些论点时,我同时变得更加被 UH 的一些不同寻常的观点所驱使,并且不太相信追求“以他人为中心”或“面向未来”的道德规范是如此重要。在未来的某个时候,我会争辩说这些理想无论如何都可能无法实现,这削弱了我对它们的承诺。
最终,如果我们将其置于“决定如何花费 10 亿美元”的框架中,本文和之前文章中的论点将促使我将其中的大部分用于降低存在风险——但可能不是大多数(如果他们是以降低存在风险为目标的唯一论据,我认为不是)。我觉得 UH 令人信服,但并不完全令人信服。
然而,关注人工智能风险降低等原因有不同的推理方式,这不需要对人口伦理有不同寻常的看法。这就是我在最重要的世纪系列中提出的情况,我发现它更引人注目。
脚注
-
我在这篇文章中坚持“灭绝”,而不是讨论“存在灾难”的微妙不同的想法。我对灭绝说的话主要适用于生存灾难,但我认为这会为这个特定目的增加不必要的混乱。 ↩
-
这大约是“我们的数据世界”估计值的 1.5 倍,并不是每个人都会在每种情况下都称其为“接近”,但我认为就本文的目的而言,这两个数字具有相同的含义,并且“一个 quintillion “比 625 万亿更简单,更容易谈论。 ↩
-
“1% 的 1% 的 1%”是 1%*1%*1%*1%。 1%*1%*1%*1%*10^16(假设的未来生命数量,包括人类在足够长的时间内避免灭绝的可能性只有 1%)= 10^8,即 1 亿。 ↩
-
对于这个例子,数字试图传达的是,考虑到所有因素,如果人们选择他们想要在什么样的条件下生活,其中一些生活的排名会比其他生活更高。他们应该隐含地纳入对不平等等事物的反应——例如,比世界 A 和 C 更不平等的世界 B 可能必须有更好的条件来“补偿”,这样 50 亿人的“8.1/与世界 A 相比,10 英寸的生命仍然更喜欢他们在世界 B 中的条件。↩
-
(假设在存在条件下存在优于不存在) ↩
-
这一普遍立场在哲学上确实有一些捍卫者——见https://plato.stanford.edu/entries/moral-particularism/ ↩