多亏了威廉·麦克阿斯基尔 (William MacAskill) 关于该主题的出色新书(我们欠未来什么),现在很多人都在谈论长期主义。对于那些不熟悉这个概念的人来说,“长期主义”是一种伦理观点,即“积极影响长期未来应该是我们这个时代的关键道德优先事项”。
以下是我最喜欢的一些支持长期主义的论点,然后是我最喜欢的一些反对它的论点。请注意,我在这里大量借用了 Will 的书。
我最喜欢的五个长期主义论点:
1. 我们重视未来的人。如果有人制造了一个隐藏的核武器,将在 150 年后爆炸,我们可以同意这是非常不道德的,即使我们确信今天没有一个受到伤害的人存在。我们可以同意,如此忽视这个世界是错误的,以至于它对我们的孙子孙女来说是一个地狱般的洞。
2. 未来可能会有大量的人。我们可以同意,伤害更多的人比伤害更少的人更糟糕,帮助更多的人比帮助更少的人更好。因此,如果我们的选择影响到所有未来的人,那么这些行为就会在道德上产生很大的影响。
3. 我们可能生活在影响未来的关键时刻。由于可能导致人类生存灾难的技术(例如,核弹、人类工程病毒、先进的人工智能),我们今天的选择可能对我们物种的未来产生巨大影响。
4. 它被忽视了——在改善遥远的未来方面所做的工作相对较少。新闻周期、政治条款、盈利要求和许多其他因素促使我们考虑近期。似乎只有不到 1% 的当前资源用于改善长期未来。
5.未来的人没有发言权。当我们采取影响环境或我们的灭绝机会或技术发展的行动时,我们这样做时没有来自未来可能受到影响的人的意见。从历史上看,没有发言权的群体通常在道德上被低估。
我最喜欢的六个反对优先考虑长期主义的论点:
1.未来可能不大。长期主义的大部分吸引力来自于假设未来的人可能比今天活着的人多得多。但如果每年的灭绝概率有一个你无法改变的下限,那么未来的预期长度可能不会很长。
2. 人类需要紧密的反馈回路。我的观点是,如果没有针对明确目标的此类反馈,人类行为通常会演变成奇怪的事情(例如,不切实际或状态信号)。很难判断我们是否对长期产生积极影响。
3. 打折未来可能有正当理由。根据经验,很少有人像今天还活着的人那样关心遥远的未来人(越远,他们关心的越少)。如果没有客观道德真理(一个有争议的问题)这样的东西,他们就没有犯错。
4. 与其他类似目标的论点相比,长期主义没有那么引人注目。大多数人真的关心人类不会灭绝,世界对我们的孙子来说是个好地方。考虑到公元 20000 年的人类因素,这些重要的话题变得不那么令人信服了。
5. 你在遥远的未来发生积极变化的可能性可能很小。长期主义说,如果你有百万分之一的机会受到不可忽视的远期影响,那将是非常有价值的。我认为将重点放在更高的概率上可能更明智,例如,在 30 年内防止灾难。
6. 更多的人存在是否更好,值得商榷。哲学家们不同意人口多得多的世界是否比人口少的世界更好(参见“人口伦理”的讨论)。我认为大多数外行人也更喜欢一个拥有数十亿非常幸福的人的世界,而不是一个拥有数千亿非常幸福的人的世界(即使后者的总幸福感要高得多)。虽然我们不一定被迫在这些选项之间做出选择(也许我们可以拥有一个拥有大量非常快乐的人的世界),但我们应该瞄准一个广阔的未来而不是一个拥有非常高水平的美好事物的未来并不明显(例如,只有数百亿人,但每个人都拥有非常高的幸福感、自由度、自我实现等)。
本文首发于 2022 年 8 月 30 日,并于 2022 年 9 月 1 日首次出现在本站。
原文: https://www.spencergreenberg.com/2022/08/arguments-for-and-against-longtermism/