著名未来学家埃利泽·尤德科斯基 (Eliezer Yudkowsky)担心不友好的人工智能即将带来世界末日。我觉得这种担心有些异想天开。许多处于埃利泽立场的人只会对我的头脑不屑一顾,但他也对我完美的公开投注记录印象深刻。为了弥合差距并增进我们的知识,我们同意以下打赌,由埃利泽以第一人称撰写。因为我刚刚通过 Paypal 给他钱,所以赌注现在正式开始了。 空头投注: – Bryan Caplan 现在向 Eliezer 支付 100 美元,如果世界在 2030 年 1 月 1 日格林威治标准时间上午 12:00 之前没有被不结盟的人工智能终结的话,Eliezer 将获得 200 美元的 CPI 调整后的报酬。 细节: – 100 美元应在 2017 年 2 月 1 日之前支付给 Eliezer Yudkowsky,用于投注 – 如果消费者物价指数被废除或修改,或者在特朗普政府的领导下变得完全虚假,我们将使用双方同意的通胀指数或将其扔给双方同意的第三方;一般的想法是,您应该获得两倍于您现在下注的回报,而不会导致该金额过小或过大。 ——如果地球表面还有生物人类在奔跑,那还不算结束。 – 由于不受人类控制的通用人工智能,人类的大量宇宙资源被转移到几乎没有人道主义价值的事件,并且地球表面不再有生物人类运行,这种情况应被视为世界正在被不结盟的通用人工智能终结。 – 如果对于世界是否已被不结盟的通用人工智能终结存在任何歧义,则与人类大部分潜在天文资源禀赋的处置有关的考虑应主导双方都同意的第三方判断,因为宇宙禀赋是我真正关心的,而它的转移是我试图利用你的赌赢技能来避免的。无论如何,如果地球表面仍然有未上传的人类在奔跑,那么就可以说你毫无疑问地赢了赌注(我想这就是你所预测和关心的)。 – 如果世界在特定人类控制下的 AGI 下被某个特别想以特定方式结束世界并成功实现的人所终结,那么你就赢了。如果有人认为这是一个好主意,只是构建了一个 AGI 并将其释放出来(这不会被视为“一致”,并且不会让我感到惊讶),那么你就不会获胜。 – 如果看起来我们确实仍在地球表面上奔跑,并且没有任何类似 AGI 的事情发生,那么出于投注结算的目的,世界将被视为未结束,无论模拟论证或 AGI 在这方面欺骗我们的可能性如何。 – 如果您发生任何不幸,该赌注将支付给最可信的声称是您的继承人和受让人的人。任何主要声称是我自己的继承人的人,如果他们从我那里继承了超过 200 美元的价值,则应从我那里继承这一责任。 – 你的赌注公告应提到埃利泽强烈希望世界不被毁灭,并试图利用布莱恩惊人的赌赢能力来达到这一目的。除此之外,这些细节不需要在任何特定方面公开叙述,而只是构成我们之间半正式谅解的一部分(当然可以在我们任何一方愿意的时候重新叙述)。 注意:该赌注的结构使得埃利泽仍然可以获得边际收益(现在为 100 美元),即使他对世界末日的看法是正确的。同样,如果他错了,我会得到更大的边际收益(经通胀调整后,2030 年为 200 美元)。在我看来,这主要是押注年化实际利率保持在 5.5% 以下。毕竟,按照 5.5% 的利率,我今天可以在不下注的情况下将 100 美元兑换成 200 美元(经过通胀调整)。我认为实际利率不太可能达到那么高,尽管我仍然认为这比埃利泽的世界末日场景更有可能。 我很乐意以同样的赔率与埃利泽打赌,世界末日将会发生。毕竟,如果世界末日,无论是什么原因,我都将无法领取我的奖金。但赌注就是赌注! 该帖子首先出现在Econlib上。
© 2025布莱恩·卡普兰 |
我与埃利泽·尤德科斯基的世界末日打赌
著名未来学家埃利泽·尤德科斯基 (Eliezer Yudkowsky) 担心不友好的人工智能将导致世界末日即将来临。我觉得这种担心有些异想天开。许多处于以利以谢立场的人都会对我的头脑不屑一顾,但他也确实对我印象深刻
͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏