我一直在写我们今天可以做的有形的事情,以帮助最重要的世纪顺利进行。以前,我写过一些有用的消息来传播;如何通过全职工作提供帮助;以及主要人工智能公司如何提供帮助。
主要政府1 – 他们今天可以做什么来提供帮助呢?
我认为政府可以在未来发挥关键作用。例如,请参阅我对标准和监控的讨论。
然而,老实说,我对政府今天参与人工智能开发和监管的大多数可能方式感到紧张。
- 我认为我们对未来的关键情况会是什么样子知之甚少,这就是为什么我对 AI 公司的讨论( 上一篇)强调做一些缺点有限并且在各种可能的未来中有用的事情。
- 我认为政府比公司“更具粘性”——我认为他们更难摆脱不再有意义的流程、规则等。因此,在很多方面,我宁愿看到他们现在不承诺具体的法规、流程、项目等,从而为未来保留他们的选择。
- 我担心政府,至少就目前而言,过于倾向于竞争框架(“我们必须在其他国家之前开发强大的人工智能系统”)并且对谨慎框架的接受程度不够(“我们应该担心人工智能系统可能会同时对每个人造成危险,并考虑通过国际合作来降低风险”)。 (这种担忧也适用于公司,但请参见脚注。2 )
(点击展开)“竞争”框架与“谨慎”框架
在上一篇文章中,我谈到了如何充分利用最重要的世纪的两个对比框架:
警告框架。这个框架强调,一场激烈的开发强大人工智能的竞赛最终可能会让每个人的境况变得更糟。这可能是通过:(a)人工智能形成自己的危险目标并完全击败人类; (b) 人类竞相获得权力和资源并“锁定”他们的价值观。
理想情况下,每个有潜力构建足够强大的 AI 的人都能够将精力投入到构建安全(而不是错位)的东西上,并仔细计划(并与他人协商)如何推出它,而不会匆忙或竞争.考虑到这一点,也许我们应该做这样的事情:
- 致力于增进世界主要大国之间的互信与合作。也许是通过以人工智能为中心的Pugwash版本(旨在降低军事冲突风险的国际会议),也许是通过反击鹰派的对外关系举措。
- 阻止政府和投资者将资金投入人工智能研究,鼓励人工智能实验室在发布或扩大研究之前彻底考虑其研究的影响,努力制定标准和监测等。以这种方式放慢速度可以争取更多时间去做研究避免错位的人工智能,更多时间建立信任和合作机制,更多时间总体上获得战略清晰度
“竞争”框架。这个框架不太关注如何过渡到一个截然不同的未来,而是更多地关注谁在做出关键决定。
- 如果像PASTA这样的东西主要(或首先)在 X 国开发,那么 X 国政府可能会就是否以及如何监管新技术的潜在爆炸做出很多关键决定。
- 此外,当时在人工智能和其他技术进步方面处于领先地位的个人和组织可能对此类决策具有特别的影响力。
这意味着“谁引领变革性 AI 的道路”可能非常重要——哪个国家或哪些国家,哪些人或组织。
有些人认为,我们今天可以自信地声明哪些特定国家和/或哪些人和组织,我们应该希望引领变革性 AI 的道路。这些人可能会倡导以下行动:
- 增加第一个 PASTA 系统建立在不那么专制的国家的可能性,这可能意味着例如在这些国家推动对人工智能发展的更多投资和关注。
- 支持并尝试加速由可能做出明智决定的人运行的人工智能实验室(例如如何与政府接触、发布和部署哪些人工智能系统与保密等)
两个框架之间的张力。采用“谨慎”框架的人和采用“竞争”框架的人往往倾向于截然不同,甚至是相互矛盾的行为。在一个框架中对人们来说看起来很重要的动作通常在另一个框架中看起来对人们有害。
例如,处于“竞争”框架中的人往往倾向于尽快开发更强大的人工智能系统;对于处于“谨慎”框架中的人来说,仓促行事是要避免的主要事情之一。处于“竞争”框架的人往往倾向于敌对的对外关系,而处于“谨慎”框架的人往往希望对外关系更加合作。
也就是说,这种二分法是一种简化。许多人——包括我自己——对这两个框架都有共鸣。但我普遍担心,由于多种原因,默认情况下“竞争”框架会被高估,正如我在这里讨论的那样。
由于这些担忧,我目前还没有对政府提出大量具体建议。但这里有一些。
我的第一个建议是避免过早的行动,包括加强对如何使人工智能系统更有能力的研究。
我的下一个建议是培养合适的人员和专业知识来挑战未来的决策。
- 今天,我的印象是,政府中很少有人认真考虑风险最高的风险,并仔细平衡“谨慎”和“竞争”的考虑(见上文)。我认为如果这种情况发生变化就好了。
- 政府可以投资于对他们的人员进行有关这些问题的教育,并可以尝试聘用已经对这些问题有知识和深思熟虑的关键人员(同时也要注意传播有关人工智能的信息的一些陷阱)。
另一个建议是通常避免让可怕的人掌权。选民可以帮助解决这个问题!
我对特定政府的首要非“元”建议是投资于其他国家人工智能能力状况的情报。如果其他国家即将部署危险的人工智能系统,这可能是必不可少的;如果他们不是,那也可能是必不可少的了解,以避免过早和偏执地竞相部署强大的人工智能。
其他一些似乎值得做且缺点相对较小的事情:
- 通过国家科学基金会和 DARPA 等机构资助对齐研究(最好是针对最关键挑战的对齐研究)。这些机构拥有巨额预算(这两个机构每年的总支出超过 100 亿美元),并对研究界产生重大影响。
- 保持选项开放以供将来监控和调节(有关示例,请参阅此慢速无聊文章)。
- 与领先的 AI 研究人员和组织建立关系,以便相对顺利地处理未来的危机。
- 鼓励和扩大对信息安全的投资。我的印象是,在高度先进的信息安全方面,政府通常比公司做得更好(即使是坚定的、资源丰富的对手也能防止网络盗窃)。他们可以帮助甚至加强关键人工智能公司的强大安全性。
脚注
原文: https://www.cold-takes.com/how-governments-can-help-with-the-most-important-century/