生成式人工智能,尤其是 ChatGPT,风靡全球。一些知识分子提议我们在全球范围内禁止高级人工智能研究,必要时使用军事行动。 许多领先的研究人员和权威人士提议六个月的“暂停”,在此期间我们无法训练更高级的智能。
六个月的暂停实际上是无法执行的。我们确实封锁了几乎整个世界以压制 covid。除了派对门丑闻所显示的那样,高级政客乐于回避规则。你真的认为国家安全局和其他主要政府会服从你的暂停吗?
Covid 还表明,开始时的短暂暂停可以一次又一次地更新,直到它变得不可持续。过去五十年来,哲学家和计算机科学家一直在研究人工智能的安全性,您认为我们是否会在未来六个月内取得概念上的突破?六个月不会削减它。
彻底禁止先进的人工智能研究是完全不可行的:这几乎肯定需要发动战争。你可能会反对我们成功地阻止了核武器的扩散……除了这是一个糟糕的类比:什么是整个世界范围内的禁令。我们从未试图禁止核武器,我们只是将它们限制在强大的国家。如果你只想让先进的人工智能不落入朝鲜等一些国家的手中,可以通过切断它们与互联网的联系并阻止它们进口计算机设备来安排。但是阻止美国人进行人工智能研究?当我们试图禁止对病毒进行功能获得研究时,它转移到了中国。
话虽这么说,你可以阻止技术进步。这甚至相当容易。几十年前,我们基本上就停止了改进核反应堆,而是增加了层层监管。
因此,虽然不太可能在全球范围内禁止或暂停,但有可能严重损害世界部分地区的人工智能研究。我们可以要求操作功能强大的计算机的人申请执照。我们可以停止资助人工智能研究。在中国行得通吗?值得怀疑,但如果我们只在北美和欧洲停止人工智能,就会损害进步。
让我们大方一点:也许我们可以阻止人工智能。我们可能会将它冻结在轨道上。我们应该吗?
我们有一个单边赌注谬误的案例。单边赌注谬误如下:一张彩票实际上不花钱,也许一美元。但是,您可以赢得大奖(数百万美元)。因此你应该买一张彩票。这是一个谬论,因为机票的成本不可忽略,您只是在脑海中将其设为零。
怎么会是单边赌注谬误的一个例子呢?我们假设暂停是免费的,但风险是巨大的。因此暂停似乎是一个很好的交易。
人类文明不是静止的,从来都不是。这是马尔萨斯在预测人类必然会经常挨饿时所犯的错误。他的逻辑是数学的:如果有更多的食物,人们就会以指数方式繁殖,直到他们耗尽食物供应。
据我们所知,我们近期或中期的救赎可能需要更先进的人工智能。在我们了解更多之前,我们无法判断暂停是否比继续进步更危险。
在世界大部分地区,我们用于耕种的土地较少,但我们生产的食物足以满足不断增长的人口需求。除了非洲、南美和南亚以外,几乎所有地方的森林面积都越来越大。在最近的过去,世界范围内的贫困率一直在下降,除了 covid 时代。
但是我们不应该听听专家的意见吗?首先,让我们记住,专家是有经验的人。没有人对当前的生成人工智能的突破有经验。没有人知道它将如何影响我们的社会。在我们获得一些专家之前,我们需要经验。其次,我们应该听取所有知识渊博的人的意见,而不仅仅是那些讲恐怖故事的人。 Yann LeCun 和人工智能领域的任何人一样都是专家,他完全反对暂停。
我是说我们什么都不应该做吗?不要相信政治家的三段论:
- 我们必须做点什么。
- 这是东西。
- 因此,我们必须这样做。
面对未知时,你必须做的是遵循 OODA 循环:观察-定位-决定-行动。注意行动是如何持续的?注意观察后如何做出决定?
据我估计,我们正在处理一项颠覆性技术。从历史上看,颠覆性技术几乎摧毁了整个行业或整个职业。生成式人工智能将颠覆教育:它已经在这样做了。
但新技术也带来了巨大的好处。我预计我们将在一些行业中看到巨大的生产力提升,在这些行业中,一个小团队能够完成以前需要一个大团队完成的工作。
转变从来都不是立竿见影的。它通常需要比您预期的更长的时间。但它会在那里,很快。
原文: https://lemire.me/blog/2023/04/03/what-are-we-going-to-do-about-chatgpt/