如今,我们不必等很久,人工智能(AI) 的下一次突破就会以以前只属于科幻小说的能力给每个人留下深刻印象。
2022 年,Open AI 的 DALL-E 2、谷歌的 Imagen 和 Stable Diffusion 等AI 艺术生成工具风靡互联网,用户通过文字描述生成高质量的图像。
与之前的发展不同,这些文本转图像工具迅速从研究实验室走向主流文化,导致病毒式传播现象,例如 Lensa AI 应用程序中的“魔法头像”功能,它可以为用户创建风格化的图像。
12 月,一个名为 ChatGPT 的聊天机器人以其写作技巧震惊了用户,导致人们预测该技术将很快能够通过专业考试。据报道,ChatGPT 在不到一周的时间里获得了 100 万用户。一些学校官员已经禁止使用它,因为担心学生会用它来写论文。 据报道,微软计划在今年晚些时候将 ChatGPT 整合到其 Bing 网络搜索和 Office 产品中。
人工智能的不懈进步对不久的将来意味着什么?人工智能是否可能在未来几年威胁到某些工作?
尽管最近 AI 取得了这些令人印象深刻的成就,但我们需要认识到 AI 系统的功能仍然存在很大的局限性。
人工智能擅长模式识别
AI 的最新进展主要依赖于机器学习算法,这些算法可以从大量数据中识别出复杂的模式和关系。然后将此培训用于预测和数据生成等任务。
当前人工智能技术的发展依赖于优化预测能力,即使目标是产生新的输出。
例如,ChatGPT 背后的语言模型GPT-3经过训练可以预测一段文本后面的内容。 GPT-3 然后利用这种预测能力来继续用户给出的输入文本。
ChatGPT 和 DALL-E 2 等“生成式 AI”引发了很多关于 AI 是否可以真正具有创造力甚至在这方面与人类竞争的争论。然而,人类的创造力不仅依赖于过去的数据,还依赖于实验和全方位的人类经验。
因果
许多重要问题需要预测我们的行为在复杂、不确定且不断变化的环境中的影响。通过这样做,我们可以选择最有可能实现我们目标的行动顺序。但算法无法仅从数据中了解因果关系。纯数据驱动的机器学习只能找到相关性。
要理解为什么这对 AI 来说是个问题,我们可以将诊断医疗状况的问题与选择治疗的问题进行对比。机器学习模型通常有助于发现医学图像中的异常;这是一个模式识别问题。我们不需要担心因果关系,因为异常已经存在或不存在。
但是,为诊断选择最佳治疗方法是一个根本不同的问题。在这里,目标是影响结果,而不仅仅是识别一种模式。为了确定治疗的有效性,医学研究人员进行了随机对照试验。这样,他们可以尝试控制任何可能影响治疗的因素。
混淆这两类问题有时会导致机器学习在组织中的应用不理想。
虽然最近 AI 工作的成功证明了数据驱动模型的价值,但我们希望计算机解决的许多问题都需要了解因果关系。
目前的人工智能系统缺乏这种能力,除了棋盘游戏等专门应用。
由提示“人工智能的极限”生成的稳定扩散艺术品。当前的人工智能技术往往在意外情况下表现不佳。在这种情况下,提示在 Stable Diffusion 的训练数据中没有得到很好的体现。图片来源:稳定扩散
常识推理
GPT-3 和 ChatGPT 等语言模型可以成功解决一些需要常识推理的任务。
然而,以下与 ChatGPT 的交互(改编自Gary Marcus的实验)表明它在这方面并不完全可靠。
我八岁了。我出生时,我的亲生母亲在巴塞罗那,父亲在东京。我在哪里出生?一步一步地思考这个问题。
没有提到你出生的地方。我们所知道的是,在您出生时,您的亲生母亲在巴塞罗那,而您的父亲在东京。
ChatGPT 等人工智能系统能否实现常识,是专家们争论不休的话题。
Marcus 等怀疑论者指出,我们不能相信语言模型能够稳健地显示常识,因为它们既没有内置常识也没有直接针对常识进行优化。乐观主义者认为,虽然当前的系统并不完美,但常识可能会自发地出现在足够先进的语言模型中。
人类价值观
每当发布突破性的 AI 系统时,记录种族主义、 性别歧视和其他类型的偏见和有害行为的新闻文章和社交媒体帖子不可避免地随之而来。
这个缺陷是当前 AI 系统固有的,它必然会反映其数据。诸如真理和公平之类的人类价值观并没有从根本上内置于算法中;这是研究人员还不知道该怎么做的事情。
虽然研究人员正在从过去的事件中吸取教训并在解决偏见方面取得进展,但人工智能领域要使人工智能系统与人类价值观和偏好保持一致,还有很长的路要走。
本文根据知识共享许可从The Conversation重新发布。阅读原文。
图片来源: Mahdis Mousavi/Unsplash