今天早上,VentureBeat 发表了一篇由 Sharon Goldman 撰写的报道: 随着一波新的 LLM 浪潮,开源 AI 迎来了一个时刻——以及一场激烈的辩论。它涵盖了围绕 LLaMA 等公开可用的大型语言模型的活动激增——我在个人设备上的 LLM系列中一直在追踪这一趋势——并讨论了它们对 AI 安全的影响。
上周我和莎伦谈过这个故事。这是结果摘录:
最新一波的开源 LLM 规模小得多,不像 ChatGPT 那样先进,但“他们完成了工作,”开源开发人员和 Django 的共同创建者 Simon Willison 说,免费和开源, 基于 Python 的 Web 框架。
“在 LLaMA 出现之前,我想很多人认为,为了运行一个有任何用处的语言模型,你需要价值 16,000 美元的视频卡和一堆 100 个 GPU,”他告诉 VentureBeat。 “因此,访问这些模型的唯一途径是通过 OpenAI 或其他组织。”
但现在,他解释说,开源法学硕士可以在笔记本电脑上运行。 “事实证明,也许我们在很多事情上都不需要尖端技术,”他说。
扩展这一点:当我说“事实证明,也许我们在很多事情上不需要尖端技术”时,我特别考虑了像ReAct 模式这样的技巧,LLM 可以使用其他工具运行诸如计算之类的事情,或者在线或在私人数据中搜索信息。
这种模式现在得到了很多关注:ChatGPT 插件是一种实现,并且每隔几天就会出现新的软件包,例如实现此主题变体的Auto-GPT 。
一个悬而未决的问题:您的 LLM 需要多强大才能运行此模式?我的直觉是,如果你的 LLM 足够强大,可以生成合理的文本摘要,那么它也应该足够强大,可以用作该模式的一部分。
这意味着在笔记本电脑上运行的 LLM 应该足以创建真正令人印象深刻的支持工具的 AI 助手——无需依赖 OpenAI 等云 AI 提供商。
然而,Willison 说,使用这些开源 LLM 模型的伦理含义是复杂且难以驾驭的。他解释说,例如,OpenAI 有额外的过滤器和规则来防止编写希特勒宣言之类的东西。 “但是一旦你可以在自己的笔记本电脑上运行它并进行自己的额外训练,你就有可能训练法西斯语言模型——事实上,4chan 等平台上已经有旨在训练‘反唤醒’语言模型的项目, “ 他说。
这令人担忧,因为它为大规模创建有害内容打开了大门。威利森以浪漫骗局为例:现在,有了语言模型,骗子可能会利用它们来说服人们坠入爱河并大规模窃取他们的钱,”他说。
目前,Willison 表示他倾向于开源 AI。 “作为一个独立的程序员,我每天都使用这些工具,我的工作效率提高了,让我能够解决更有挑战性的问题,”他说。 “我不希望这项技术被少数几家大公司所控制;考虑到它的影响,我觉得它本质上是错误的。”
我在这里写了更多:人工智能增强的开发让我对我的项目更有雄心
这是我不断回顾的主题的另一个例子:在 AI 中,多个事物同时为真。潜在的伤害是巨大的,而且当前的系统有很多缺陷——但如果你能学会如何有效地使用它们,它们也会在个人层面上提供令人难以置信的力量。
但是,他还是表示了担忧。 “如果我错了怎么办?”他说。 “如果滥用的风险超过开放的好处怎么办?很难平衡利弊。”
这对我来说是一个真正的挑战。除了科幻回形针场景,我从 AI 评论家那里听到的大部分论点对我来说都是完全正确的。这项技术有很多风险和有害应用。
也许我们可以以一种有助于减轻最坏风险的方式来规范它的使用……但立法很难正确,人工智能的发展速度似乎远远超过任何政府立法程序的速度。
我目前的计划是继续帮助人们学习如何以尽可能积极和高效的方式使用这些工具。我希望我不会后悔。
原文: http://simonwillison.net/2023/Apr/10/ai-safety/#atom-everything