伊森·莫里克教授发表了一篇关于“像人工智能一样思考”的有用文章。 3个值得注意的地方:
(1) 大型语言模型进行“下一个标记”预测。他们预测我们提示后的下一个单词(等等)。这并不意味着它们是愚蠢的自动完成系统。但它确实有助于培养对提示为何重要的直觉。提示中的单词模式
例如,如果我写“The best type of pet is a”,法学硕士根据其人类语言模型预测接下来最有可能出现的标记是“狗”、“个人”、“主观”或“猫。”
如果我将句子中的“类型”一词更改为“种类”,则所有顶级标记的概率都会下降,并且我更有可能得到“平静”或“兔子”等异国情调的答案。如果我在“pet”这个词后面添加一个额外的空格,那么“dog”甚至不在前三个预测标记中!
(2) 法学硕士根据他们的训练数据做出预测。因此,训练数据越好,预测就越好。
与一些人的看法相反,人工智能很少从其训练数据中逐字生成大量文本。人工智能提供的句子通常是完全新颖的,是根据它学到的语言模式推断出来的。有时,模型可能会重现它从训练数据中记住的特定事实或短语,但更常见的是,它会根据学习的模式进行概括以产生新内容。
(3) 法学硕士的记忆力有限。
莫利克教授以一个有用的警告结束了他的文章。
了解令牌预测、训练数据和内存限制可以让我们一睹幕后的风采,但它并不能完全解释舞台上发生的魔法。也就是说,这些知识可以帮助您将人工智能推向更有趣的方向。想要更多原创输出吗?尝试转向训练数据中不太常见的领域的提示。陷入对话模式?记住上下文窗口并重新开始。
但理解人工智能的真正方法是使用它。很多。在大约 10 个小时的时间里,用人工智能做一些你为了工作或娱乐而做的事情。戳它,戳它,问它奇怪的问题。看看它在哪里闪光,在哪里失败。您的实践经验将比任何文章(即使是这么长的文章)教会您更多。您将了解大量有关如何有效使用人工智能的知识,您甚至可能会对自己的发现感到惊讶。
虽然确实如此,但我认为他的帖子是一个很好的起点。
原文: https://alearningaday.blog/2024/11/26/thinking-like-an-ai/