
放大(图片来源: Getty Images )
谷歌 DeepMind 研究人员最近开发了一种技术,通过使用其他 AI 模型来改进提示(告诉 AI 模型做什么的书面指令),从而提高ChatGPT等AI 语言模型的数学能力。研究发现,使用人性化的鼓励可以显着提高数学技能,这与之前的结果一致。
在本月 arXiv 上发布的一篇名为“ Large Language Models as Optimizers ”的论文中,DeepMind 科学家介绍了 Optimization by PROmpting (OPRO),这是一种提高 OpenAI 的 ChatGPT 和 Google 的 PaLM 2 等大型语言模型 (LLM) 性能的方法。新方法通过使用自然语言指导法学硕士解决问题,规避了传统基于数学的优化器的局限性。 “自然语言”是表达人类日常言语的一种奇特方式。
研究人员写道:“我们不是正式定义优化问题并使用编程求解器导出更新步骤,而是用自然语言描述优化问题,然后指示法学硕士根据问题描述和先前的解决方案迭代生成新的解决方案。找到了解决方案。”