一位匿名读者援引Ars Technica的报道:周一,中国人工智能实验室DeepSeek在MIT开放许可下发布了新的R1模型系列,其最大版本包含6710亿个参数。该公司声称该模型在多个数学和编码基准上的性能水平可与 OpenAI 的 o1 模拟推理 (SR) 模型相媲美。除了主要的 DeepSeek-R1-Zero 和 DeepSeek-R1 模型的发布之外,DeepSeek 还发布了六个较小的“DeepSeek-R1-Distill”版本,参数范围从 15 亿到 700 亿不等。这些精炼模型基于 Qwen 和 Llama 等现有开源架构,并使用完整 R1 模型生成的数据进行训练。最小的版本可以在笔记本电脑上运行,而完整的模型需要更多的计算资源。这些版本立即引起了 AI 社区的关注,因为大多数现有的开放权重模型(通常可以在本地硬件上运行和微调)在所谓的推理基准测试中落后于 OpenAI 的 o1 等专有模型。在麻省理工学院许可的模型中提供这些功能,任何人都可以研究、修改或在商业上使用,这可能标志着公开可用的人工智能模型的可能性发生了转变。 “它们奔跑起来非常有趣,看着它们思考很搞笑,”独立人工智能研究员西蒙·威利森在短信中告诉 Ars。 Willison 测试了一个较小的模型,并在他的博客上的一篇文章中描述了他的经验:“每个响应都以……伪 XML 标签开头,其中包含用于帮助生成响应的思想链”,并指出即使是简单的提示,模型在输出之前产生广泛的内部推理。尽管基准测试尚未得到独立验证,但 DeepSeek 报告称,R1 在 AIME(数学推理测试)、MATH-500(应用题集合)和 SWE-bench Verified(编程评估工具)上的表现优于 OpenAI 的 o1。 TechCrunch 指出,三个中国实验室——DeepSeek、阿里巴巴和 Moonshot AI 的 Kimi,已经发布了与 o1 功能相匹配的模型。
在 Slashdot 上阅读这个故事的更多内容。