一位匿名读者引用了 VentureBeat 的一篇报道:中国人工智能初创公司 DeepSeek 悄然发布了一种新的大型语言模型,该模型已经在人工智能行业引起了轩然大波——不仅是因为它的功能,还因为它的部署方式。今天,名为 DeepSeek-V3-0324 的 641 GB 型号出现在 AI 存储库 Hugging Face 上,几乎没有任何公告(只是一个空的 README 文件),延续了该公司低调但有影响力的发布模式。这次发布特别引人注目的是该模型的 MIT 许可证——使其可以免费用于商业用途——以及早期报道称它可以直接在消费级硬件上运行,特别是带有 M3 Ultra 芯片的苹果 Mac Studio。 “新的 4 位 DeepSeek-V3-0324 在带有 mlx-lm 的 512GB M3 Ultra 上以 > 20 个令牌/秒的速度运行!”人工智能研究员 Awni Hannun 在社交媒体上写道。虽然 9,499 美元的 Mac Studio 可能扩展了“消费者硬件”的定义,但在本地运行如此庞大的模型的能力与通常与最先进的人工智能相关的数据中心要求有很大的不同。 […] 开发工具创建者 Simon Willison 在一篇博客文章中指出,4 位量化版本将存储占用空间减少至 352GB,使其可以在配备 M3 Ultra 芯片的 Mac Studio 等高端消费硬件上运行。这代表着人工智能部署的潜在重大转变。虽然传统的 AI 基础设施通常依赖于多个消耗几千瓦功率的 Nvidia GPU,但 Mac Studio 在推理过程中消耗的功率不到 200 瓦。这种效率差距表明人工智能行业可能需要重新考虑有关顶级模型性能的基础设施要求的假设。 VentureBeat 报道称:“先进的开源推理模型的意义怎么强调都不为过。” “当前的推理模型,如 OpenAI 的 o1 和 DeepSeek 的 R1,代表了人工智能能力的最前沿,展示了从数学到编码等领域前所未有的解决问题的能力。免费提供这项技术将使目前仅限于拥有大量预算的人使用人工智能系统变得民主化。” “如果 DeepSeek-R2 遵循 R1 设定的轨迹,它可能会对 GPT-5 构成直接挑战,GPT-5 据称将在未来几个月发布 OpenAI 的下一个旗舰模型。OpenAI 的封闭、资金充足的方法与 DeepSeek 的开放、资源高效的策略之间的对比代表了人工智能未来的两种相互竞争的愿景。”
在 Slashdot 上阅读这个故事的更多内容。