周三,Nvidia 首席执行官 Jon Fortt 在接受 CNBC 的 Jon Fortt 采访时表示,由于新的推理方法逐步思考“如何最好地回答”问题,下一代人工智能将需要比旧模型多 100 倍的计算量。摘自一份报告:“推理过程所需的计算量是我们以前的 100 倍,”周三,黄仁勋在芯片制造商发布第四季度收益报告后接受 CNBC 记者乔恩·福特 (Jon Fortt) 采访时说道。他引用的模型包括 DeepSeek 的 R1、OpenAI 的 GPT-4 和 xAI 的 Grok 3 作为使用推理过程的模型。黄在周三的采访中反驳了这个想法,称 DeepSeek 普及了推理模型,需要更多芯片。 “DeepSeek 太棒了,”黄说。 “这太棒了,因为它开源了一个绝对世界一流的推理模型。”黄说,由于出口限制,该公司在中国的收入百分比下降了约一半,并补充说该国还存在其他竞争压力,包括来自华为的竞争压力。黄说,开发人员可能会寻找通过软件绕过出口管制的方法,无论是超级计算机、个人电脑、手机还是游戏机。 “最终,软件会找到办法,”他说。 “你最终可以让该软件在你所针对的任何系统上运行,并且你可以创建出色的软件。”黄说,英伟达在美国销售的 GB200 生成人工智能内容的速度比该公司在出口管制下向中国销售的芯片版本快 60 倍。
在 Slashdot 上阅读这个故事的更多内容。