微软昨天公布了财报,数据为人工智能的未来描绘了一幅辉煌的图景。
对于运营率高达 1000 亿美元的业务来说,连续几个季度超过 30% 的年增长率是惊人的。微软预计下季度也有类似的情况。 AI 子集的运行速度为 13b 美元,是去年的两倍多。
Azure 其他云服务收入增长了 31%。 Azure 增长包括来自 AI 服务的 13 个百分点,同比增长 157%,即使需求持续高于我们的可用容量,也超出了预期……在 Azure 中,我们预计第三季度收入增长将在 31% 至 31% 之间。由于对我们服务组合的强劲需求,按固定汇率计算,增长了 32%。
数据中心容量仍然是限制因素,但这种限制应该会在年底前消失。
在过去 3 年里,我们的数据中心整体容量增加了一倍以上,去年增加的容量比我们历史上任何其他年份都要多……虽然我们预计人工智能容量在第三季度会受到限制,但到财年末25 日,考虑到我们大量的资本投资,我们的产量应该大致符合近期需求。
RPO(或剩余绩效义务)是客户预购的尚未使用的 Azure 计算。 300b 美元的 RPO 基本上是已承诺的 Azure 未来 2 年收入。
正如我们上周分享的那样,我们很高兴 OpenAI 做出了新的大规模 Azure 承诺……我们已经(而且我想我们已经讨论过)实现了接近 3000 亿美元的 RPO。
软件中的 AI 性能提升比硬件中的 AI 性能提升有效 5 倍。 Deepseek 上周的公告强调了这一点。
据推断,由于软件优化,我们通常会看到每一代硬件的性价比提升超过 2 倍,每一代模型的性价比提升超过 10 倍。随着人工智能变得更加高效和易于使用,我们将看到需求呈指数级增长。
较小的型号将在消费类硬件上运行。 NPU(神经处理单元)是运行人工智能的新型消费芯片。苹果、高通、英特尔、三星等公司都提供这些服务。随着模型变得更加强大,它们将在更便宜的设备上运行。有趣的是,这里特别提到了 DeepSeek:
我们还看到越来越多的开发人员(从 Adobe、CapCut 到 WhatsApp)构建利用内置 NPU 的应用程序。他们很快将能够在 Copilot+ PC 以及 Windows 上可用的庞大 GPU 生态系统上本地运行 DeepSeek 的 R1 精简模型。除了 Copilot+ PC 之外,用于本地开发的最强大的 AI 工作站是运行由 NVIDIA RTX GPU 提供支持的 WSL2 的 Windows PC。
AI Foundry 启动后的 2 个月内,已有 20 万名工程师正在构建 AI。 Github 上有 1.5 亿工程师,因此整体 AI 渗透率仍然很小。
Azure AI Foundry 具有一流的工具运行时间来构建代理、多代理应用程序、AIOps、对数千个模型的 API 访问。两个月后,我们的月活跃用户已经超过 20 万。 总而言之,GitHub 现在拥有 1.5 亿开发者,比过去 2 年增长了 50%。
原文: https://www.tomtunguz.com/microsoft-earnings-2025-01-30/