去年中途,NVIDIA宣布优雅,它的第一个数据中心 CPU。当时,该公司只分享了有关该芯片的一些信息,例如,它会利用其NVLink 技术在组件之间提供高达 900 GB/s 的数据传输速度。快进到周二上午开始的 2022 GPU 技术大会。在此次活动中,首席执行官 Jensen Huang 推出了 Grace CPU Superchip,这是 NVIDIA 计划作为 Grace 系列的一部分发布的第一款独立 CPU。
建立在 ARM 最近推出的v9 架构,Grace CPU Superchip 实际上是两个 Grace CPU 通过公司前面提到的 NVLink 互连技术连接起来的。它将惊人的 144 个 ARM 内核集成到一个插槽中,功耗约为 500 瓦。芯片内置的超快 LPDDR5x 内存可实现高达每秒 1 TB 的带宽速度。
虽然它们是非常不同的芯片,但将 NVIDIA 的新芯片概念化的一个有用方法是想想苹果最近宣布的M1超.简单来说,M1 Ultra 由两个 M1 Max 芯片组成,这些芯片通过 Apple 恰当命名的 UltraFusion 技术连接起来。
当 NVIDIA 于 2023 年上半年开始向能源部等客户提供 Grace CPU 超级芯片时,它将为他们提供将其配置为独立 CPU 系统或作为服务器的一部分的选项,该系统最多具有 8 个基于 Hopper 的GPU(稍后会详细介绍)。该公司声称其新芯片的速度是传统服务器的两倍。 NVIDIA 估计它将在 SPECrate®2017_int_base 基准测试中获得大约 740 分的分数,将其置于上层数据中心处理器中。
除了 Grace CPU Superchip,NVIDIA 还宣布了其备受期待的料斗GPU架构.以开创性的计算机科学家命名格蕾丝·霍珀, 是公司目前的接班人安培架构(你知道,它为公司所有无法找到的 RTX 30 系列 GPU 提供动力)。现在,在您兴奋之前,请知道 NVIDIA 没有在 GTC 上宣布任何主流 GPU。相反,我们必须看到H100 显卡.这是一个使用台积电尖端 4nm 工艺制造的 800 亿晶体管庞然大物。 H100 的核心是 NVIDIA 的新型 Transformer Engine,该公司声称它可以在需要计算 Transformer 模型时提供无与伦比的性能。在过去的几年中,变压器模型在使用 GPT-3 和AlphaFold等系统的 AI 科学家中广受欢迎。 NVIDIA 声称 H100 可以将训练大型模型所需的时间缩短到几天甚至几个小时。 H100 将于今年晚些时候上市。
来源: https://www.engadget.com/nvidia-h100-gpu-annoucement-172055954.html?src=rss