宁德生活圈

网站首页 互联网 > 正文

NVIDIA 推出 Hopper H100全球最大的人工智能和计算加速器

2022-03-23 16:10:15 互联网 来源:
导读 早在 1990 年代,NVIDIA 就开始销售用于台式电脑的图形适配器。在 NV1 开局不顺之后,NVIDIA 很快凭借 TwiN-Texel (TNT) 芯片的发

早在 1990 年代,NVIDIA 就开始销售用于台式电脑的图形适配器。在 NV1 开局不顺之后,NVIDIA 很快凭借 TwiN-Texel (TNT) 芯片的发布确立了自己作为性能领导者的地位,并且凭借最初的 GeForce 256 也成为了技术领导者。

现在这都是古老的历史,但事实并没有改变:NVIDIA 是世界上最大的独立图形处理器生产商。人们通常简单地说“GPU”,但随着时间的推移,这已经成为一个有点讽刺的名字。当然,Green 团队仍然销售大量图形芯片,但其收入的最大部分来自将这些“GPU”重新用作大规模并行计算加速器。事实上,有人可以合理地辩称,这些芯片是为计算市场设计的,并被“重新定位”用于图形业务。

当然,这两种说法都不完全准确,但无论哪种方式,计算工作负载和图形工作负载确实需要处理器提供不同的东西。出于这个原因,NVIDIA 似乎正在从其坚定的“一次一个架构”的立场转向并行运行至少两种不同的设计。这在过去发生过;看看开普勒和麦克斯韦,或者帕斯卡和伏打。不过,这一次似乎更正式。英伟达的新芯片似乎更直接地替代了数据中心的安培。

料斗 sxm 英伟达事实上,作为今天在 GTC 上发布的全面攻击的一部分,NVIDIA 展示了其下一代“大型”GPU H100。那些关注 GPU 传闻的人会正确地推测 H100 是基于 Hopper 架构的,如果你对 AI 感兴趣,你最好坐起来,因为这是非常非常重要的事情。

NVIDIA 的新 H100 采用台积电的 4N 工艺制造,单片设计包含约 800 亿个晶体管。把这个数字放在规模上,GA100“只是”540亿,而RTX 3090中的GA102 GPU只有区区283亿。尽管是一个如此庞大的处理器,尽管是在微处理器工艺技术的绝对前沿制造的,但该芯片的 SXM(夹层)版本的 TDP 为 700 瓦。对,700。

这些令人眼花缭乱的数字带来了同样令人震惊的性能比较。该公司声称,H100 芯片在双精度计算、单精度张量计算和半精度计算方面比其上一代 A100 处理器相形见绌,同时在 8 位浮点数学运算方面速度快六倍.

迁移到 HBM3 内存将每个引脚的传输速率从 2.43Gbps 提高到 4.8Gbps,但内存配置保持不变:五个活动的 HBM3 堆栈(一个虚拟)使每个 GPU 的总容量为 80GB,总带宽为 3TB /秒。GPU 的 NVLink 连接也升级到第 4 代,从而在 GPU 与其主机系统之间实现 900GB/秒的带宽。对于不使用 NVLink 的产品,H100 也实现了 PCIe 5.0。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: