NVIDIA 於周一宣布推出 HGX H200 Tensor Core GPU,采用 Hopper 架构,旨在加速 AI 应用。H200 是继去年推出的 H100 後的新作,後者曾是 NVIDIA 最强大的 AI 晶片。若 H200 得到广泛应用,可能会在不久的将来使 AI 模型变得更加强大,并加快现有模型如 ChatGPT 的反应速度。

专家指出,过去一年,计算能力不足一直是 AI 发展的主要瓶颈,阻碍了现有 AI 模型的部署并放缓了新模型的开发。导致这一问题的主要原因是强大的 GPU(加速 AI 模型的晶片)短缺。解决计算瓶颈的方法之一是制造更多晶片,另一种则是提升 AI 晶片的性能。後者可能使 H200 成为云端服务提供商的理想选择。

NVIDIA 的超级计算与高性能计算副总裁 Ian Buck 在新闻稿中表示:「为了用生成性 AI 和 HPC 应用创建智能,必须使用大型、快速的 GPU 记忆体,高效处理大量数据。」他还提到,凭藉 NVIDIA H200,这一行业领先的端到端 AI 超级计算平台的速度更快,可以解决一些世界上最重要的挑战。

例如,OpenAI 曾多次表示其 GPU 资源不足,这导致 ChatGPT 的延迟。该公司不得不依赖速率限制来提供任何服务。从理论上讲,使用 H200 可能会为运行 ChatGPT 的现有 AI 语言模型提供更多空间,以服务更多客户。

据 NVIDIA 称,H200 是首款提供 HBM3e 记忆体的 GPU。凭藉 HBM3e,H200 提供了 141GB 的记忆体和每秒 4.8TB 的带宽,NVIDIA 认为这是 2020 年发布的 NVIDIA A100 的记忆体带宽的 2.4 倍。尽管 A100 已经上市多年,但由於更强大晶片的短缺,它仍然需求旺盛。

NVIDIA 将以多种形式推出 H200,包括四路和八路配置的 NVIDIA HGX H200 伺服器板,兼容 HGX H100 系统的硬体和软体。它还将作为 NVIDIA GH200 Grace Hopper 超级晶片的一部分推出,该超级晶片将 CPU 和 GPU 结合在一起,为 AI 提供更大的性能提升。

Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 将是首批部署基於 H200 的实例的云服务提供商,预计将於明年开始。NVIDIA 表示,H200 将於 2024 年第二季度开始「在全球系统制造商和云服务提供商」处可用。

相关文章

  1. Nvidia 黄仁勳:如果要拍自传想找成龙演他
  2. 微软秘密研发 AI 晶片 打破对 Nvidia 的依赖?
  3. 玩完游戏後 Windows 变慢?Nvidia 更新驱动程式修正问题
  4. Nvidia 发布全新 AI 技术:帮助减少盗窃
x站怎么挂梯子

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x