NAIDIA H800 数字处理单元模块
美国出台了对华半导体出口限制新规,其中就包括了对于高性能计算芯片对中国大陆的出口限制。并且以NVIDIA的A100芯片的性能指标作为限制标准。即同时满足以下两个条件的即为受管制的高性能计算芯片:
(1)芯片的I/O带宽传输速率大于或等于600 Gbyte/s;
(2)“数字处理单元原始计算单元”每次操作的比特长度乘以TOPS计算出的的算力之和大于或等于4800TOPS。这也使得NVIDIA A100/H100系列、AMD MI200/300系列AI芯片无法对华出口。
随后NVIDIA为了在遵守美国限制规则的前提下,同时满足中国客户的需求,在11月8日宣布将推出符合美国新规的A100的替代产品A800,并且将会在今年三季度投产。从官方公布的参数来看,A800主要是将NVLink的传输速率由A100的600GB/s降至了400GB/s,其他参数与A100基本一致。
适用于各种工作负载的强大计算平台
NVIDIA A100 Tensor Core GPU可在各个规模下为AI.数据分析
和高性能计算(HPC)应用提供出色的加速性能,为全球的
高性能弹性数据中心提供强劲助力。作为NVIDIA数据中心平台
的引擎,与前一-代NVIDIA Volta”相比,A100可使性能提升高达
20倍。A100可高效扩展,也可借助多实例GPU(MIG)技术划分
为7个独立的GPU实例,从而提供统一的平台,助力弹性数据中
心根据不断变化的工作负载需求动态进行调整。
NVIDIA A100 Tensor Core技术支持广泛的数学精度,可针对每个
工作负载提供单个加速器。最新–代A100 80GB将GPU显存
加倍,提供2TB/s的全球超快显存带宽,可加速处理超大型模型
和海量数据集。
A100是完整NVIDIA数据中心解决方案的一一部分,该解决方案由
硬件、网络、软件、库以及NGC”目录中经优化的Al模型和
应用等叠加而成。作为适用于数据中心且功能强大的端到端AI和
HPC平台,A100可助力研究人员获得真实的结果,并能将解决
方案大规模部署到生产环境中。
今年3月,英伟达发布了新一代基于4nm工艺,拥有800亿个晶体管、18432个核心的H100 GPU。同样,NVIDIA也推出了针对中国市场的特供版H800。NVIDIA在给路透社的一份声明中表示:“我们的800系列产品符合出口管制法规。”路透社报道称,H800的芯片间数据传输速度是H100的一半。据称800系列产品已被阿里巴巴、百度和腾讯的云部门采用。
由于自去年底以来,随着以ChatGPT为代表的生成式AI的持续火爆,使得生成式AI市场对于基于高性能GPU的AI芯片需求暴涨。其中,性能强大的NVIDIA AI芯片更是备受市场追捧,在市场上居于垄断地位,相比之下AMD的AI芯片市场份额较小。