黄仁勋烤箱里端出全球最大7nm芯片英伟达第八代安培GPU A100发布AI算力提升20倍天玑9200
在新冠肺炎大流行的影响下,全球许多公司不得不调整他们的产品发布计划。英伟达(NVIDIA)原本计划在2020年3月的GTC 2020上发布安培(Ampere)架构,但多次延期最终还是在疫情期间进行了发布。CEO黄仁勋选择了家中厨房作为录制主题演讲和新品发布视频的地方,这些视频完成了整个2020 GTC大会。
这次GTC 2020最引人注目的亮相无疑是安培架构GPU A100。这是一款目前全球最大的7nm芯片,其面积高达826平方毫米,集成了540亿个晶体管,与Volta架构相比性能提升高达20倍,并且能够同时满足AI训练和推理的需求。由8个安培A100 GPU组成的NVIDIA DGX A100 AI系统单节点性能达到创纪录5 petaflops。
第八代安培GPU架构实现了前所未有的性能飞跃,黄仁勋表示:“Ampere架构提供了迄今为止最大的一代GPU性能飞跃,不仅能处理AI训练,还能做到纵向扩展和横向扩展负载加速,同时提高吞吐量并降低数据中心成本。”该系列采用台积电7nm工艺,使用最新3D封装技术,集成540亿个晶体管,是全球最大的7nm芯片之一。
除了这些特性之外,该产品还具备TF32第三代Tensor Core核心、多实例GPU-MG、第三代NVLink互联技术以及结构化稀疏等关键功能。TF32可以使AI性能提高20倍,而TensorCore核心现在支持FP64精度,对HPC应用来说提供2.5倍计算力提升。此外,基于Volta架构对比Anberachitecture,从2017年的Tesla V100到今天推出的基于Anberachitecture的DGXA100,我们可以看到显著提升。
通过灵活性来看,比如弹性计算技术适应不同的工作负载,以及将一个A100 GPU分割为多达七个独立实例执行推理任务,都增强了这个设备的竞争力。而且Anberachitecture既能用于训练也能用于推理,使其成为各种复杂工作负载,如BERT模型训练与推理等领域不可或缺的人才工具。
DGX A100系统以19.9万美元起售,为云服务提供商带来了成本效益,也让数据中心更加高效。在同样的能力下,它们减少了功耗至原来的1/20、空间占用至原来的1/25,并且成本只有原来的1/10。这对于需要大量计算资源但又希望节约能源和空间的地方而言,无疑是一个巨大的进步。