产品中心

通用计算、异构计算、协同计算、边缘计算等多元产品布局

NVIDIA A100 TENSOR CORE GPU

NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC) 应用,在各个规模下实现出色加速,有效助力全球高性能 弹性数据中心。作为 NVIDIA 数据中心平台的引擎,相较于前一代 NVIDIA Volta™,A100 可提供高达 20 倍的性能。A100 支持高效 扩展,也可划分为七个独立的 GPU 实例,多实例 GPU (MIG) 可 提供统一平台,助力弹性数据中心动态地适应不断变化的工作 负载需求。


NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对每个 工作负载提供单个加速器。最新一代 A100 80GB 将 GPU 显存加倍, 提供 2TB/s 的全球超快显存带宽,可加速处理超大型模型和海量 数据集。


A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由 硬件、网络、软件、库以及 NGC™ 中经优化的 AI 模型和应用等 叠加而成。作为性能超强的端到端数据中心专用 AI 和 HPC 平台, 它可助力研究人员交付真实的结果,并将解决方案大规模部署到 生产环境中。

功能特性
应用环境
NVIDIA A100 Tensor Core GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、HPC 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A100 适用于桌面、服务器以及云服务,不仅能显著提升性能,还能创造众多节约成本的机会。
技术规格

名称

A100 40GB PCIe

A100 80GB PCIe

A100 40GB SXM

A100 80GB SXM

FP64

9.7 TFLOPS

FP64 TensorCore

19.5 TFLOPS

FP32

19.5 TFLOPS

Tensor Float32 (TF32)

156 TFLOPS | 312 TFLOPS*

BFLOAT16Tensor Core

312 TFLOPS | 624 TFLOPS*

FP16 TensorCore

312 TFLOPS | 624 TFLOPS*

INT8 TensorCore

624 TOPS| 1248 TOPS*

GPU 显存

40GB HBM2

80GB HBM2e

40GB HBM2

80GB HBM2e

GPU 显存带宽

1555GB/s

1935GB/s

1555GB/s

12039GB/s

最大热设计功耗( TDP)

250W

300W

400W

400W

多实例 GPU

最多 7 MIG @ 5GB

最多 7 MIG @ 10GB

最多 7 MIG @ 5GB

最多 7 MIG @ 10GB

外形尺寸

PCIe

SXM

互联

搭载 2 个 GPU 的 NVIDIA® NVLink® 桥接器:600GB/s** PCIe 4.0 :64GB/s

NVLink :600GB/s PCIe 4.0 :64GB/s

服务器选项

合作伙伴及配备 1 至 8 个 GPU 的 NVIDIA 认证系统™

NVIDIA HGX™ A100 合作伙伴和配备 4、8 或 16 个 GPU 的 NVIDIA 认证系统配备 8 个 GPU 的 NVIDIA DGX™ A100



服务及支持

宝德计算机系统股份有限公司提供全国联保,由分布在全国各地宝德专业售后服务网点提供“一站式”服务响应与支持。

- 3年有限现场保修以及现场支持服务

- 4008-870-872热线响应和支持

欲了解更多信息:请访问:http://www.powerleader.com.cn

通信地址:深圳市龙华新区清祥路1号宝能科技园7栋B座16楼


宝德计算机系统股份有限公司保留对产品规格或其他产品信息(包含但不限于产品重量,外观,尺寸或其他物理因素)不经通知予以更改的权利;本文中所提到的信息,如因产品升级或其他原因而导致的变更,恕不另行通知。本文中所涉及的产品图片均以产品实物为准。

相关下载
  • NVIDIA A100 TENSOR CORE GPU

    2022-05-12