NVIDIA A40 TENSOR CORE GPU
NVIDIA A40 可加速数据中心要求严苛的视觉计算工作负载,将最新的NVIDIA Ampere 架构 RT Core、Tensor Core 和 CUDA® 核心与 48 GB图形显存相结合。从可以随时随地访问的强大虚拟工作站到专用的渲染节点,NVIDIA A40 将新一代 NVIDIA RTX™ 技术引入数据中心,处理更先进的专业可视化工作负载。
通用计算、异构计算、协同计算、边缘计算等多元产品布局
NVIDIA A800 Tensor Core GPU 可加速弹性数据中心,为 AI 和 数据分析应用提供动力支持。A800 可高效扩展,也可借助多实例 GPU (MIG) 技术划分为 7 个独立的 GPU 实例,从而提供统一的 平台,助力弹性数据中心根据不断变化的工作负载需求动态地 进行调整。
NVIDIA A800 Tensor Core 技术支持广泛的数学精度,可针对 每个工作负载提供单个加速器。新一代 A800 80GB 显存带宽高达 2TB/s,缩短了针对 AI 模型和大型数据集的解决方案实施时间。
A800 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由 硬件、网络、软件、库以及 NVIDIA NGC™ 目录中经优化的 AI 模型和应用等叠加而成。作为端到端 AI 平台,A800 可助力研究 人员获得真实的结果,并将解决方案部署到生产环境中。
名称 | A800 80GB PCIe | A800 80GB SXM |
---|---|---|
FP64 | 9.7 TFLOPS | |
FP64 TensorCore | 19.5 TFLOPS | |
FP32 | 19.5 TFLOPS | |
Tensor Float32 (TF32) | 156 TFLOPS | 312 TFLOPS* | |
BFLOAT16 Tensor Core | 312 TFLOPS | 624 TFLOPS* | |
FP16 TensorCore | 312 TFLOPS | 624 TFLOPS* | |
INT8 TensorCore | 624 TOPS| 1248 TOPS* | |
GPU 显存 | 80GB HBM2e | 80GB HBM2e |
GPU 显存带宽 | 1935GB/s | 2039GB/s |
最大热设计功耗( TDP) | 300W | 400W |
多实例 GPU | 最多 7 个 MIG 每个 10GB | 最多 7 个 MIG 每个 10GB |
外形尺寸 | PCIe(双插槽风冷式或单插槽液冷式) | SXM |
互联技术 | 搭载 2 个 GPU 的NVIDIA® NVLink® 桥接器:400GB/s ** PCIe 4.0:64GB/s | NVLink :600GB/s PCIe 4.0 :64GB/s |
服务器选项 | 搭载 1 至 8 个 GPU 的合作伙伴认证系统和 NVIDIA认证系统(NVIDIACertifiedSystems™) | 搭载 4 个或 8 个 GPU的 NVIDIA HGX™A800 合作伙伴认证系统和 NVIDIA 认证系统 |