NVIDIA A40 TENSOR CORE GPU
NVIDIA A40 可加速数据中心要求严苛的视觉计算工作负载,将最新的NVIDIA Ampere 架构 RT Core、Tensor Core 和 CUDA® 核心与 48 GB图形显存相结合。从可以随时随地访问的强大虚拟工作站到专用的渲染节点,NVIDIA A40 将新一代 NVIDIA RTX™ 技术引入数据中心,处理更先进的专业可视化工作负载。
通用计算、异构计算、协同计算、边缘计算等多元产品布局
NVIDIA A30 Tensor Core GPU 是用途广泛的主流计算 GPU, 适用于 AI 推理和主流企业工作负载。这款 GPU 采用 NVIDIA Ampere 架构的 Tensor Core 技术,支持广泛的数学精度, 可针对每个工作负载提供单个加速器。
专为大规模 AI 推理而构建的同一计算资源能够通过 TF32 精度快速重新训练 AI 模型,同时还能借助 FP64 Tensor Core 加速高性能计算 (HPC) 应用。多实例 GPU (MIG) 及 FP64 Tensor Core,可在 165W 低功率电路下相结合,实现速度 高达 933GB/s 的显存带宽,以上特性均在这一适用于主流 服务器的 PCIe 卡上体现。
通过结合使用第三代 Tensor Core 与 MIG 技术,其可在各种工作负载中提供安全的服务质量,所有这些技术都由多功能 GPU 提供支持,从而实现弹性数据中心。A30 在各个规模的 工作负载中都具有多用途计算能力,能够尽可能地为主流 企业创造价值。
A30 是整个 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC™ 中经优化的 AI 模型和 应用等构成。作为性能超强的端到端数据中心专用 AI 和 HPC 平台,A30 可助力研究人员交付真实结果,并将解决方案 大规模部署到生产环境中。
A30 TENSOR CORE GPU 规格 | ||
---|---|---|
FP64 | 5.2 teraFLOPS | |
FP64 Tensor Core | 10.3 teraFLOPS | |
FP32 | 10.3 teraFLOPS | |
TF32 Tensor Core | 82 teraFLOPS | 165 teraFLOPS* | |
BFLOAT16 Tensor Core | 165 teraFLOPS | 330 teraFLOPS* | |
FP16 Tensor Core | 165 teraFLOPS | 330 teraFLOPS* | |
INT8 Tensor Core | 330 TOPS | 661 TOPS* | |
INT4 Tensor Core | 661 TOPS | 1321 TOPS* | |
媒体引擎 | 1 个光流加速器 (OFA) 1 个 JPEG 解码器 (NVJPEG) 4 个视频解码器 (NVDEC) | |
GPU 显存 | 24GB HBM2 | |
GPU 显存带宽 | 933GB/s | |
互联 | PCIe Gen4: 64GB/s 第三代 NVLINK:200 GB/s** | |
外形规格 | 双插槽、全高、全长 (FHFL) | |
最大热设计功耗 (TDP) | 165W | |
多实例 GPU (MIG) | 4 个 GPU 实例,每个 6 GB 2 个 GPU 实例,每个 12GB each 1 个 GPU 实例,24 GB | |
虚拟 GPU (vGPU) 软件支持 | 适用于 的 NVIDIA AI Enterprise NVIDIA 虚拟计算服务器 |