全球首款基于 NVIDIA A100 构建的 AI 系统
NVIDIA DGX™ A100 是适用于所有 AI 工作负载的通用系统,为全球首款 5 petaFLOPS AI 系统提供超高的计算密度、性能和灵活性。NVIDIA DGX A100 采用全球超强大的加速器 NVIDIA A100 Tensor Core GPU,可让企业将深度学习训练、推理和分析整合至一个易于部署的统一 AI 基础架构中,该基础架构具备直接联系 NVIDIA AI 专家的功能。
AI 数据中心的基本组成部分
各种 AI 工作负载的通用系统
NVIDIA DGX A100 是适用于所有 AI 基础架构(包括分析、训练、推理基础架构)的通用系统。该系统设定了新的计算密度标杆,将 5 petaFLOPS 的 AI 性能装进 6U 尺寸,用一个平台代替所有 AI 工作负载的传统基础架构孤岛。
DGXperts:集中获取 AI 专业知识
NVIDIA DGXperts 是一个拥有 14000 多位 AI 专业人士的全球团队,这些团队成员在过去十年间积累了丰富的经验,能够帮助您更大限度地提升 DGX 投资价值。
更快的加速体验
NVIDIA DGX A100 是在全球率先采用 NVIDIA A100 Tensor Core GPU 的系统。通过集成八块 A100 GPU,此系统可出色完成加速任务,并可针对 NVIDIA CUDA-X™ 软件和整套端到端 NVIDIA 数据中心解决方案进行全面优化。
卓越的数据中心可扩展性
NVIDIA DGX A100 内置 Mellanox ConnectX-6 VPI HDR InfiniBand 和以太网适配器,其双向带宽峰值为 450Gb/s。此优势是使 DGX A100 成为 NVIDIA DGX SuperPOD™ 等大型 AI 集群基础构件的诸多因素之一,也是成为可扩展 AI 基础架构企业蓝图的原因之一。
一个更简单快捷的解决人工智能的方法
NVIDIA AI 初学者工具包为您的团队提供所需的一切,从世界级的 AI 平台,到优化的软件和工具,再到咨询服务,让您的人工智能计划快速启动并运行。无需浪费时间和金钱建立人工智能平台。在一天内接通电源,在一周内确定用例,并更快地开始生产模型。
NVIDIA A100 Tensor Core GPU
NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC) 实现出色的加速,应对极其严峻的计算挑战。借助第三代 NVIDIA Tensor Core 提供的巨大性能提升,A100 GPU 可高效扩展至数千块,或在使用多实例 GPU 时,可将其分配为七个较小的专用实例对各种规模工作负载进行加速。
NVIDIA A100 规格
GPUs | 8块 NVIDIA® A100 Tensor Core GPUs |
GPU 显存 | 共 320GB |
性能 | 5 petaFLOPS AI 10 petaOPS INT8 |
NVSwitches | 6 |
最大功率 | 6.5kW max |
CPU | Dual AMD Rome 7742, 128 cores total, 2.25 GHz (base), 3.4 GHz (max boost) |
系统内存 | 1TB |
网络 | 8x Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand 1x Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200Gb/s Ethernet |
存储空间 | OS: 2x 1.92TB M.2 NVME drives Internal Storage: 15TB (4x 3.84TB) U.2 NVME drives |
软件 | Ubuntu Linux OS |
系统重量 | 123 千克 |
系统尺寸 | 高:264.0 毫米 宽:482.3 毫米 长:897.1 毫米 |
运行温度范围 | 5°C 至 30°C |
权利声明:
本网站所提到的产品信息、规格参数、应用程序、产品图片及产品特性及价格等仅供参考。
产品图片及颜色可能因拍照光线误差及屏幕设定,可能与实物产品效果有所差异,请以实物为准。
本网站所谈论到的产品名称仅做识别之用,而这些名称可能是属于其他公司的注册商标或是版权。