NVIDIA DGX Station A100 有着强劲性能和高度集成性。为支持诸如 BERT Large 推理等复杂的对话式 AI 模型,DGX Station A100 比上一代 DGX Station 提速 4 倍以上。对于 BERT Large AI 训练,其性能提高近 3 倍。
特色与介绍
可以推着走的千万亿级工作组服务器
作为服务器级的系统,DGX Station A100 无需配备数据中心级电源或散热系统,却具有与 NVIDIA DGX A100 数据中心系统相同的远程管理功能。当数据科学家和研究人员在家中或实验室办公时,系统管理员可轻松地通过远程连接,执行任何管理任务。
无处不在的数据中心性能
面向数据科学团队的 AI 超级计算
借助 DGX Station A100,企业可以使用与其他基于 NVIDIA DGX™ 基础架构无缝集成的系统为多个用户提供适用于所有工作负载的集中式 AI 资源 - 训练、推理和数据分析。借助多实例 GPU (MIG),可为单个用户分配多达 28 台独立 GPU 设备。
无需数据中心亦能拥有其强大性能
DGX Station A100 是服务器级 AI 系统,但无需数据中心的电力和冷却系统。DGX Station A100 包含四个 NVIDIA A100 Tensor Core GPU、一个出色的服务器级 CPU、超快速的 NVMe 存储和领先的 PCIe 4.0 总线,同时配备远程管理功能,因此您可以像管理服务器一样对其进行管理。
可随处放置的 AI 设备
DGX Station A100 专为当今在公司办公室、实验室、研究机构甚至在家中工作的敏捷数据科学团队设计,不需要复杂的安装或大量 IT 投资。只需将其插入任何标准墙式插座,即可在数分钟内启动并运行,且可以在任何地方工作。
模型更大、响应更迅速
NVIDIA DGX Station A100 是全球唯一的工作站式系统,具有四个完全互连且支持 MIG 的 NVIDIA A100 GPU,利用 NVIDIA NVLink 面向多个用户运行并行作业,且不会影响系统性能。使用经 GPU 全面优化的软件堆栈和高达 320 GB 的 GPU 内存来训练大型模型。
NVIDIA DGX Station A100 规格
| NVIDIA DGX Station A100 320GB | NVIDIA DGX Station A100 160GB |
GPUs | 4 块 NVIDIA A100 80GB GPU | 4 块 NVIDIA A100 40 GB GPU |
GPU 内存 | 共 320GB | 共 160GB |
性能 | 2.5 petaFLOPS AI 5 petaOPS INT8 |
系统功率 | 1.5 kW (100–120 Vac) |
CPU | 单路 AMD 7742、64 核心、 2.25 GHz(基准频率)- 3.4 GHz (最大加速频率) |
系统内存 | 512GB DDR4 |
网络 | 双端口 10Gbase-T 以太网 LAN 单端口 1Gbase-T 以太网 BMC 管理端口 |
Storage | 操作系统 : 1 个 1.92TB NVME 驱动器 内部存储 :7.68TB U.2 NVME 驱动器 |
DGX 显示适配器 | 4GB GPU 显存、 4 个 Mini DP |
系统声音 | <37dB |
软件 | Ubuntu Linux 操作系统 |
系统重量 | 43.1 千克 |
包装后系统 重量 | 57.93 千克 |
系统尺寸 | 高度 :639 毫米 宽度 :256 毫米 长度 :518 毫米 |
运行温度范围 | 5–35 °C |
驱动程序 | 无 |
使用手册 | 无 |
权利声明:
本网站所提到的产品信息、规格参数、应用程序、产品图片及产品特性及价格等仅供参考。
产品图片及颜色可能因拍照光线误差及屏幕设定,可能与实物产品效果有所差异,请以实物为准。
本网站所谈论到的产品名称仅做识别之用,而这些名称可能是属于其他公司的注册商标或是版权。