接受预定 - DGX Station A100,可以推着走的千万亿级工作组服务器

2020-11-21 00:33:27 650
接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器

在 SC20(Supercomputing Conference)超级计算大会上,NVIDIA 发布了新一代 DGX Station A100 以及 NVIDIA A100 80GB GPU。安培架构的桌面级超算中心,强势登场!


DGX Station A100


接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器

NVIDIA DGX Station A100 有着强劲性能和高度集成性。为支持诸如 BERT Large 推理等复杂的对话式 AI 模型,DGX Station A100 比上一代 DGX Station 提速 4 倍以上。对于 BERT Large AI 训练,其性能提高近 3 倍。

News

DGX Station A100

一台能推着走的千万亿级集成型 AI 工作组服务器

NO.1 性能亮点

AI 性能可达 2.5 petaflops。

NO.2 第三代NVLink

唯一一台配备四个通过 NVIDIA NVLink® 完全互连的全新 NVIDIA® A100 Tensor Core GPU 的工作组服务器,可提供高达 320GB 的 GPU 内存。

NO.3 两种规格

DGX Station A100 配备四个 80GB 或 40GB NVIDIA A100 Tensor Core GPU,让数据科学和 AI 研究团队能够结合自身工作负载和预算来选择系统。

NO.4 MIG技术

唯一支持 NVIDIA 多实例 GPU(MIG)技术的工作组服务器。借助 MIG,单一 DGX Station A100 最多可提供 28 个独立 GPU 实例以运行并行任务。

NO.5 随时随地

高度集成、体积小、水冷散热,同时支持远程管理功能。

作为服务器级的系统,DGX Station A100 无需配备数据中心级电源或散热系统,却具有与 NVIDIA DGX A100 数据中心系统相同的远程管理功能。当数据科学家和研究人员在家中或实验室办公时,系统管理员可轻松地通过远程连接,执行任何管理任务。

 NVIDIA DGX STATION A100


DGX Station A100 性能参数

接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器


NVIDIA A100 80GB GPU


接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器

除了 DGX Station A100,此次还发布了 NVIDIA A100 80GB GPU。

News

NVIDIA A100 80GB GPU

A100 80GB 具备 Ampere 架构突破性特性

NO.1 第三代 Tensor Core 核心

TF32 将上一代 Volta 架构的 AI 吞吐量提高多达 20 倍。FP64 将 HPC 性能提高多达 2.5 倍。INT8 将 AI 推理性能提高多达 20 倍,并且支持 BF16 数据格式。

NO.2 更大、更快的 HBM2e GPU 内存:

内存容量增加一倍,在业内率先实现 2TB/s 以上的内存带宽。

NO.3 MIG 技术:

将单个独立实例的内存增加一倍,可最多提供七个 MIG,每个实例具备 10GB 内存。

NO.4 结构化稀疏:

将推理稀疏模型的速度提高 2 倍。

NO.5 第三代 NVLink 和 NVSwitch

相较于上一代互连技术,可使 GPU 之间的带宽增加至原来的两倍,将数据密集型工作负载的 GPU 数据传输速度提高至每秒 600 gigabytes。

NVIDIA 应用深度学习研究副总裁 Bryan Catanzaro 表示:“若想获得 HPC 和 AI 的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU 所提供的内存是六个月前推出的前代产品的两倍,突破了每秒 2TB 的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”


联系升级DGX A100 640GB


接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器

为支持更大规模的数据中心工作负载,DGX A100 系统将配备全新 NVIDIA A100 80GB GPU 使每个DGX A100系统的GPU内存容量增加一倍(最高可达640GB),从而确保AI团队能够使用更大规模的数据集和模型来提高准确性。

全新 DGX A100 640GB 系统也将集成到企业版 NVIDIA DGX SuperPOD™ 解决方案,使机构能基于以 20 个 DGX A100 系统为单位的一站式 AI 超级计算机,实现大规模 AI 模型的构建、训练和部署。

配备 A100 80GB GPU 的 NVIDIA DGX SuperPOD 系统将率先安装于英国的Cambridge-1 超级计算机,以加速推进医疗健康领域研究,以及佛罗里达大学的全新 HiPerGator AI 超级计算机,该超级计算机将赋力这一“阳光之州”开展 AI 赋能的科学发现。

之前已经部署了 DGX A100 320GB 用户可选择升级 DGX A100 640GB,将AI、HPC 的 GPU 内存加倍。


接受预定 | DGX Station A100,可以推着走的千万亿级工作组服务器

全球各机构都已采用 DGX Station,赋力教育、金融服务、政府、医疗健康、零售等行业的 AI 和数据科学应用。这些 AI 领导者包括:

  • 宝马集团生产部门正在使用 NVIDIA DGX Station 来开发和部署 AI 模型,以完善运营,从而更快速地获得深入的洞察。

  • 德国人工智能研究中心(DFKI)正借助 DGX Station 构建能够应对重大社会和行业挑战的模型,包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。

  • NTT Docomo 是日本领先的移动运营商,拥有超过 7900 万用户。其借助DGX Station 开发创新的AI驱动的服务,例如其图像识别解决方案。

  • 太平洋西北国家实验室(PNNL)正在使用 NVIDIA DGX Station 开展研究,该研究获得了联邦资助,旨在助力提升国家安全。PNNL 专注于能源弹性和国家安全方面的技术创新,是美国领先的高性能计算(HPC)中心,致力于科学发现、能源弹性、化学、地球科学和数据分析领域的研究。

电话咨询
最新产品
官方商城
QQ客服