NVIDIA英伟达H800人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性。
加速计算的数量*飞跃
通过 NVIDIA英伟达H800人工智能服务器 GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用 NVIDIA® NVlink® Switch 系统,可连接多达 256 个 H800 来加速百亿亿* (Exascale) 工作负载,另外可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上*代产品相比,H800 的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界**的对话式 AI。
准备好迎接企业 AI 了吗?
企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。
适用于主流服务器的 H800 随附五年期 NVIDIA AI Enterprise 软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H800 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H800人工智能服务器GPU算力租赁配置:
|
项目 |
标准配置 |
|
框架 |
8U 机架式服务器 |
|
处理器 |
2颗*4代/*5代至强系列*高 64 核/3.9GHz/320MB缓存 |
|
内存 |
*大容量 4TB |
|
GPU |
NVIDIA HGX H800 GPU模组 |
|
系统硬盘 |
M.2 NVMe PCIe接口 2TB SSD |
|
数据硬盘 |
2*10TB 企业* SATA 硬盘 RAID 10 阵列配置 |
|
InfiniBand 网络 |
ConnectX-7 400Gb/s |
|
Ethernet 网卡 |
OCP 网卡/双电口/10G |
|
PICE 插槽 |
9 个 PCIe 5.0 扩展插槽 |
|
电源 |
6*3000W,2*2700W,AC220 输入 |
|
风扇 |
10 个 54V 风扇模组 |
|
操作系统 |
Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
|
工作温度 |
+5°~+35° |
|
其他接口 |
机箱后部:1 个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA 机箱前部:2 个 USB 3.0,1 个 VGA |
|
整机净重 |
120KG(以实际配置为准) |
NVIDIA H800 TENSOR CORE GPU 规格 (SXM4 和 PCIE 外形规格)
|
外形规格 |
H800 SXM4 |
H800 PCIE |
|
FP64 |
1 teraFLOPS |
0.8 teraFLOPS |
|
FP64 Tensor Core |
1 teraFLOPS |
0.8 teraFLOPS |
|
FP32 |
67 teraFLOPS |
51 teraFLOPS |
|
TF32 Tensor Core |
989 teraFLOPS* |
756teraFLOPS* |
|
BFLOAT16 Tensor Core |
1979 teraFLOPS* |
1,513 teraFLOPS* |
|
FP16 Tensor Core |
1979 teraFLOPS* |
1,513 teraFLOPS* |
|
FP8 Tensor Core |
3958 teraFLOPS* |
3026 teraFLOPS* |
|
INT8 Tensor Core |
3958 TOPS* |
3026 TOPS* |
|
GPU 显存 |
80GB |
80GB |
|
GPU 显存带宽 |
3.35TB/s |
2TB/s |
|
解码器 |
7 NVDEC/7 JPEG |
7 NVDEC/7 JPEG |
|
*大热设计功率 (TDP) |
高达 700 瓦(可配置) |
350 瓦(可配置) |
|
多实例 GPU |
*多 7 个 MIG @每个 10GB |
|
|
外形规格 |
SXM |
PCIe双插槽风冷式 |
|
互联技术 |
NVlink:600GB/s PCIe:128GB/s |
NVlink:600GB/s PCIe:128GB/s |
安全地加速从企业*到百亿亿次*规模的工作负载
实时深度学习推理
超大模型的 AI 推理性能提升高达 30 倍
HPC 应用的性能提升高达 7 倍
百亿亿次*高性能计算
加速数据分析
为企业提高资源利用率
内置机密计算
为大规模 AI 和高性能计算提供出色的性能







