gpu加速型-九游平台
gpu加速型云服务器(gpu accelerated cloud server,gacs)能够提供强大的浮点计算能力,从容应对高实时、高并发的海量计算场景。
该类型弹性云服务器默认开启超线程,每个vcpu对应一个底层超线程ht(hyper-threading)。
- g系列:图形加速型弹性云服务器,适合于3d动画渲染、cad等。
- p系列:计算加速型或推理加速型弹性云服务器,适合于深度学习、科学计算、cae等。

为了保障gpu加速型云服务器高可靠、高可用和高性能,该类型云服务器的公共镜像中会默认预置带gpu监控的ces agent。正常使用gpu监控功能还需完成配置委托,详细操作,请参见如何配置委托?。
如需手动移除gpu监控功能,可登录gpu加速型云服务器并执行卸载命令:bash /usr/local/uniagent/script/uninstall.sh
gpu加速实例总览
主售:计算加速型p2s、推理加速型pi2、图形加速增强型g6
在售:除主售外的其他gpu机型均为在售机型,如果在售机型售罄,推荐使用主售机型
- 图像加速g系列
- 计算加速p系列
类别 |
实例 |
gpu显卡 |
单卡cuda core数量 |
单卡gpu性能 |
使用场景 |
备注 |
---|---|---|---|---|---|---|
图形加速型 |
g6v |
nvidia t4(vgpu虚拟化) |
2560 |
|
云桌面、图像渲染、3d可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
图形加速型 |
g6 |
nvidia t4(gpu直通) |
2560 |
|
云桌面、图像渲染、3d可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
图形加速型 |
g5 |
nvidia v100(gpu直通) |
5120 |
|
云桌面、图像渲染、3d可视化、重载图形设计。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
图形加速型 |
g3 |
nvidia m60(gpu直通) |
2048 |
4.8tflops单精度浮点计算 |
云桌面、图像渲染、3d可视化、重载图形设计。 |
- |
图形加速型 |
g1 |
nvidia m60(gpu虚拟化) |
2048 |
4.8tflops单精度浮点计算 |
云桌面、图像渲染、3d可视化、重载图形设计。 |
- |
计算加速型 |
p2vs |
nvidia v100 nvlink (gpu直通) |
5120 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
计算加速型 |
p2s |
nvidia v100 |
5120 |
|
ai深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
计算加速型 |
p2v |
nvidia v100 nvlink(gpu直通) |
5120 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
计算加速型 |
p1 |
nvidia p100(gpu直通) |
2584 |
9.3 tflops 单精度浮点计算 |
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
推理加速型 |
pi2 |
nvidia t4(gpu直通) |
2560 |
|
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |
推理加速型 |
pi1 |
nvidia p4(gpu直通) |
2560 |
5.5tflops 单精度浮点计算 |
机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 |
支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 |

- 控制台的远程登录方式可以作为运维处理的平台,但不能作为生产环境使用。使用控制台的远程登录方式无法使用物理gpu能力。
- 在不支持远程登录的情况下,可以使用windows远程桌面mstsc,或者第三方桌面协议。如vnc工具。
- 当如下规格的操作系统内核为5.16及以上版本时,不支持avx指令,如需支持avx指令,请使用低内核版本的操作系统,或变更为其他实例:
- g6v、g6、g5、g3、g1
- p2vs、p2s、p2v、p2、p1
gpu加速型实例支持的镜像
类别 |
实例 |
支持的镜像 |
---|---|---|
图形加速型 |
g6v |
|
图形加速型 |
g6 |
|
图形加速型 |
g5 |
|
图形加速型 |
g3 |
|
图形加速型 |
g1 |
|
计算加速型 |
p2vs |
|
计算加速型 |
p2s |
|
计算加速型 |
p2v |
|
计算加速型 |
p1 |
|
推理加速型 |
pi2 |
|
推理加速型 |
pi1 |
|
图形加速增强型g6v
概述
g6v型弹性云服务器使用nvidia tesla t4 gpu显卡,能够支持directx、opengl、vulkan接口,单卡提供16gib显存,理论性能pixel rate:101.8gpixel/s,texture rate:254.4gtexel/s,满足专业级的图形处理需求。支持gpu虚拟化功能,支持1/2 t4、1/4 t4卡和1/8 t4卡。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽 (gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
gpu |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g6v.2xlarge.2 |
8 |
16 |
6/2 |
35 |
4 |
1/8 × t4 |
2 |
kvm |
g6v.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1/4 × t4 |
4 |
kvm |
g6v.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
1/2 × t4 |
8 |
kvm |
g6v型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持图形加速接口:
- directx 12、direct2d、directx video acceleration (dxva)
- opengl 4.5
- vulkan 1.0
- 支持cuda和opencl。
- 支持nvidia t4 gpu卡,显存为16 gb。
实例可虚拟化分片:
- 计算性能为nvidia tesla t4的1/8、1/4和1/2
- 显存为2 gb、4 gb和8 gb
- 支持图形加速应用。
- 支持cpu重载推理应用。
- 自动化的调度g6v型弹性云服务器到装有nvidia t4 gpu卡的可用区。
- 内置1个nvenc和2个nvdec。
常规支持软件列表
g6v型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、云游戏、3d可视化。应用软件如果依赖gpu的directx、opengl硬件加速能力可以使用g6v型云服务器。常用的图形处理软件支持列表如下:
- autocad
- 3ds max
- maya
- agisoft photoscan
- contextcapture
使用须知
- g6v型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
g6v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的g6v型弹性云服务器默认已安装特定版本的grid驱动,但grid license需自行购买和配置使用,请提前确认云grid驱动版本是否符合需求,并配置grid license。配置grid license步骤请参考gpu加速型实例安装grid驱动。
- 使用私有镜像创建的g6v型弹性云服务器,请确认在制作私有镜像时安装grid驱动。如果未安装,请在创建完成后安装grid驱动,以实现图形加速功能。
详细安装操作请参考gpu加速型实例安装grid驱动。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
图形加速增强型g6
概述
g6型弹性云服务器使用nvidia tesla t4 gpu显卡,能够支持directx、opengl、vulkan接口,提供16gib显存,理论性能pixel rate:101.8gpixel/s,texture rate:254.4gtexel/s,满足专业级的图形处理需求。
请按需选择您所需要的类型和规格。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
网卡个数上限 |
gpu |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
g6.xlarge.4 |
4 |
16 |
6/2 |
200 |
8 |
8 |
1 × t4 |
16 |
kvm |
g6.4xlarge.4 |
16 |
64 |
15/8 |
200 |
8 |
8 |
1 × t4 |
16 |
kvm |
g6.6xlarge.4 |
24 |
96 |
25/15 |
200 |
8 |
8 |
1 × t4 |
16 |
kvm |
g6.9xlarge.7 |
36 |
252 |
25/15 |
200 |
16 |
8 |
1 × t4 |
16 |
kvm |
g6.18xlarge.7 |
72 |
504 |
30/30 |
400 |
32 |
16 |
2 × t4 |
32 |
kvm |
g6型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6266,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持图形加速接口:
- directx 12、direct2d、directx video acceleration (dxva)
- opengl 4.5
- vulkan 1.0
- 支持cuda和opencl。
- 支持nvidia t4 gpu卡。
- 支持图形加速应用。
- 支持cpu重载推理应用。
- 自动化的调度g6型弹性云服务器到装有nvidia t4 gpu卡的可用区。
- 内置1个nvenc和2个nvdec。
常规支持软件列表
g6型弹性云服务器主要用于图形加速场景,例如图像渲染、云桌面、3d可视化。应用软件如果依赖gpu的directx、opengl硬件加速能力可以使用g6型云服务器。常用的图形处理软件支持列表如下:
- autocad
- 3ds max
- maya
- agisoft photoscan
- contextcapture
使用须知
- g6型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
g6型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的g6型弹性云服务器默认已安装特定版本的grid驱动,但grid license需自行购买和配置使用,请提前确认云grid驱动版本是否符合需求,并配置grid license。
配置grid license步骤请参考gpu加速型实例安装grid驱动。
- 使用私有镜像创建的g6型弹性云服务器,请确认在制作私有镜像时安装grid驱动。如果未安装,请在创建完成后安装grid驱动,以实现图形加速功能。
详细安装操作请参考gpu加速型实例安装grid驱动。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
图形加速增强型g5
概述
g5型弹性云服务器使用nvidia tesla v100 gpu显卡,能够支持directx、opengl、vulkan接口,提供16gib显存规格,支持最大4096 × 2160分辨率,满足专业级的图形处理需求。
请选择您所需要的类型和规格。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽 (gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
gpu |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g5.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
1 × v100 |
16 |
kvm |

g5.8xlarge.4弹性云服务器独享一张v100显卡,支持专业图形加速,同样适用于cpu重载推理场景。
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6ghz,睿频3.5ghz,或英特尔® 至强® 可扩展处理器 6151,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持图形加速接口:
- directx 12、direct2d、directx video acceleration (dxva)
- opengl 4.5
- vulkan 1.0
- 支持cuda和opencl。
- 支持nvidia v100 gpu卡。
- 支持图形加速应用。
- 支持cpu重载推理应用。
- 自动化的调度g5型弹性云服务器到装有nvidia v100 gpu卡的可用区。
- 可以提供最大显存16gib,分辨率为4096×2160的图形图像处理能力。
常规支持软件列表
- autocad
- 3ds max
- maya
- agisoft photoscan
- contextcapture
- 瞰景科技smart3d实景三维建模软件
使用须知
- g5型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
g5型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- g5型弹性云服务器,需在弹性云服务器创建完成后配置grid license使用。
- 使用公共镜像创建的g5型弹性云服务器默认已安装特定版本的grid驱动,但grid license需自行购买和配置使用,请提前确认云grid驱动版本是否符合需求,并配置grid license。
配置grid license步骤请参考gpu加速型实例安装grid驱动。
- 使用私有镜像创建的g5型弹性云服务器,请确认在制作私有镜像时安装grid驱动。如果未安装,请在创建完成后安装grid驱动,以实现图形加速功能。
详细安装操作请参考gpu加速型实例安装grid驱动。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
图形加速增强型g3
概述
g3型弹性云服务器基于pci直通技术,独享整张gpu卡,提供专业级的图形加速能力。同时,g3型弹性云服务器使用nvidia tesla m60 gpu卡,能够支持directx、opengl接口,可以提供最大显存16gib,支持最大4096 × 2160分辨率,是专业级图形工作站的首选。
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽 (gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
gpu |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|
g3.4xlarge.4 |
16 |
64 |
8/2.5 |
50 |
2 |
1 × m60核心 |
1×8 |
kvm |
g3.8xlarge.4 |
32 |
128 |
10/5 |
100 |
4 |
2 × m60核心 |
2×8 |
kvm |

nvidia tesla m60板卡包含两颗m60 gpu,每颗m60 gpu包含2048 cuda 核心和8gib显存。g系列云服务器所指的m60一般指的是m60 gpu, 而不是m60板卡。
- 处理器:英特尔® 至强® 处理器 e5-2697 v4,主频2.3ghz,睿频3.5ghz。
- 支持专业级图形加速接口。
- 支持nvidia m60 gpu卡。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持图形加速应用。
- 提供gpu直通的能力。
- 自动化的调度g3型弹性云服务器到装有nvidia m60 gpu卡的可用区。
- 可以提供最大显存16gib,分辨率为4096×2160的图形图像处理能力。
使用须知
- g3型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
g3型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- g3型windows操作系统云服务器启动时默认加载了grid驱动,使用vgpu显卡作为默认视频输出,暂不支持使用管理控制台提供的“远程登录”功能。请使用rdp协议(如windows远程桌面mstsc)访问g3型实例,之后安装远程访问工具,如vnc工具等第三方vdi工具。
- 使用公共镜像创建的g3型弹性云服务器默认已安装特定版本的grid驱动。
- 使用私有镜像创建的g3型弹性云服务器,请确认在制作私有镜像时安装grid驱动。如果未安装,请在创建完成后安装grid驱动,以实现图形加速功能。详细安装操作请参考安装grid驱动。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
图形加速型g1
概述
g1型弹性云服务器基于nvidia grid虚拟gpu技术,提供较为经济的图形加速能力。同时,g1型弹性云服务器使用nvidia tesla m60 gpu卡,能够支持directx、opengl,可以提供最大显存8gib、分辨率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽 |
最大收发包能力 |
gpu |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|
g1.xlarge |
4 |
8 |
中 |
中 |
1 × m60-1q |
1 |
xen |
g1.xlarge.4 |
4 |
16 |
中 |
中 |
1 × m60-1q |
1 |
xen |
g1.2xlarge |
8 |
16 |
中 |
中 |
1 × m60-2q |
2 |
xen |
g1.2xlarge.8 |
8 |
64 |
中 |
中 |
直通 |
8 |
xen |
g1.4xlarge |
16 |
32 |
中 |
中 |
1 × m60-4q |
4 |
xen |

m60-xq使用gpu虚拟化能力,x为1/2/4/8,表示云服务器使用grid技术将m60 gpu虚拟为不同规格和型号的vgpu, x对应于vgpu的显存大小,q表示该类型的vgpu主要适用于工作站和桌面场景。更多关于grid虚拟gpu的介绍,请参见。
- 处理器:英特尔® 至强® 处理器 e5-2690 v4,主频2.6ghz,睿频3.5ghz。
- 支持nvidia m60 gpu卡。
- 支持图形加速应用。
- 提供gpu硬件虚拟化(vgpu)和gpu直通能力。
- 自动化的调度g1型弹性云服务器到装有nvidia m60 gpu卡的可用区。
- 可以提供最大显存8gib,分辨率为4096×2160的图形图像处理能力。
- g1型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
g1型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- g1型弹性云服务器不支持规格变更。
- 规格为g1.2xlarge.8的弹性云服务器,不支持使用云平台提供的“远程登录”功能。请先使用mstsc方式登录,然后自行安装vnc工具进行登录。
对于非g1.2xlarge.8的g1型弹性云服务器,支持使用云平台提供的“远程登录”功能,具体操作请参见远程登录(vnc方式)。
- 使用公共镜像创建的g1型弹性云服务器默认已安装特定版本的grid驱动。
- 使用私有镜像创建的g1型弹性云服务器,请确认在制作私有镜像时安装grid驱动。如果未安装,请在创建完成后安装grid驱动,以实现图形加速功能。详细安装操作请参考安装grid驱动。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
计算加速型p2vs
概述
p2vs型弹性云服务器采用nvidia tesla v100 gpu (32g显存),在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。p2vs型弹性云服务器支持gpu nvlink技术,实现gpu之间的直接通信,提升gpu之间的数据传输效率。能够提供超高的通用计算能力,适用于ai深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
gpu |
gpu连接技术 |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
p2vs.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
1 × v100 |
- |
1 × 32gib |
kvm |
p2vs.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
2 × v100 |
nvlink |
2 × 32gib |
kvm |
p2vs.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
4 × v100 |
nvlink |
4 × 32gib |
kvm |
p2vs.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 × v100 |
nvlink |
8 × 32gib |
kvm |
p2vs型弹性云服务器功能如下:
- 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla v100 gpu卡,每台云服务器支持最大8张tesla v100显卡。
- 支持nvidia cuda并行计算,支持常见的深度学习框架tensorflow、caffe、pytorch、mxnet等。
- 单精度能力15.7 tflops,双精度能力7.8 tflops。
- 支持nvidia tensor core能力,深度学习混合精度运算能力达到125 tflops。
- 单实例最大网络带宽30gb/s。
- 使用32gib hbm2显存,显存带宽900gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
与普通云服务器一样,p2vs型云服务器可以做到分钟级快速发放。
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的hpc应用程序和深度学习框架已经可以运行在p2vs实例上。
常规软件支持列表
p2vs型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到gpu的cuda并行计算能力,可以使用p2vs型云服务器。
- tensorflow、caffe、pytorch、mxnet等常用深度学习框架
- redshift for autodesk 3ds max、v-ray for 3ds max等支持cuda的gpu渲染
- agisoft photoscan
- mapd
使用须知
- p2vs型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
p2vs型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的p2vs型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的p2vs型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
计算加速型p2s
概述
p2s型弹性云服务器采用nvidia tesla v100 gpu,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。p2s型弹性云服务器能够提供超高的通用计算能力,适用于ai深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力(万pps) |
网卡多队列数 |
网卡个数上限 |
gpu |
gpu连接技术 |
显存(gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2s.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × v100 |
pcie gen3 |
1 × 32gib |
kvm |
p2s.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × v100 |
pcie gen3 |
2 × 32gib |
kvm |
p2s.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × v100 |
pcie gen3 |
4 × 32gib |
kvm |
p2s.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × v100 |
pcie gen3 |
8 × 32gib |
kvm |
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6ghz,睿频3.5ghz,或英特尔® 至强® 可扩展处理器 6151,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla v100 gpu卡,每台云服务器支持最大8张tesla v100显卡。
- 支持nvidia cuda并行计算,支持常见的深度学习框架tensorflow、caffe、pytorch、mxnet等。
- 单精度能力14 tflops,双精度能力7 tflops。
- 支持nvidia tensor core能力,深度学习混合精度运算能力达到112 tflops。
- 单实例最大网络带宽30gb/s。
- 使用32gib hbm2显存,显存带宽900gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
与普通云服务器一样,p2s型云服务器可以做到分钟级快速发放。
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的hpc应用程序和深度学习框架已经可以运行在p2s实例上。
常规软件支持列表
- tensorflow、caffe、pytorch、mxnet等常用深度学习框架
- redshift for autodesk 3ds max、v-ray for 3ds max等支持cuda的gpu渲染
- agisoft photoscan
- mapd
- p2s型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
p2s型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的p2s型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的p2s型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
计算加速型p2v
概述
p2v型弹性云服务器采用nvidia tesla v100 gpu,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。p2v型弹性云服务器支持gpu nvlink技术,实现gpu之间的直接通信,提升gpu之间的数据传输效率。能够提供超高的通用计算能力,适用于ai深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力(万pps) |
网卡多队列数 |
网卡个数上限 |
gpu |
gpu连接技术 |
显存 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
p2v.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
4 |
1 × v100 |
- |
1 × 16gib |
kvm |
p2v.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
8 |
2 × v100 |
nvlink |
2 × 16gib |
kvm |
p2v.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
8 |
4 × v100 |
nvlink |
4 × 16gib |
kvm |
p2v.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8 |
8 × v100 |
nvlink |
8 × 16gib |
kvm |
- 处理器:英特尔® 至强® 可扩展处理器 6151,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla v100 gpu卡,每台云服务器支持最大8张tesla v100显卡。
- 支持nvidia cuda并行计算,支持常见的深度学习框架tensorflow、caffe、pytorch、mxnet等。
- 单精度能力15.7 tflops,双精度能力7.8 tflops。
- 支持nvidia tensor core能力,深度学习混合精度运算能力达到125 tflops。
- 单实例最大网络带宽30gb/s。
- 使用16gib hbm2显存,显存带宽900gb/s。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
与普通云服务器一样,p2v型云服务器可以做到分钟级快速发放。
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的hpc应用程序和深度学习框架已经可以运行在p2v实例上。
常规软件支持列表
- tensorflow、caffe、pytorch、mxnet等常用深度学习框架
- redshift for autodesk 3ds max、v-ray for 3ds max等支持cuda的gpu渲染
- agisoft photoscan
- mapd
- p2v型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
p2v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- 使用公共镜像创建的p2v型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的p2v型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
计算加速型p1
概述
p1型弹性云服务器采用nvidia tesla p100 gpu,在提供云服务器灵活性的同时,提供优质性能体验和优良的性价比。p1型弹性云服务器支持gpu direct技术,实现gpu之间的直接通信,提升gpu之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力(万pps) |
网卡多队列数 |
gpu |
显存 (gib) |
本地盘 (gib) |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
p1.2xlarge.8 |
8 |
64 |
5/1.6 |
35 |
2 |
1 × p100 |
1 × 16 |
1 × 800 |
kvm |
p1.4xlarge.8 |
16 |
128 |
8/3.2 |
70 |
4 |
2 × p100 |
2 × 16 |
2 × 800 |
kvm |
p1.8xlarge.8 |
32 |
256 |
10/6.5 |
140 |
8 |
4 × p100 |
4 × 16 |
4 × 800 |
kvm |
- 处理器:英特尔® 至强® 处理器 e5-2690 v4,主频2.6ghz,睿频3.5ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla p100 gpu卡,单实例最大支持4张p100显卡,如果需要使用单机8张p100显卡,可以使用裸金属服务器。
- 提供gpu硬件直通能力。
- 单精度能力9.3 tflops,双精度能力4.7 tflops。
- 最大网络带宽10gb/s。
- 使用16gib hbm2显存,显存带宽732gb/s。
- 使用800gib的nvme ssd卡作为本地临时存储。
- 完整的基础能力:
- 网络自定义,自由划分子网、设置网络访问策略。
- 海量存储,弹性扩容,支持备份与恢复,让数据更加安全。
- 弹性伸缩,快速增加或减少云服务器数量。
- 灵活选择:
与普通云服务器一样,p1型云服务器可以做到分钟级快速发放。用户可以根据业务规模灵活选择规格,后续将逐步支持1:2、1:4、1:8规格云服务器的创建。
- 优秀的超算生态:
拥有完善的超算生态环境,用户可以构建灵活弹性、高性能、高性价比的计算平台。大量的hpc应用程序和深度学习框架已经可以运行在p1实例上。
常规支持软件列表
p1型云服务器主要用于计算加速场景,例如深度学习训练、推理、科学计算、分子建模、地震分析等场景。应用软件如果使用到gpu的cuda并行计算能力,可以使用p1型云服务器。常用的软件支持列表如下:
- tensorflow、caffe、pytorch、mxnet等深度学习框架
- redshift for autodesk 3ds max、v-ray for 3ds max
- agisoft photoscan
- mapd
- p1型云服务器的系统盘大小建议大于40gib。
- p1型云服务器包含nvme ssd本地盘,关机后仍然收费,如果停止计费,需删除弹性云服务器。
- p1型云服务器配置了nvme ssd本地盘,专为深度学习训练、hpc高性能计算等对存储i/o性能有极高要求的业务场景设计。本地盘与特定规格的云服务器绑定,不可单独购买,不可卸载并挂载到另一台云服务器上使用。
p1型云服务器配置的nvme ssd本地盘有丢失数据的风险(比如nvme ssd故障或宿主机故障时),强烈建议您在本地nvme ssd磁盘中存放临时数据,如需存放重要数据,请做好数据备份。
- p1型弹性云服务器不支持规格变更。
- p1型弹性云服务器不支持自动恢复功能:
- 部分宿主机硬件故障或亚健康等场景,需要用户配合关闭ecs完成宿主机硬件维修动作。
- 因系统维护或硬件故障等,ha重新部署ecs实例后,实例会冷迁移到其他宿主机,本地盘数据不保留。
- 删除p1型弹性云服务器后,本地nvme ssd磁盘的数据会被自动清除。
- 使用公共镜像创建的p1型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的p1型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
推理加速型pi2
概述
pi2型弹性云服务器采用专为ai推理打造的nvidia tesla t4 gpu,能够提供超强的实时推理能力。pi2型弹性云服务器借助t4的int8运算器,能够提供最大130tops的int8算力。pi2也可以支持轻量级训练场景。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽(gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
网卡个数上限 |
gpu |
显存 (gib) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|---|
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
4 |
1 × t4 |
1 × 16 |
- |
kvm |
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
8 |
2 × t4 |
2 × 16 |
- |
kvm |
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
8 |
4 × t4 |
4 × 16 |
- |
kvm |
pi2型弹性云服务器功能如下:
- 处理器:第二代英特尔® 至强® 可扩展处理器 6278,主频2.6ghz,睿频3.5ghz,或英特尔® 至强® 可扩展处理器 6151,主频3.0ghz,睿频3.4ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla t4 gpu卡,单实例最大支持4张t4 gpu卡。
- 提供gpu硬件直通能力。
- 单gpu单精度计算能力最高8.1 tflops。
- 单gpu int8计算能力最高130 tops。
- 单gpu提供16gib gddr6显存,带宽320gib/s。
- 内置1个nvenc和2个nvdec。
常规支持软件列表
pi2实例主要用于gpu推理计算场景,例如图片识别、语音识别、自然语言处理等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
- tensorflow、caffe、pytorch、mxnet等深度学习框架。
使用须知
- pi2型云服务器,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。
pi2型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- pi2型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的pi2型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的pi2型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
推理加速型pi1
概述
pi1型弹性云服务器采用专为ai推理打造的nvidia tesla p4 gpu,能够提供超强的实时推理能力。pi1型弹性云服务器借助p4的int8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。
规格
规格名称 |
vcpu |
内存 (gib) |
最大带宽/基准带宽 (gbps) |
最大收发包能力 (万pps) |
网卡多队列数 |
gpu |
显存 (gib) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi1.2xlarge.4 |
8 |
32 |
5/1.6 |
40 |
2 |
1 × p4 |
1 × 8gib |
- |
kvm |
pi1.4xlarge.4 |
16 |
64 |
8/3.2 |
70 |
4 |
2 × p4 |
2 × 8gib |
- |
kvm |
pi1.8xlarge.4 |
32 |
128 |
10/6.5 |
140 |
8 |
4 × p4 |
4 × 8gib |
- |
kvm |
- 处理器:英特尔® 至强® 处理器 e5-2697 v4,主频2.3ghz,睿频3.5ghz。
- 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。
- 支持nvidia tesla p4 gpu卡,单实例最大支持4张p4 gpu卡。
- 提供gpu硬件直通能力。
- 单gpu单精度计算能力最高5.5 tflops。
- 单gpu int8计算能力最高22 tops。
- 单gpu提供8gib ecc显存,带宽192gib/s。
- gpu内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理。
常规支持软件列表
pi1实例主要用于gpu推理计算场景,例如图片识别、语音识别、自然语言处理等场景。
常用的软件支持列表如下:
- tensorflow、caffe、pytorch、mxnet等深度学习框架
使用须知
- pi1型云服务器,在按需付费的模式下,关机后基础资源(包括vcpu、内存、镜像、gpu)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网ip、带宽等,按各自产品的计费方法进行收费。具体请参见产品价格详情。
pi1型云服务器,在按需付费的模式下,关机后会释放资源,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建议保持开机状态或者选择“包年/包月”计费模式。
- pi1型弹性云服务器不支持规格变更。
- pi1型云服务器,所在物理机发生故障时,云服务器支持自动恢复。
- 使用公共镜像创建的pi1型云服务器,默认已安装tesla驱动。
- 使用私有镜像创建的pi1型云服务器,请确认在制作私有镜像时已安装tesla驱动。如果未安装,请在云服务器创建完成后安装驱动,以实现计算加速功能。详细操作请参考安装tesla驱动及cuda工具包。
- gpu型弹性云服务器因通用算力和异构算力差异大,仅支持变更规格至同类型规格内的细分规格。
- gpu型弹性云服务器不支持热迁移。
相关文档
意见反馈
文档内容是否对您有帮助?
如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨