推理加速型Pi1
Pi1型彈性 云服務器 采用專為AI推理打造的NVIDIA Tesla P4 GPU,能夠提供超強的實時推理能力。Pi1型彈性云服務器借助P4的INT8運算器,能夠將推理延時降低15倍。配備硬件解碼引擎,能夠同時支持35路高清視頻流的實時轉碼與推理。
|
規(guī)格名稱 |
vCPU |
內(nèi)存(GB) |
最大帶寬/基準帶寬(Gbps) |
最大收發(fā)包能力(萬PPS) |
網(wǎng)卡多隊列數(shù) |
GPU |
顯存(GB) |
本地盤 |
虛擬化類型 |
|---|---|---|---|---|---|---|---|---|---|
|
pi1.2xlarge.4 |
8 |
32 |
5/1.6 |
40 |
2 |
1×P4 |
1×8GB |
- |
KVM |
|
pi1.4xlarge.4 |
16 |
64 |
8/3.2 |
70 |
4 |
2×P4 |
2×8GB |
- |
KVM |
|
pi1.8xlarge.4 |
32 |
128 |
10/6.5 |
140 |
8 |
4×P4 |
4×8GB |
- |
KVM |
Pi1型彈性云服務器功能如下:
-
支持NVIDIA Tesla P4 GPU卡,單實例最大支持4張P4 GPU卡
-
提供GPU硬件直通能力
-
單GPU單精度計算能力最高5.5 TFLOPS
-
單GPU INT8計算能力最高22 TOPS
-
單GPU提供8GB ECC顯存,帶寬192GB/s
-
GPU內(nèi)置硬件視頻編解碼引擎,能夠同時進行35路高清視頻解碼與實時推理
常規(guī)支持軟件列表
Pi1實例主要用于GPU推理計算場景,例如圖片識別、 語音識別 等場景。
常用的軟件支持列表如下:
-
Tensorflow、Caffe、PyTorch、MXNet等深度學習框架
推理加速型Pi2
Pi2型彈性云服務器采用專為AI推理打造的NVIDIA Tesla T4 GPU,能夠提供超強的實時推理能力。Pi2型彈性云服務器借助T4的INT8運算器,能夠提供最大130TOPS的INT8算力。Pi2也可以支持輕量級訓練場景。
|
規(guī)格名稱 |
vCPU |
內(nèi)存(GB) |
最大帶寬/基準帶寬(Gbps) |
最大收發(fā)包能力(萬PPS) |
網(wǎng)卡多隊列數(shù) |
GPU |
顯存(GB) |
本地盤 |
虛擬化類型 |
|---|---|---|---|---|---|---|---|---|---|
|
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1×T4 |
1×16GB |
- |
KVM |
|
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
2×T4 |
2×16GB |
- |
KVM |
|
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
4×T4 |
4×16GB |
- |
KVM |
Pi2型彈性云服務器功能如下:
-
支持NVIDIA Tesla T4 GPU卡,單實例最大支持4張T4 GPU卡
-
提供GPU硬件直通能力
-
單GPU單精度計算能力最高8.1 TFLOPS
-
單GPU INT8計算能力最高130 TOPS
-
單GPU提供16GB GDDR6顯存,帶寬300GB/s
-
內(nèi)置1個NVENC和2個NVDEC
常規(guī)支持軟件列表
Pi2實例主要用于GPU推理計算場景,例如圖片識別、語音識別等場景。也可以支持輕量級訓練場景。
常用的軟件支持列表如下:
-
Tensorflow、Caffe、PyTorch、MXNet等深度學習框架。