更新时间:2023-10-13 gmt 08:00

约束与限制-凯发k8国际娱乐官网入口

本章介绍cci相关的使用限制,以便于您更好地使用cci。

cci实例限制

下表为cci实例相关的使用限制。

限制项

限制描述

创建cci实例的用户帐号限制

已通过实名认证。

单个用户的资源数量和容量配额限制

云容器实例对单个用户的资源数量和容量限定了配额,您可以登录华为云控制台,在“资源 > 我的配额>服务配额”页面,查看各项资源的总配额及使用情况。

说明:

如果当前配额不能满足业务要求,可申请扩大配额。配额的详细信息请参见关于配额

单个cci实例的vcpu数量

0.25核-32核,或者自定义选择48核、64核。

支持的容器操作系统类型

仅支持linux容器。

cci实例的网络类型

仅支持vpc网络。

kubernetes应用限制

基于华为云的安全性带来的限制,cci目前还不支持kubernetes中hostpath、daemonset等功能,具体如下表所示。

不支持的功能

说明

推荐替代方案

hostpath

挂载本地宿主机文件到容器中

使用云盘或者sfs文件系统

hostnetwork

将宿主机端口映射到容器上

使用type=loadbalancer的负载均衡

daemonset

daemonset(守护进程集)在集群的每个节点上运行一个pod,且保证只有一个pod

通过sidecar形式在pod中部署多个容器

privileged权限

容器拥有privileged权限

使用security context为pod添加capability

type=nodeport的service

将宿主机端口映射到容器上

使用type=loadbalancer的负载均衡

pod规格限制

云容器实例当前支持使用gpu,您可以根据需要选择,实例收费详情请参见。

当不使用gpu时,pod规格需满足如下要求:

表1 pod规格限制要求

pod规格限制项

限制取值范围

pod的cpu

  • 0.25核-32核,或者自定义选择48核、64核。
  • 单个容器的cpu必须为0.25核的整数倍。

pod的内存

  • 1gib-512gib。
  • 内存必须为1gib的整数倍。

pod的cpu/内存配比值

在1:2至1:8之间。

pod的容器

一个pod内最多支持5个容器。

单个容器最小配置是0.25核、0.2gib,最大同容器实例的最大配置。

pod中所有容器和initcontainer(启动容器)

两者规格中的request和limit相等。

  • pod规格计算详情请参见。
  • initcontainer是一种特殊容器,在 pod 内的应用容器启动之前运行。有关initcontainer更多解释请参见。
gpu加速型pod提供3种显卡,具体的规格如下所示:
表2 gpu加速型pod规格

显卡类型

具体规格

可用区域

nvidia tesla t4显卡

  • nvidia tesla t4 x 1,cpu 8核,内存32gib
  • nvidia tesla t4 x 2,cpu 16核,内存64gib
  • nvidia tesla t4 x 4,cpu 32核,内存128gib
  • nvidia tesla t4 x 8,cpu 64核,内存256gib

华北-北京四

nvidia tesla v100 16g显卡

  • nvidia tesla v100 16g x 1,cpu 4核,内存32gib
  • nvidia tesla v100 16g x 2,cpu 8核,内存64gib
  • nvidia tesla v100 16g x 4,cpu 16核,内存128gib
  • nvidia tesla v100 16g x 8,cpu 32核,内存256gib

华东-上海一

nvidia tesla v100 32g显卡

  • nvidia tesla v100 32g x 1,cpu 4核,内存32gib
  • nvidia tesla v100 32g x 2,cpu 8核,内存64gib
  • nvidia tesla v100 32g x 4,cpu 16核,内存128gib
  • nvidia tesla v100 32g x 8,cpu 32核,内存256gib

华北-北京四

云容器实例支持使用nvidia gpu的驱动版本为460.106418.126,您应用程序中使用的cuda需满足如表3所示的配套关系。cuda与驱动的配套关系来源于nvidiak8凯发官网,详细信息请参见。
表3 nvidia gpu驱动与cuda配套关系

nvidia gpu驱动版本

cuda toolkit版本

460.106

cuda 11.2.2 update 2 及以下

418.126

cuda 10.1 (10.1.105)及以下

gpu镜像

cuda和cudnn都是与gpu相关的技术,用于加速各种计算任务,特别是深度学习任务。在使用nvidia gpu进行深度学习时,通常需要安装cuda和cudnn。请使用配套关系的基础镜像。

pod存储空间限制

如果没有挂载evs等磁盘,应用数据存储在容器的rootfs,每个pod存储空间限制如下所示:

表4 每个pod存储空间限制

pod类型

存储空间限制

cpu型pod

20g

gpu型pod

20g

分享:
网站地图