凯发k8国际娱乐官网入口-k8凯发> 云容器引擎 cce> > > > 集群可用,但节点状态为“不可用”?
更新时间:2023-08-29 gmt 08:00

集群可用,但节点状态为“不可用”?-凯发k8国际娱乐官网入口

当集群状态为“可用”,而集群中部分节点状态为“不可用”时,请参照如下方式来排查解决。

节点不可用检测机制说明

kubernetes 节点发送的心跳确定每个节点的可用性,并在检测到故障时采取行动。检测的机制和间隔时间详细说明请参见。

使用npd插件排查故障

cce提供节点故障检测,npd插件从1.16.0版本开始增加了大量检查项,能对节点上各种资源和组件的状态检测,帮助发现节点故障。

强烈建议您安装该插件,如已安装请查看插件版本并升级到1.16.0及以上版本。

安装npd插件后,当节点出现异常时,控制台上可以查看到指标异常。

您还可以在节点事件中查看到npd上报的事件,根据事件信息可以定位故障。

表1 故障事件说明

故障事件

说明

oomkilling

检查oom事件发生并上报。

可能原因:用户在ecs侧误操作卸载数据盘。

处理建议:排查项一:节点负载过高

taskhung

检查taskhung事件发生并上报

kerneloops

检查内核0指针panic错误

conntrackfull

检查连接跟踪表是否满

frequentkubeletrestart

检测kubelet频繁重启

frequentdockerrestart

检测docker频繁重启

frequentcontainerdrestart

检测containerd频繁重启

criproblem

检查容器cri组件状态

kubeletproblem

检查kubelet状态

ntpproblem

检查ntp服务状态

pidproblem

检查pid是否充足

fdproblem

检查文件句柄数是否充足

memoryproblem

检查节点整体内存是否充足

cniproblem

检查容器cni组件状态

kubeproxyproblem

检查kube-proxy状态

readonlyfilesystem

检查系统内核是否有remount root filesystem read-only错误。

可能原因:用户在ecs侧误操作卸载数据盘、节点vdb盘被删除。

处理建议:

diskreadonly

检查系统盘、docker盘、kubelet盘是否只读

可能原因:用户在ecs侧误操作卸载数据盘、节点vdb盘被删除。

处理建议:

diskproblem

检查磁盘使用量与关键逻辑磁盘挂载

检查系统盘、docker盘、kubelet盘磁盘使用率,检查docker盘、kubelet盘是否正常挂载在虚拟机上。

pidpressure

检查pid是否充足。

处理建议:pid不足时可调整pid上限,请参见。

memorypressure

检查容器可分配空间(allocable)内存是否充足

diskpressure

检查kubelet盘和docker盘的磁盘使用量及inodes使用量。

处理建议:扩容数据盘,请参见。

排查项一:节点负载过高

问题描述:

集群中节点连接异常,多个节点报写入错误,业务未受影响。

问题定位:

  1. 登录cce控制台,进入集群,在不可用节点所在行单击“监控”
  2. 单击“监控”页签顶部的“查看更多”,前往运维管理页面查看历史监控记录。

    当节点cpu和内存负载过高时,会导致节点网络时延过高,或系统oom,最终展示为不可用。

凯发k8国际娱乐官网入口的解决方案:

  1. 建议迁移业务,减少节点中的工作负载数量,并对工作负载设置资源上限,降低节点cpu或内存等资源负载。
  2. 将集群中对应的cce节点进行数据清理。
  3. 限制每个容器的cpu和内存限制配额值。
  4. 对集群进行节点扩容。
  5. 您也可以重启节点,请至ecs控制台对节点进行重启,重启方法请参见。
  6. 增加节点,将高内存使用的业务容器分开部署。
  7. 重置节点,详情请参见。

节点恢复为可用后,工作负载即可恢复正常。

排查项二:弹性云服务器是否删除或故障

  1. 确认集群是否可用。

    登录cce控制台,确定集群是否可用。

    • 若集群非可用状态,如错误等,请参见。
    • 若集群状态为“运行中”,而集群中部分节点状态为“不可用”,请执行2
  2. 登录ecs控制台,查看对应的弹性云服务器状态。
    • 若弹性云服务器状态为“已删除”:请在cce中删除对应节点,再重新创建节点。
    • 若弹性云服务器状态为“关机”“冻结”:请先恢复弹性云服务器,约3分钟后集群节点可自行恢复。
    • 若弹性云服务器出现故障:请先重启弹性云服务器,恢复故障。
    • 若弹性云服务器状态为“可用”:请参考排查项七:内部组件是否正常登录弹性云服务器进行本地故障排查。

排查项三:弹性云服务器能否登录

  1. 登录ecs控制台。
  2. 确认界面显示的节点名称与虚机内的节点名称是否一致,并且密码或者密钥能否登录。
    图2 确认界面显示的名称
    图3 确认虚机内的节点名称和能否登录

    如果节点名称不一致,并且密码和密钥均不能登录,说明是ecs创建虚机时的cloudinit初始化问题,临时规避可以尝试重启节点,之后再提单给ecs确认问题根因。

排查项四:安全组是否被修改

登录vpc控制台,在左侧栏目树中单击“访问控制 > 安全组”,找到集群控制节点的安全组。

控制节点安全组名称为:集群名称-cce-control-编号。您可以通过集群名称查找安全组,再进一步在名称中区分“-cce-control-”字样,即为本集群安全组。

排查安全组中规则是否被修改,安全的详细说明请参见

排查项五:检查安全组规则中是否包含master和node互通的安全组策略

请检查安全组规则中是否包含master和node互通的安全组策略。

已有集群添加节点时,如果子网对应的vpc新增了扩展网段且子网是扩展网段,要在控制节点安全组(即集群名称-cce-control-随机数)中添加如下三条安全组规则,以保证集群添加的节点功能可用(新建集群时如果vpc已经新增了扩展网段则不涉及此场景)。

安全的详细说明请参见

排查项六:检查磁盘是否异常

新建节点会给节点绑定一个100g的docker专用数据盘。若数据盘卸载或损坏,会导致docker服务异常,最终导致节点不可用。

图4 集群新建节点时的数据盘

请检查节点挂载的数据盘是否已被卸载。若已卸载请重新挂载数据盘,再重启节点,节点可恢复。

图5 磁盘检查

排查项七:内部组件是否正常

  1. 登录不可用节点对应的弹性云服务器。
  2. 执行以下命令判断paas组件是否正常。

    systemctl status kubelet

    执行成功,可查看到各组件的状态为active,如下图:

    若服务的组件状态不是active,执行如下命令:

    重启命令根据出错组件指定,如canal组件出错,则命令为:systemctl restart canal

    重启后再查看状态:systemctl status canal

  3. 若执行失败,请执行如下命令,查看monitrc进程的运行状态。

    ps -ef | grep monitrc

    若存在此进程,请终止此进程,进程终止后会自动重新拉起。

    kill -s 9 `ps -ef | grep monitrc | grep -v grep | awk '{print $2}'`

排查项八:dns地址配置错误

  1. 登录节点,在日志/var/log/cloud-init-output.log中查看是否有域名解析失败相关的报错。

    cat /var/log/cloud-init-output.log | grep resolv

    如果回显包含如下内容则说明无法解析该域名。

    could not resolve host: test.obs.cn-north-4.myhuaweicloud.com; unknown error

  2. 在节点上ping上一步无法解析的域名,确认节点上能否解析此域名。

    ping test.obs.cn-north-4.myhuaweicloud.com

    • 如果不能,则说明dns无法解析该地址。请确认/etc/resolv.conf文件中的dns地址与配置在vpc的子网上的dns地址是否一致,通常是由于此dns地址配置错误,导致无法解析此域名。请修改vpc子网dns为正确配置,然后重置节点。
    • 如果能,则说明dns地址配置没有问题,请排查其他问题。

排查项九:检查节点中的vdb盘是否被删除

如果节点中的vdb盘被删除,可参考恢复节点。

排查项十:排查docker服务是否正常

  1. 执行以下命令确认docker服务是否正在运行:
    systemctl status docker

    若执行失败或服务状态非active,请确认docker运行失败原因,必要时可提交工单联系凯发k8国际娱乐官网入口的技术支持。

  2. 执行以下命令检查当前节点上所有容器数量:
    docker ps -a | wc -l

    若命令卡死、执行时间过长或异常容器数过多(1000以上),请确认外部是否存在重复不断地创删负载现象,在大量容器频繁创删过程中有可能出现大量异常容器且难以及时清理。

    在此场景下可考虑停止重复创删负载或采用更多的节点去分摊负载,一般等待一段时间后节点会恢复正常,必要情况可执行docker rm {container_id}手动清理异常容器。

分享:

more

网站地图