滚动升级 Kubernetes 上的 TiDB 集群
滚动更新 TiDB 集群时,会按 PD、TiKV、TiDB 的顺序,串行删除 Pod,并创建新版本的 Pod,当新版本的 Pod 正常运行后,再处理下一个 Pod。
滚动升级过程会自动处理 PD、TiKV 的 Leader 迁移与 TiDB 的 DDL Owner 迁移。因此,在多节点的部署拓扑下(最小环境:PD * 3、TiKV * 3、TiDB * 2),滚动更新 TiKV、PD 不会影响业务正常运行。
对于有连接重试功能的客户端,滚动更新 TiDB 同样不会影响业务。对于无法进行重试的客户端,滚动更新 TiDB 则会导致连接到被关闭节点的数据库连接失效,造成部分业务请求失败。对于这类业务,推荐在客户端添加重试功能或在低峰期进行 TiDB 的滚动升级操作。
滚动更新可以用于升级 TiDB 版本,也可以用于更新集群配置。
通过 TidbCluster CR 升级
如果 TiDB 集群是直接通过 TidbCluster CR 部署的或者通过 Helm 方式部署的然后又切换到了 TidbCluster CR 管理,可以通过下面步骤升级 TiDB 集群。
升级 TiDB 版本
修改集群的 TidbCluster CR 中各组件的镜像配置。
正常情况下,集群内的各组件应该使用相同版本,所以一般修改
spec.version
即可,如果要为集群内不同组件设置不同的版本,可以修改spec.<pd/tidb/tikv/pump/tiflash/ticdc>.version
。version
字段格式如下:spec.version
,格式为imageTag
,例如v5.0.6
spec.<pd/tidb/tikv/pump/tiflash/ticdc>.version
,格式为imageTag
,例如v3.1.0
kubectl edit tc ${cluster_name} -n ${namespace}查看升级进度:
watch kubectl -n ${namespace} get pod -o wide当所有 Pod 都重建完毕进入
Running
状态后,升级完成。
强制升级 TiDB 集群
如果 PD 集群因为 PD 配置错误、PD 镜像 tag 错误、NodeAffinity 等原因不可用,TiDB 集群扩缩容、升级 TiDB 版本和更新 TiDB 集群配置这三种操作都无法成功执行。
这种情况下,可使用 force-upgrade
强制升级集群以恢复集群功能。首先为集群设置 annotation
:
kubectl annotate --overwrite tc ${cluster_name} -n ${namespace} tidb.pingcap.com/force-upgrade=true
然后修改 PD 相关配置,确保 PD 进入正常状态。
修改 TiDB 集群配置
参考配置 TiDB 组件修改集群的 TidbCluster CR 中各组件配置。
kubectl edit tc ${cluster_name} -n ${namespace}查看配置修改后的更新进度:
watch kubectl -n ${namespace} get pod -o wide当所有 Pod 都重建完毕进入
Running
状态后,配置修改完成。