你正在查看已归档的 TiDB 文档,该文档不再更新。

查看最新 LTS 版本文档

灰度升级 TiDB Operator

如果你希望升级 TiDB Operator 至新版本,同时希望控制升级的影响范围,避免对整个 Kubernetes 集群中的所有 TiDB 集群产生不可预知的影响,可以采用灰度升级的方式升级 TiDB Operator。使用灰度升级后,你可以在灰度部署的集群中确认 TiDB Operator 升级的影响,在确认 TiDB Operator 新版本稳定工作后,再正常升级 TiDB Operator

TiDB Operator 目前只支持对部分组件进行灰度升级,即 tidb-controller-managertidb-scheduler,不支持对增强型 StatefulSet 控制器准入控制器进行灰度升级。

在使用 TiDB Operator 时,tidb-scheduler 并不是必须使用。你可以参考 tidb-scheduler 与 default-scheduler,确认是否需要部署 tidb-scheduler

第 1 步:为当前 TiDB Operator 配置 selector 并执行升级

在当前 TiDB Operator 的 values.yaml 中,添加如下 selector 配置:

controllerManager: selector: - version!=canary

参考在线升级离线升级,对当前 TiDB Operator 执行升级步骤:

helm upgrade tidb-operator pingcap/tidb-operator --version=${chart_version} -f ${HOME}/tidb-operator/values-tidb-operator.yaml

第 2 步:部署灰度的 TiDB Operator

  1. 参考在线部署 TiDB Operator 的第 1 步和第 2 步,获取想要部署的灰度版本 TiDB Operator 的 values.yaml 文件,并在 values.yaml 中添加如下配置。

    controllerManager: selector: - version=canary appendReleaseSuffix: true #scheduler: # create: false # 如果你不需要 `tidb-scheduler`,将这个值设置为 false advancedStatefulset: create: false admissionWebhook: create: false

    appendReleaseSuffix 需要设置为 true

    如果不需要灰度升级 tidb-scheduler,可以设置 scheduler.create: false。如果需要灰度升级 tidb-scheduler,配置 scheduler.create: true,会创建一个名字为 {{ .scheduler.schedulerName }}-{{.Release.Name}} 的 scheduler。如果要在灰度部署的 TiDB Operator 中使用这个 scheduler,需要配置 TidbCluster CR 中的 spec.schedulerName 为这个 scheduler 的名字。

    由于灰度升级不支持增强型 StatefulSet 控制器和准入控制器,必须配置 advancedStatefulset.create: falseadmissionWebhook.create: false

    如需了解灰度部署相关参数的详细信息,可参考使用多套 TiDB Operator 单独管理不同的 TiDB 集群 - 相关参数

  2. 不同的 namespace 中(例如 tidb-admin-canary),使用不同的 Helm Release Name(例如 helm install tidb-operator-canary ...)部署灰度的 TiDB Operator:

    helm install tidb-operator-canary pingcap/tidb-operator --namespace=tidb-admin-canary --version=${operator_version} -f ${HOME}/tidb-operator/${operator_version}/values-tidb-operator.yaml

    ${operator_version} 替换为你需要灰度升级到的 TiDB Operator 版本号。

第 3 步:测试灰度的 TiDB Operator (可选)

在正常升级 TiDB Operator 前,可以测试灰度部署的 TiDB Operator 是否稳定工作。支持测试的组件有 tidb-controller-manager 和 tidb-scheduler。

  1. 如果需要测试灰度部署的 tidb-controller-manager,可通过如下命令,为某个 TiDB 集群设置 label:

    kubectl -n ${namespace} label tc ${cluster_name} version=canary

    通过查看已经部署的两个 tidb-controller-manager 的日志,可以确认这个设置 label 的 TiDB 集群已经由灰度部署的 TiDB Operator 管理。查看日志的步骤如下:

    1. 查看当前 TiDB Operator 的 tidb-controller-manager 的日志:

      kubectl -n tidb-admin logs tidb-controller-manager-55b887bdc9-lzdwv

      预期的输出如下:

      I0305 07:52:04.558973 1 tidb_cluster_controller.go:148] TidbCluster has been deleted tidb-cluster-1/basic1
    2. 查看灰度部署的 TiDB Operator 的 tidb-controller-manager 的日志:

      kubectl -n tidb-admin-canary logs tidb-controller-manager-canary-6dcb9bdd95-qf4qr

      预期的输出如下:

      I0113 03:38:43.859387 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-1/basic1] updated successfully
  2. 如果需要测试灰度部署的 tidb-scheduler,可通过如下命令,为某个 TiDB 集群修改 spec.schedulerNametidb-scheduler-canary

    kubectl -n ${namespace} edit tc ${cluster_name}

    修改后,集群内各组件会滚动升级,通过查看灰度部署的 TiDB Operator 的 tidb-scheduler 的日志,可以确认集群已经使用灰度 tidb-scheduler

    kubectl -n tidb-admin-canary logs tidb-scheduler-canary-7f7b6c7c6-j5p2j -c tidb-scheduler
  3. 测试完成后,可撤销前两步中的修改,重新使用当前的 TiDB Operator 来管理 TiDB 集群。

    kubectl -n ${namespace} label tc ${cluster_name} version-
    kubectl -n ${namespace} edit tc ${cluster_name}

第 4 步:正常升级 TiDB Operator

确认灰度部署的 TiDB Operator 已经正常工作后,可以正常升级 TiDB Operator。

  1. 删除灰度部署的 TiDB Operator:

    helm -n tidb-admin-canary uninstall ${release_name}
  2. 正常升级 TiDB Operator