使用 TiDB Ansible 扩容缩容 TiDB 集群
TiDB 集群可以在不影响线上服务的情况下进行扩容和缩容。
假设拓扑结构如下所示:
Name | Host IP | Services |
---|---|---|
node1 | 172.16.10.1 | PD1 |
node2 | 172.16.10.2 | PD2 |
node3 | 172.16.10.3 | PD3, Monitor |
node4 | 172.16.10.4 | TiDB1 |
node5 | 172.16.10.5 | TiDB2 |
node6 | 172.16.10.6 | TiKV1 |
node7 | 172.16.10.7 | TiKV2 |
node8 | 172.16.10.8 | TiKV3 |
node9 | 172.16.10.9 | TiKV4 |
扩容 TiDB/TiKV 节点
例如,如果要添加两个 TiDB 节点(node101、node102),IP 地址为 172.16.10.101、172.16.10.102,可以进行如下操作:
编辑
inventory.ini
文件和hosts.ini
文件,添加节点信息。编辑
inventory.ini
:[tidb_servers] 172.16.10.4 172.16.10.5 172.16.10.101 172.16.10.102 [pd_servers] 172.16.10.1 172.16.10.2 172.16.10.3 [tikv_servers] 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitored_servers] 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.4 172.16.10.5 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 172.16.10.101 172.16.10.102 [monitoring_servers] 172.16.10.3 [grafana_servers] 172.16.10.3
现在拓扑结构如下所示:
Name Host IP Services node1 172.16.10.1 PD1 node2 172.16.10.2 PD2 node3 172.16.10.3 PD3, Monitor node4 172.16.10.4 TiDB1 node5 172.16.10.5 TiDB2 node101 172.16.10.101 TiDB3 node102 172.16.10.102 TiDB4 node6 172.16.10.6 TiKV1 node7 172.16.10.7 TiKV2 node8 172.16.10.8 TiKV3 node9 172.16.10.9 TiKV4 编辑
hosts.ini
:[servers] 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.4 172.16.10.5 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 172.16.10.101 172.16.10.102 [all:vars] username = tidb ntp_server = pool.ntp.org
初始化新增节点。
在中控机上配置部署机器 SSH 互信及 sudo 规则:
ansible-playbook -i hosts.ini create_users.yml -l 172.16.10.101,172.16.10.102 -u root -k在部署目标机器上安装 NTP 服务:
ansible-playbook -i hosts.ini deploy_ntp.yml -u tidb -b在部署目标机器上初始化节点:
ansible-playbook bootstrap.yml -l 172.16.10.101,172.16.10.102
部署新增节点:
ansible-playbook deploy.yml -l 172.16.10.101,172.16.10.102启动新节点服务:
ansible-playbook start.yml -l 172.16.10.101,172.16.10.102更新 Prometheus 配置并重启:
ansible-playbook rolling_update_monitor.yml --tags=prometheus打开浏览器访问监控平台:
http://172.16.10.3:3000
,监控整个集群和新增节点的状态。可使用同样的步骤添加 TiKV 节点。但如果要添加 PD 节点,则需手动更新一些配置文件。
扩容 PD 节点
例如,如果要添加一个 PD 节点(node103),IP 地址为 172.16.10.103,可以进行如下操作:
编辑
inventory.ini
文件,添加节点信息置于[pd_servers]
主机组最后一行:[tidb_servers] 172.16.10.4 172.16.10.5 [pd_servers] 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.103 [tikv_servers] 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitored_servers] 172.16.10.4 172.16.10.5 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.103 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitoring_servers] 172.16.10.3 [grafana_servers] 172.16.10.3现在拓扑结构如下所示:
Name Host IP Services node1 172.16.10.1 PD1 node2 172.16.10.2 PD2 node3 172.16.10.3 PD3, Monitor node103 172.16.10.103 PD4 node4 172.16.10.4 TiDB1 node5 172.16.10.5 TiDB2 node6 172.16.10.6 TiKV1 node7 172.16.10.7 TiKV2 node8 172.16.10.8 TiKV3 node9 172.16.10.9 TiKV4 初始化新增节点:
ansible-playbook bootstrap.yml -l 172.16.10.103部署新增节点:
ansible-playbook deploy.yml -l 172.16.10.103登录新增的 PD 节点,编辑启动脚本:
{deploy_dir}/scripts/run_pd.sh
移除
--initial-cluster="xxxx" \
配置,注意这里不能在行开头加注释符 #。添加
--join="http://172.16.10.1:2379" \
,IP 地址 (172.16.10.1) 可以是集群内现有 PD IP 地址中的任意一个。在新增 PD 节点中手动启动 PD 服务:
{deploy_dir}/scripts/start_pd.sh使用
pd-ctl
检查新节点是否添加成功:/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d member
滚动升级整个集群:
ansible-playbook rolling_update.yml启动监控服务:
ansible-playbook start.yml -l 172.16.10.103更新 Prometheus 配置并重启:
ansible-playbook rolling_update_monitor.yml --tags=prometheus打开浏览器访问监控平台:
http://172.16.10.3:3000
,监控整个集群和新增节点的状态。
缩容 TiDB 节点
例如,如果要移除一个 TiDB 节点(node5),IP 地址为 172.16.10.5,可以进行如下操作:
停止 node5 节点上的服务:
ansible-playbook stop.yml -l 172.16.10.5编辑
inventory.ini
文件,移除节点信息:[tidb_servers] 172.16.10.4 #172.16.10.5 # 注释被移除节点 [pd_servers] 172.16.10.1 172.16.10.2 172.16.10.3 [tikv_servers] 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitored_servers] 172.16.10.4 #172.16.10.5 # 注释被移除节点 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitoring_servers] 172.16.10.3 [grafana_servers] 172.16.10.3现在拓扑结构如下所示:
Name Host IP Services node1 172.16.10.1 PD1 node2 172.16.10.2 PD2 node3 172.16.10.3 PD3, Monitor node4 172.16.10.4 TiDB1 node5 172.16.10.5 TiDB2 已删除 node6 172.16.10.6 TiKV1 node7 172.16.10.7 TiKV2 node8 172.16.10.8 TiKV3 node9 172.16.10.9 TiKV4 更新 Prometheus 配置并重启:
ansible-playbook rolling_update_monitor.yml --tags=prometheus打开浏览器访问监控平台:
http://172.16.10.3:3000
,监控整个集群的状态。
缩容 TiKV 节点
例如,如果要移除一个 TiKV 节点(node9),IP 地址为 172.16.10.9,可以进行如下操作:
使用
pd-ctl
从集群中移除节点:查看 node9 节点的 store id:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d store从集群中移除 node9,假如 store id 为 10:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d store delete 10
使用 Grafana 或者
pd-ctl
检查节点是否下线成功(下线需要一定时间,下线节点的状态变为 Tombstone 就说明下线成功了):/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d store 10下线成功后,停止 node9 上的服务:
ansible-playbook stop.yml -l 172.16.10.9编辑
inventory.ini
文件,移除节点信息:[tidb_servers] 172.16.10.4 172.16.10.5 [pd_servers] 172.16.10.1 172.16.10.2 172.16.10.3 [tikv_servers] 172.16.10.6 172.16.10.7 172.16.10.8 #172.16.10.9 # 注释被移除节点 [monitored_servers] 172.16.10.4 172.16.10.5 172.16.10.1 172.16.10.2 172.16.10.3 172.16.10.6 172.16.10.7 172.16.10.8 #172.16.10.9 # 注释被移除节点 [monitoring_servers] 172.16.10.3 [grafana_servers] 172.16.10.3现在拓扑结构如下所示:
Name Host IP Services node1 172.16.10.1 PD1 node2 172.16.10.2 PD2 node3 172.16.10.3 PD3, Monitor node4 172.16.10.4 TiDB1 node5 172.16.10.5 TiDB2 node6 172.16.10.6 TiKV1 node7 172.16.10.7 TiKV2 node8 172.16.10.8 TiKV3 node9 172.16.10.9 TiKV4 已删除 更新 Prometheus 配置并重启:
ansible-playbook rolling_update_monitor.yml --tags=prometheus打开浏览器访问监控平台:
http://172.16.10.3:3000
,监控整个集群的状态。
缩容 PD 节点
例如,如果要移除一个 PD 节点(node2),IP 地址为 172.16.10.2,可以进行如下操作:
使用
pd-ctl
从集群中移除节点:查看 node2 节点的 name:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d member从集群中移除 node2,假如 name 为 pd2:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d member delete name pd2
使用
pd-ctl
检查节点是否下线成功(PD 下线会很快,结果中没有 node2 节点信息即为下线成功):/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://172.16.10.1:2379" -d member下线成功后,停止 node2 上的服务:
ansible-playbook stop.yml -l 172.16.10.2编辑
inventory.ini
文件,移除节点信息:[tidb_servers] 172.16.10.4 172.16.10.5 [pd_servers] 172.16.10.1 #172.16.10.2 # 注释被移除节点 172.16.10.3 [tikv_servers] 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitored_servers] 172.16.10.4 172.16.10.5 172.16.10.1 #172.16.10.2 # 注释被移除节点 172.16.10.3 172.16.10.6 172.16.10.7 172.16.10.8 172.16.10.9 [monitoring_servers] 172.16.10.3 [grafana_servers] 172.16.10.3现在拓扑结构如下所示:
Name Host IP Services node1 172.16.10.1 PD1 node2 172.16.10.2 PD2 已删除 node3 172.16.10.3 PD3, Monitor node4 172.16.10.4 TiDB1 node5 172.16.10.5 TiDB2 node6 172.16.10.6 TiKV1 node7 172.16.10.7 TiKV2 node8 172.16.10.8 TiKV3 node9 172.16.10.9 TiKV4 滚动升级整个集群:
ansible-playbook rolling_update.yml更新 Prometheus 配置并重启:
ansible-playbook rolling_update_monitor.yml --tags=prometheus打开浏览器访问监控平台:
http://172.16.10.3:3000
,监控整个集群的状态。