从 TiDB 集群迁移数据至兼容 MySQL 的数据库
本文档介绍如何将数据从 TiDB 集群迁移至兼容 MySQL 的数据库,如 Aurora、MySQL、MariaDB 等。本文将模拟整个迁移过程,具体包括以下四个步骤:
- 搭建环境
- 迁移全量数据
- 迁移增量数据
- 平滑切换业务
第 1 步:搭建环境
部署上游 TiDB 集群。
使用 TiUP Playground 快速部署上下游测试集群。更多部署信息,请参考 TiUP 官方文档。
# 创建上游集群 tiup playground --db 1 --pd 1 --kv 1 --tiflash 0 --ticdc 1 # 查看集群状态 tiup status部署下游 MySQL 实例。
在实验环境中,可以使用 Docker 快速部署 MySQL 实例,执行如下命令:
docker run --name some-mysql -e MYSQL_ROOT_PASSWORD=my-secret-pw -p 3306:3306 -d mysql在生产环境中,可以参考 Installing MySQL 来部署 MySQL 实例。
模拟业务负载。
在测试实验环境下,可以使用 go-tpc 向上游 TiDB 集群写入数据,以让 TiDB 产生事件变更数据。执行如下命令,将首先在上游 TiDB 创建名为 tpcc 的数据库,然后使用 TiUP bench 写入数据到刚创建的 tpcc 数据库中。
tiup bench tpcc -H 127.0.0.1 -P 4000 -D tpcc --warehouses 4 prepare tiup bench tpcc -H 127.0.0.1 -P 4000 -D tpcc --warehouses 4 run --time 300s关于 go-tpc 的更多详细内容,可以参考如何对 TiDB 进行 TPC-C 测试。
第 2 步:迁移全量数据
搭建好测试环境后,可以使用 Dumpling 工具导出上游集群的全量数据。
关闭 GC (Garbage Collection)。
为了保证增量迁移过程中新写入的数据不丢失,在开始全量导出之前,需要关闭上游集群的垃圾回收 (GC) 机制,以确保系统不再清理历史数据。
执行如下命令关闭 GC:
MySQL [test]> SET GLOBAL tidb_gc_enable=FALSE;Query OK, 0 rows affected (0.01 sec)查询
tidb_gc_enable
的取值,判断 GC 是否已关闭:MySQL [test]> SELECT @@global.tidb_gc_enable;+-------------------------+: | @@global.tidb_gc_enable | +-------------------------+ | 0 | +-------------------------+ 1 row in set (0.00 sec)备份数据。
使用 Dumpling 导出 SQL 格式的数据:
tiup dumpling -u root -P 4000 -h 127.0.0.1 --filetype sql -t 8 -o ./dumpling_output -r 200000 -F256MiB导出完毕后,执行如下命令查看导出数据的元信息,metadata 文件中的
Pos
就是导出快照的 TSO,将其记录为 BackupTS:cat dumpling_output/metadataStarted dump at: 2022-06-28 17:49:54 SHOW MASTER STATUS: Log: tidb-binlog Pos: 434217889191428107 GTID: Finished dump at: 2022-06-28 17:49:57
恢复数据。
使用开源工具 MyLoader 导入数据到下游 MySQL。MyLoader 的安装和详细用例参见 MyDumpler/MyLoader。执行以下指令,将 Dumpling 导出的上游全量数据导入到下游 MySQL 实例:
myloader -h 127.0.0.1 -P 3306 -d ./dumpling_output/(可选)校验数据。
通过 sync-diff-inspector 工具,可以验证上下游数据在某个时间点的一致性。
sync_diff_inspector -C ./config.yaml关于 sync-diff-inspector 的配置方法,请参考配置文件说明。在本文中,相应的配置如下:
# Diff Configuration. ######################### Datasource config ######################### [data-sources] [data-sources.upstream] host = "127.0.0.1" # 需要替换为实际上游集群 ip port = 4000 user = "root" password = "" snapshot = "434217889191428107" # 配置为实际的备份时间点(参见「备份」小节的 BackupTS) [data-sources.downstream] host = "127.0.0.1" # 需要替换为实际下游集群 ip port = 3306 user = "root" password = "" ######################### Task config ######################### [task] output-dir = "./output" source-instances = ["upstream"] target-instance = "downstream" target-check-tables = ["*.*"]
第 3 步:迁移增量数据
部署 TiCDC。
完成全量数据迁移后,就可以部署并配置 TiCDC 集群同步增量数据,实际生产集群中请参考 TiCDC 部署。本文在创建测试集群时,已经启动了一个 TiCDC 节点,因此可以直接进行 changefeed 的配置。
创建同步任务。
在上游集群中,执行以下命令创建从上游到下游集群的同步链路:
tiup ctl:<cluster-version> cdc changefeed create --pd=http://127.0.0.1:2379 --sink-uri="mysql://root:@127.0.0.1:3306" --changefeed-id="upstream-to-downstream" --start-ts="434217889191428107"以上命令中:
--pd
:实际的上游集群的地址--sink-uri
:同步任务下游的地址--changefeed-id
:同步任务的 ID,格式需要符合正则表达式^[a-zA-Z0-9]+(\-[a-zA-Z0-9]+)*$
--start-ts
:TiCDC 同步的起点,需要设置为实际的备份时间点,也就是第 2 步:迁移全量数据中 “备份数据” 提到的 BackupTS
更多关于 changefeed 的配置,请参考同步任务配置文件描述。
重新开启 GC。
TiCDC 可以保证 GC 只回收已经同步的历史数据。因此,创建完从上游到下游集群的 changefeed 之后,就可以执行如下命令恢复集群的垃圾回收功能。详情请参考 TiCDC GC safepoint 的完整行为。
执行如下命令打开 GC:
MySQL [test]> SET GLOBAL tidb_gc_enable=TRUE;Query OK, 0 rows affected (0.01 sec)查询
tidb_gc_enable
的取值,判断 GC 是否已开启:MySQL [test]> SELECT @@global.tidb_gc_enable;+-------------------------+ | @@global.tidb_gc_enable | +-------------------------+ | 1 | +-------------------------+ 1 row in set (0.00 sec)
第 4 步:平滑切换业务
通过 TiCDC 创建上下游的同步链路后,原集群的写入数据会以非常低的延迟同步到新集群,此时可以逐步将读流量迁移到新集群了。观察一段时间,如果新集群表现稳定,就可以将写流量接入新集群,步骤如下:
停止上游集群的写业务。确认上游数据已全部同步到下游后,停止上游到下游集群的 changefeed。
# 停止旧集群到新集群的 changefeed tiup cdc cli changefeed pause -c "upstream-to-downstream" --pd=http://172.16.6.122:2379 # 查看 changefeed 状态 tiup cdc cli changefeed list[ { "id": "upstream-to-downstream", "summary": { "state": "stopped", # 需要确认这里的状态为 stopped "tso": 434218657561968641, "checkpoint": "2022-06-28 18:38:45.685", # 确认这里的时间晚于停写的时间 "error": null } } ]将写业务迁移到下游集群,观察一段时间后,等新集群表现稳定,便可以弃用原集群。