TiDB 主从集群的数据校验

用户可以使用 TiDB Binlog 搭建 TiDB 的主从集群,Drainer 在把数据同步到 TiDB 时,保存 checkpoint 的同时也会将上下游的 TSO 对应关系保存为 ts-map。在 sync-diff-inspector 中配置 snapshot 即可对 TiDB 主从集群的数据进行校验。

获取 ts-map

在下游 TiDB 中执行以下 SQL 语句:

mysql> select * from tidb_binlog.checkpoint; +---------------------+---------------------------------------------------------------------------------------------------------+ | clusterID | checkPoint | +---------------------+---------------------------------------------------------------------------------------------------------+ | 6711243465327639221 | {"commitTS":409622383615541249,"ts-map":{"master-ts":409621863377928194,"slave-ts":409621863377928345}} | +---------------------+---------------------------------------------------------------------------------------------------------+

从结果中可以获取 ts-map 信息。

配置 snapshot

使用上一步骤获取的 ts-map 信息来配置上下游数据库的 snapshot 信息。其中的 Databases config 部分示例配置如下:

######################### Databases config ######################### # 源数据库实例的配置 [[source-db]] host = "127.0.0.1" port = 4000 user = "root" password = "123456" # 源数据库实例的 id,唯一标识一个数据库实例 instance-id = "source-1" # 使用 TiDB 的 snapshot 功能,对应 ts-map 中的 master-ts snapshot = "409621863377928194" # 目标数据库实例的配置 [target-db] host = "127.0.0.1" port = 4001 user = "root" password = "123456" # 使用 TiDB 的 snapshot 功能,对应 ts-map 中的 slave-ts snapshot = "409621863377928345"

注意事项

  • Drainer 的 db-type 需要设置为 tidb,这样才会在 checkpoint 中保存 ts-map
  • 需要调整 TiKV 的 GC 时间,保证在校验时 snapshot 对应的历史数据不会被执行 GC。建议调整为 1 个小时,在校验后再还原 GC 设置。