使用 DM binary 部署 DM 集群

本文将介绍如何使用 DM binary 快速部署 DM 集群。

准备工作

使用下表中的链接下载官方 binary:

安装包操作系统架构SHA256 校验和
https://download.pingcap.org/dm-{version}-linux-amd64.tar.gzLinuxamd64https://download.pingcap.org/dm-{version}-linux-amd64.sha256

下载的文件中包括子目录 bin 和 conf。bin 目录下包含 dm-master、dm-worker、dmctl 以及 Mydumper 的二进制文件。conf 目录下有相关的示例配置文件。

使用样例

假设在两台服务器上部署 MySQL,在一台服务器上部署 TiDB(mocktikv 模式),另外在三台服务器上部署两个 DM-worker 实例和一个 DM-master 实例。各个节点的信息如下:

实例服务器地址
MySQL1192.168.0.1
MySQL2192.168.0.2
TiDB192.168.0.3
DM-master192.168.0.4
DM-worker1192.168.0.5
DM-worker2192.168.0.6

MySQL1 和 MySQL2 中需要开启 binlog。DM-worker1 负责迁移 MySQL1 的数据,DM-worker2 负责迁移 MySQL2 的数据。下面以此为例,说明如何部署 DM。

DM-worker 的部署

DM-worker 需要连接上游 MySQL,且为了安全,强制用户配置加密后的密码。首先使用 dmctl 对 MySQL 的密码进行加密,以密码为 "123456" 为例:

./bin/dmctl --encrypt "123456"
fCxfQ9XKCezSzuCD0Wf5dUD+LsKegSg=

记录该加密后的值,用于下面部署 DM-worker 时的配置。

DM-worker 提供命令行参数和配置文件两种配置方式。

配置方式 1:命令行参数

查看 DM-worker 的命令行参数说明:

./bin/dm-worker --help
Usage of worker:
  -L string
        日志等级,值可以为 "debug","info","warn","error" 或者 "fatal"(默认值:"info")
  -V    输出版本信息
  -checker-backoff-max duration
        任务检查模块中,检查出错误后等待自动恢复的最长时间间隔(默认值:"5m0s",一般情况下不需要修改。如果对该参数的作用没有深入的了解,不建议修改该参数)
  -checker-backoff-rollback duration
        任务检查模块中,调整自动恢复等待时间的间隔(默认值:"5m0s",一般情况下不需要修改,如果对该参数的作用没有深入的了解,不建议修改该参数)
  -checker-check-enable
        是否开启任务状态检查。开启后 DM 会尝试自动恢复因错误而暂停的数据迁移任务(默认值:true)
  -config string
        配置文件的路径
  -log-file string
        日志文件的路径
  -print-sample-config
        打印示例配置
  -purge-expires int
        relay log 的过期时间。DM-worker 会尝试自动删除最后修改时间超过了过期时间的 relay log(单位:小时)
  -purge-interval int
        定期检查 relay log 是否过期的间隔时间(默认值:3600)(单位:秒)
  -purge-remain-space int
        设置最小的可用磁盘空间。当磁盘可用空间小于这个值时,DM-worker 会尝试删除 relay log(默认值:15)(单位:GB)
  -relay-dir string
        存储 relay log 的路径(默认值:"./relay_log")
  -worker-addr string
        DM-worker 的地址

配置方式 2:配置文件

推荐使用配置文件来配置 DM-worker,把以下配置文件内容写入到 conf/dm-worker1.toml 中。

DM-worker 的配置文件:

# Worker Configuration.

# 日志配置
log-level = "info"
log-file = "dm-worker.log"

# DM-worker 的地址
worker-addr = ":8262"

# 作为 MySQL slave 的 server ID,用于获取 MySQL 的 binlog
# 在一个 replication group 中,每个实例(master 和 slave)都应该有唯一的 server ID
# v1.0.2 及以上版本的 DM 会自动生成,不需要手动配置
server-id = 101

# 用于标识一个 replication group 或者 MySQL/MariaDB 实例
source-id = "mysql-replica-01"

# 上游实例类型,值可为 "mysql" 或者 "mariadb"
# v1.0.2 及以上版本的 DM 会自动识别上游实例类型,不需要手动配置
flavor = "mysql"

# MySQL 的连接地址
[from]
host = "192.168.0.1"
user = "root"
password = "fCxfQ9XKCezSzuCD0Wf5dUD+LsKegSg="
port = 3306

在终端中使用下面的命令运行 DM-worker:

bin/dm-worker -config conf/dm-worker1.toml

对于 DM-worker2,修改配置文件中的 source-idmysql-replica-02,并将 from 配置部分修改为 MySQL2 的地址即可。如果因为没有多余的机器,将 DM-worker2 与 DM-worker1 部署在一台机器上,需要把两个 DM-worker 实例部署在不同的路径下,否则保存元信息和 relay log 的默认路径会冲突。

DM-master 的部署

DM-master 提供命令行参数和配置文件两种配置方式。

配置方式 1:命令行参数

DM-master 的命令行参数说明:

./bin/dm-master --help
Usage of dm-master:
  -L string
        日志等级,值可以为 "debug","info","warn","error" 或者 "fatal"(默认值为 "info")
  -V    输出版本信息
  -config string
        配置文件的路径
  -log-file string
        日志文件的路径
  -master-addr string
        DM-master 的地址
  -print-sample-config
        打印出 DM-master 的示例配置

配置方式 2:配置文件

推荐使用配置文件,把以下配置文件内容写入到 conf/dm-master.toml 中。

DM-master 的配置文件:

# Master Configuration.

# 日志配置
log-level = "info"
log-file = "dm-master.log"

# DM-master 监听地址
master-addr = ":8261"

# DM-Worker 的配置
[[deploy]]
# 对应 DM-worker1 配置文件中的 source-id
source-id = "mysql-replica-01"
# DM-worker1 的服务地址
dm-worker = "192.168.0.5:8262"

[[deploy]]
# 对应 DM-worker2 配置文件中的 source-id
source-id = "mysql-replica-02"
# DM-worker2 的服务地址
dm-worker = "192.168.0.6:8262"

在终端中使用下面的命令运行 DM-master:

bin/dm-master -config conf/dm-master.toml

这样,DM 集群就部署成功了。下面创建简单的数据迁移任务来使用 DM 集群。

创建数据迁移任务

假设在 MySQL1 和 MySQL2 实例中有若干个分表,这些分表的结构相同,所在库的名称都以 "sharding" 开头,表名称都以 "t" 开头,并且主键或唯一键不存在冲突(即每张分表的主键或唯一键各不相同)。现在需要把这些分表迁移到 TiDB 中的 db_target.t_target 表中。

首先创建任务的配置文件:

---
name: test
task-mode: all
is-sharding: true

target-database:
  host: "192.168.0.3"
  port: 4000
  user: "root"
  password: "" # 如果密码不为空,也需要配置 dmctl 加密后的密码

mysql-instances:
  - source-id: "mysql-replica-01"
    block-allow-list:  "instance"  # 如果 DM 版本 <= v1.0.6 则使用 black-white-list
    route-rules: ["sharding-route-rules-table", "sharding-route-rules-schema"]
    mydumper-thread: 4             # dump 处理单元用于导出数据的线程数量,在 v1.0.2 版本引入
    loader-thread: 16              # load 处理单元用于导入数据的线程数量,在 v1.0.2 版本引入
    syncer-thread: 16              # sync 处理单元用于复制增量数据的线程数量,在 v1.0.2 版本引入

  - source-id: "mysql-replica-02"
    block-allow-list:  "instance"  # 如果 DM 版本 <= v1.0.6 则使用 black-white-list
    route-rules: ["sharding-route-rules-table", "sharding-route-rules-schema"]
    mydumper-thread: 4             # dump 处理单元用于导出数据的线程数量,在 v1.0.2 版本引入
    loader-thread: 16              # load 处理单元用于导入数据的线程数量,在 v1.0.2 版本引入
    syncer-thread: 16              # sync 处理单元用于复制增量数据的线程数量,在 v1.0.2 版本引入

block-allow-list:                  # 如果 DM 版本 <= v1.0.6 则使用 black-white-list
  instance:
    do-dbs: ["~^sharding[\\d]+"]
    do-tables:
    -  db-name: "~^sharding[\\d]+"
       tbl-name: "~^t[\\d]+"

routes:
  sharding-route-rules-table:
    schema-pattern: sharding*
    table-pattern: t*
    target-schema: db_target
    target-table: t_target

  sharding-route-rules-schema:
    schema-pattern: sharding*
    target-schema: db_target

将以上配置内容写入到 conf/task.yaml 文件中,使用 dmctl 创建任务:

bin/dmctl -master-addr 192.168.0.4:8261
Welcome to dmctl
Release Version: v1.0.0-69-g5134ad1
Git Commit Hash: 5134ad19fbf6c57da0c7af548f5ca2a890bddbe4
Git Branch: master
UTC Build Time: 2019-04-29 09:36:42
Go Version: go version go1.12 linux/amd64
»
» start-task conf/task.yaml
{
    "result": true,
    "msg": "",
    "workers": [
        {
            "result": true,
            "worker": "192.168.0.5:8262",
            "msg": ""
        },
        {
            "result": true,
            "worker": "192.168.0.6:8262",
            "msg": ""
        }
    ]
}

这样就成功创建了一个将 MySQL1 和 MySQL2 实例中的分表数据迁移到 TiDB 的任务。

下载 PDF
产品
TiDB
TiDB Cloud
© 2023 PingCAP. All Rights Reserved.