TiDB Lightning 常见问题

本文列出了一些使用 TiDB Lightning 时可能会遇到的问题与解决办法。

TiDB Lightning 对 TiDB/TiKV/PD 的最低版本要求是多少?

TiDB Lightning 的版本应与集群相同。最低版本要求是 2.0.9,但建议使用最新的稳定版本 3.0。

TiDB Lightning 支持导入多个库吗?

支持。

TiDB Lightning 对下游数据库的账号权限要求是怎样的?

TiDB Lightning 需要以下权限:

  • SELECT
  • UPDATE
  • ALTER
  • CREATE
  • DROP

如果选择 TiDB-backend 模式,或目标数据库用于存储断点,则 TiBD Lightning 额外需要以下权限:

  • INSERT
  • DELETE

Importer-backend 无需以上两个权限,因为数据直接被 Ingest 到 TiKV 中,所以绕过了 TiDB 的权限系统。只要 TiKV、TiKV Importer 和 TiDB Lightning 的端口在集群之外不可访问,就可以保证安全。

如果 TiDB Lightning 配置项 checksum = true,则 TiDB Lightning 需要有下游 TiDB admin 用户权限。

TiDB Lightning 在导数据过程中某个表报错了,会影响其他表吗?进程会马上退出吗?

如果只是个别表报错,不会影响整体。报错的那个表会停止处理,继续处理其他的表。

如何正确重启 TiDB Lightning?

根据 tikv-importer 的状态,重启 TiDB Lightning 的基本顺序如下:

如果 tikv-importer 仍在运行:

  1. 结束 tidb-lightning 进程
  2. 执行修改操作(如修复数据源、更改设置、更换硬件等)。
  3. 如果上面的修改操作更改了任何表,你还需要清除对应的断点
  4. 重启 tidb-lightning

如果 tikv-importer 需要重启:

  1. 结束 tidb-lightning 进程
  2. 结束 tikv-importer 进程
  3. 执行修改操作(如修复数据源、更改设置、更换硬件等)。
  4. 重启 tikv-importer
  5. 重启 tidb-lightning 并等待,直到程序因校验和错误(如果有的话)而失败
    • 重启 tikv-importer 将清除所有仍在写入的引擎文件,但是 tidb-lightning 并不会感知到该操作。从 v3.0 开始,最简单的方法是让 tidb-lightning 继续,然后再重试。
  6. 清除失败的表及断点
  7. 再次重启 tidb-lightning

如何校验导入的数据的正确性?

TiDB Lightning 默认会对导入数据计算校验和 (checksum),如果校验和不一致就会停止导入该表。可以在日志看到相关的信息。

TiDB 也支持从 MySQL 命令行运行 ADMIN CHECKSUM TABLE 指令来计算校验和。

ADMIN CHECKSUM TABLE `schema`.`table`;
+---------+------------+---------------------+-----------+-------------+ | Db_name | Table_name | Checksum_crc64_xor | Total_kvs | Total_bytes | +---------+------------+---------------------+-----------+-------------+ | schema | table | 5505282386844578743 | 3 | 96 | +---------+------------+---------------------+-----------+-------------+ 1 row in set (0.01 sec)

TiDB Lightning 支持哪些格式的数据源?

TiDB Lightning 只支持两种格式的数据源:

  1. Mydumper 生成的 SQL dump
  2. 储存在本地文件系统的 CSV 文件

我已经在下游创建好库和表了,TiDB Lightning 可以忽略建库建表操作吗?

可以。在配置文档中的 [mydumper] 部分将 no-schema 设置为 true 即可。no-schema=true 会默认下游已经创建好所需的数据库和表,如果没有创建,会报错。

有些不合法的数据,能否通过关掉严格 SQL 模式 (Strict SQL Mode) 来导入?

可以。Lightning 默认的 sql_mode"STRICT_TRANS_TABLES,NO_ENGINE_SUBSTITUTION"

这个设置不允许一些非法的数值,例如 1970-00-00 这样的日期。可以修改配置文件 [tidb] 下的 sql-mode 值。

... [tidb] sql-mode = "" ...

可以启用一个 tikv-importer,同时有多个 tidb-lightning 进程导入数据吗?

只要每个 Lightning 操作的表互不相同就可以。

如何正确结束 tikv-importer 进程?

根据部署方式,选择相应操作结束进程

  • 使用 TiDB Ansible 部署:在 Importer 的服务器上运行 scripts/stop_importer.sh

  • 手动部署:如果 tikv-importer 正在前台运行,可直接按 Ctrl+C 退出。否则,可通过 ps aux | grep tikv-importer 获取进程 ID,然后通过 kill «pid» 结束进程。

如何正确结束 tidb-lightning 进程?

根据部署方式,选择相应操作结束进程

  • 使用 TiDB Ansible 部署:在 Lightning 的服务器上运行 scripts/stop_lightning.sh

  • 手动部署:如果 tidb-lightning 正在前台运行,可直接按 Ctrl+C 退出。否则,可通过 ps aux | grep tidb-lightning 获取进程 ID,然后通过 kill -2 «pid» 结束进程。

tidb-lightning 在服务器上运行,进程莫名其妙地退出了,是怎么回事呢?

这种情况可能是启动方式不正确,导致收到 SIGHUP 信号而退出。此时 tidb-lightning.log 通常有如下日志:

[2018/08/10 07:29:08.310 +08:00] [INFO] [main.go:41] ["got signal to exit"] [signal=hangup]

不推荐在命令行中直接使用 nohup 启动进程,推荐使用脚本启动 tidb-lightning

为什么用过 TiDB Lightning 之后,TiDB 集群变得又慢又耗 CPU?

如果 tidb-lightning 曾经异常退出,集群可能仍留在“导入模式” (import mode),不适合在生产环境工作。此时需要强制切换回“普通模式” (normal mode):

tidb-lightning-ctl --switch-mode=normal

TiDB Lightning 可以使用千兆网卡吗?

使用 TiDB Lightning 建议配置万兆网卡。不推荐使用千兆网卡,尤其是在部署 tikv-importer 的机器上。

千兆网卡的总带宽只有 120 MB/s,而且需要与整个 TiKV 集群共享。在使用 TiDB Lightning 导入时,极易用尽所有带宽,继而因 PD 无法联络集群使集群断连。为了避免这种情况,你可以在 tikv-importer 的配置文件限制上传速度

[import] # Importer 上传至 TiKV 的最大速度(字节/秒)。 # 建议将该速度设为 100 MB/s 或更小。 upload-speed-limit = "100MB"

为什么 TiDB Lightning 需要在 TiKV 集群预留这么多空间?

当使用默认的 3 副本设置时,TiDB Lightning 需要 TiKV 集群预留数据源大小 6 倍的空间。多出来的 2 倍是算上下列没储存在数据源的因素的保守估计:

  • 索引会占据额外的空间
  • RocksDB 的空间放大效应

TiDB Lightning 使用过程中是否可以重启 TiKV Importer?

不能,Importer 会在内存中存储一些引擎文件,Importer 重启后,tidb-lightning 会因连接失败而停止。此时,你需要清除失败的断点,因为这些 Importer 特有的信息丢失了。你可以在之后重启 Lightning

如何清除所有与 TiDB Lightning 相关的中间数据?

  1. 删除断点文件。

    tidb-lightning-ctl --config conf/tidb-lightning.toml --checkpoint-remove=all

    如果出于某些原因而无法运行该命令,你可以尝试手动删除 /tmp/tidb_lightning_checkpoint.pb 文件。

  2. 如果使用 Local-backend,删除配置中 sorted-kv-dir 对应的目录;如果使用 Importer-backend,删除 tikv-importer 所在机器上的整个 import 文件目录。

  3. 如果需要的话,删除 TiDB 集群上创建的所有表和库。

TiDB Lightning 导入速度太慢

TiDB Lightning 的正常速度为每条线程每 2 分钟导入一个 256 MB 的数据文件,如果速度远慢于这个数值就是有问题。导入的速度可以检查日志提及 restore chunk … takes 的记录,或者观察 Grafana 的监控信息。

导入速度太慢一般有几个原因:

原因 1region-concurrency 设定太高,线程间争用资源反而减低了效率。

  1. 从日志的开头搜寻 region-concurrency 能知道 Lightning 读到的参数是多少。
  2. 如果 Lightning 与其他服务(如 Importer)共用一台服务器,必需手动region-concurrency 设为该服务器 CPU 数量的 75%。
  3. 如果 CPU 设有限额(例如从 Kubernetes 指定的上限),Lightning 可能无法自动判断出来,此时亦需要手动调整 region-concurrency

原因 2:表结构太复杂。

每条索引都会额外增加键值对。如果有 N 条索引,实际导入的大小就差不多是 Mydumper 文件的 N+1 倍。如果索引不太重要,可以考虑先从 schema 去掉,待导入完成后再使用 CREATE INDEX 加回去。

原因 3:Lightning 版本太旧。

试试最新的版本吧!可能会有改善。

checksum failed: checksum mismatched remote vs local

原因:本地数据源跟目标数据库某个表的校验和不一致。这通常有更深层的原因:

  1. 这张表可能本身已有数据,影响最终结果。

  2. 如果目标数据库的校验和全是 0,表示没有发生任何导入,有可能是集群太忙无法接收任何数据。

  3. 如果数据源是由机器生成而不是从 Mydumper 备份的,需确保数据符合表的限制,例如:

    • 自增 (AUTO_INCREMENT) 的列需要为正数,不能为 0。
    • 唯一键和主键 (UNIQUE and PRIMARY KEYs) 不能有重复的值。
  4. 如果 TiDB Lightning 之前失败停机过,但没有正确重启,可能会因为数据不同步而出现校验和不一致。

解决办法

  1. 使用 tidb-lightning-ctl 把出错的表删除,然后重启 Lightning 重新导入那些表。

    tidb-lightning-ctl --config conf/tidb-lightning.toml --checkpoint-error-destroy=all
  2. 把断点存放在外部数据库(修改 [checkpoint] dsn),减轻目标集群压力。

  3. 参考如何正确重启 TiDB Lightning中的解决办法。

Checkpoint for … has invalid status:(错误码)

原因断点续传已启用。Lightning 或 Importer 之前发生了异常退出。为了防止数据意外损坏,Lightning 在错误解决以前不会启动。

错误码是小于 25 的整数,可能的取值是 0、3、6、9、12、14、15、17、18、20、21。整数越大,表示异常退出所发生的步骤在导入流程中越晚。

解决办法

如果错误原因是非法数据源,使用 tidb-lightning-ctl 删除已导入数据,并重启 Lightning。

tidb-lightning-ctl --config conf/tidb-lightning.toml --checkpoint-error-destroy=all

其他解决方法请参考断点续传的控制

ResourceTemporarilyUnavailable("Too many open engines …: …")

原因:并行打开的引擎文件 (engine files) 超出 tikv-importer 里的限制。这可能由配置错误引起。即使配置没问题,如果 tidb-lightning 曾经异常退出,也有可能令引擎文件残留在打开的状态,占据可用的数量。

解决办法

  1. 提高 tikv-importer.tomlmax-open-engines 的值。这个设置主要由内存决定,计算公式为:

    最大内存使用量 ≈ max-open-engines × write-buffer-size × max-write-buffer-number

  2. 降低 table-concurrency + index-concurrency,使之低于 max-open-engines

  3. 重启 tikv-importer 来强制移除所有引擎文件 (默认值为 ./data.import/)。这样也会丢弃导入了一半的表,所以启动 Lightning 前必须清除过期的断点记录:

    tidb-lightning-ctl --config conf/tidb-lightning.toml --checkpoint-error-destroy=all

cannot guess encoding for input file, please convert to UTF-8 manually

原因:Lightning 只支持 UTF-8 和 GB-18030 编码的表架构。此错误代表数据源不是这里任一个编码。也有可能是文件中混合了不同的编码,例如,因为在不同的环境运行过 ALTER TABLE,使表架构同时出现 UTF-8 和 GB-18030 的字符。

解决办法

  1. 编辑数据源,保存为纯 UTF-8 或 GB-18030 的文件。
  2. 手动在目标数量库创建所有的表,然后设置 [mydumper] no-schema = true 跳过创建表的步骤。
  3. 设置 [mydumper] character-set = "binary" 跳过这个检查。但是这样可能使数据库出现乱码。

[sql2kv] sql encode error = [types:1292]invalid time format: '{1970 1 1 …}'

原因: 一个 timestamp 类型的时间戳记录了不存在的时间值。时间值不存在是由于夏时制切换或超出支持的范围(1970 年 1 月 1 日至 2038 年 1 月 19 日)。

解决办法:

  1. 确保 Lightning 与数据源时区一致。

    • 使用 TiDB Ansible 部署的话,修正 [inventory.ini] 下的 timezone 变量。

      # inventory.ini [all:vars] timezone = Asia/Shanghai
    • 手动部署的话,通过设定 $TZ 环境变量强制时区设定。

      强制使用 Asia/Shanghai 时区:

      TZ='Asia/Shanghai' bin/tidb-lightning -config tidb-lightning.toml
  2. 导出数据时,必须加上 --skip-tz-utc 选项。

  3. 确保整个集群使用的是同一最新版本的 tzdata (2018i 或更高版本)。

    如果你使用的是 CentOS 机器,你可以运行 yum info tzdata 命令查看 tzdata 的版本及是否有更新。然后运行 yum upgrade tzdata 命令升级 tzdata

[Error 8025: entry too large, the max entry size is 6291456]

原因:TiDB Lightning 生成的单行 KV 超过了 TiDB 的限制。

解决办法:

目前无法绕过 TiDB 的限制,只能忽略这张表,确保其它表顺利导入。

restore table test.district failed: unknown columns in header [...]

出现该错误通常是因为 CSV 格式的数据文件不包含 header(第一行也是数据),因此需要在 TiDB Lightning 的配置文件中增加如下配置项:

[mydumper.csv] header = false