Load Base Split
Load Base Split 是 TiKV 在 4.0 版本引入的特性,旨在解决 Region 访问分布不均匀造成的热点问题,比如小表的全表扫描。
场景描述
在 TiDB 中,当流量集中在某些节点时很容易形成热点。PD 会尝试通过调度 Hot Region,尽可能让这些 Hot Region 均匀分布在各个节点上,以求获得更好的性能。
但是 PD 的调度的最小粒度是 Region。如果集群的热点数目少于节点数目,或者说存在某几个热点流量远高于其他 Region,对 PD 的热点调度来说,能做到的也只是让热点从一个节点转移到另一个节点,而无法让整个集群承担负载。
这种场景在读请求居多的 workload 中尤为常见。例如对小表的全表扫描和索引查找,或者是对一些字段的频繁访问。
在此之前解决此类问题的办法是手动输入命令去拆分一个或几个热点 Region,但是这样的操作存在以下两个问题:
- 均匀拆分 Region 并不一定是最好的选择,请求可能集中在某几个 Key 上,即使均匀拆分后热点可能仍然集中在其中一个 Region 上,可能需要经过多次均匀拆分才能达到目标。
- 人工介入不够及时和易用。
实现原理
Load Base Split 会基于统计信息自动拆分 Region。通过统计去识别出那些读流量在 10s 内持续超过阈值的 Region,并在合适的位置将这些 Region 拆分。在选择拆分的位置时,会尽可能平衡拆分后两个 Region 的访问量,并尽量避免跨 Region 的访问。
Load Base Split 后的 Region 不会被迅速 Merge。一方面,PD 的 MergeChecker
会跳过 hot Region ,另一方面 PD 也会针对心跳信息中的 QPS
去进行判断,避免 Merge 两个 QPS
很高的 Region。
使用方法
目前的 Load Base Split 的控制参数为 split.qps-threshold
。这个阈值的含义是:如果连续 10s 内,某个 Region 每秒的各类读请求之和超过 split.qps-threshold
,那么就对此 Region 进行拆分。
目前默认开启 Load Base Split,但配置相对保守,默认为 3000
。如果想要关闭这个功能,可以将这个阈值调到足够高即可。
目前有两种办法修改配置:
通过 SQL 语句修改,例如:
set config tikv split.qps-threshold=3000通过 TiKV 修改,例如:
curl -X POST "http://ip:status_port/config" -H "accept: application/json" -d '{"split.qps-threshold":"3000"}'
同理,目前也有两种办法查看配置:
通过 SQL 查看,例如:
show config where type='tikv' and name like '%split.qps-threshold%'通过 TiKV 查看,例如:
curl "http://ip:status_port/config"