Kubernetes 上的 TiDB 集群环境需求

本文介绍在 Kubernetes 上部署 TiDB 集群的软硬件环境需求。

软件版本要求

软件名称版本
DockerDocker CE 18.09.6
Kubernetesv1.12.5+
CentOSCentOS 7.6,内核要求为 3.10.0-957 或之后版本

内核参数设置

配置项设置值
net.core.somaxconn32768
vm.swappiness0
net.ipv4.tcp_syncookies0
net.ipv4.ip_forward1
fs.file-max1000000
fs.inotify.max_user_watches1048576
fs.inotify.max_user_instances1024
net.ipv4.conf.all.rp_filter1
net.ipv4.neigh.default.gc_thresh180000
net.ipv4.neigh.default.gc_thresh290000
net.ipv4.neigh.default.gc_thresh3100000
net.bridge.bridge-nf-call-iptables1
net.bridge.bridge-nf-call-arptables1
net.bridge.bridge-nf-call-ip6tables1

在设置 net.bridge.bridge-nf-call-* 这几项参数时,如果选项报错,则可通过如下命令检查是否已经加载该模块:

lsmod|grep br_netfilter

如果没有加载,则执行如下命令加载:

modprobe br_netfilter

同时还需要关闭每个部署 Kubernetes 节点的 swap,执行如下命令:

swapoff -a

执行如下命令检查 swap 是否已经关闭:

free -m

如果执行命令后输出显示 swap 一列全是 0,则表明 swap 已经关闭。

此外,为了永久性地关闭 swap,还需要将 /etc/fstab 中 swap 相关的条目全部删除。

在上述内容都设置完成后,还需要检查是否给机器配置了 SMP IRQ Affinity,也就是将各个设备对应的中断号分别绑定到不同的 CPU 上,以防止所有中断请求都落在同一个 CPU 上而引发性能瓶颈。对于 TiDB 集群来说,网卡处理包的速度对集群的吞吐率影响很大。因此下文主要描述如何将网卡中断号绑定到特定的 CPU 上,充分利用多核的优势来提高集群的吞吐率。首先可以通过以下命令来查看网卡对应的中断号:

cat /proc/interrupts|grep <iface-name>|awk '{print $1,$NF}'

以上命令输出的第一列是中断号,第二列是设备名称。如果是多队列网卡,上面的命令会显示多行信息,网卡的每个队列对应一个中断号。通过以下命令可以查看该中断号被绑定到哪个 CPU 上:

cat /proc/irq/<ir_num>/smp_affinity

上面命令输出 CPU 序号对应的十六进制值。输出结果欠直观。具体计算方法可参见 SMP IRQ Affinity 文档。

cat /proc/irq/<ir_num>/smp_affinity_list

上面命令输出 CPU 序号对应的十进制值,输出结果较为直观。

如果多队列网卡对应的所有中断号都已被绑定到不同的 CPU 上,那么该机器的 SMP IRQ Affinity 配置是正确的。如果中断号都落在同一个 CPU 上,则需要进行调整。调整的方式有以下两种:

  • 方法一:开启 irqbalance 服务。在 centos7 系统上的开启命令如下:

    systemctl start irqbalance
  • 方法二:禁用 irqbalance,自定义中断号和 CPU 的绑定关系。详情参见脚本 set_irq_affinity.sh

上文所描述的是处理多队列网卡和多核心的场景。单队列网卡和多核的场景则有不同的处理方式。在这种场景下,可以使用 RPS/RFS 在软件层面模拟实现硬件的网卡多队列功能 (RSS)。此时不能使用方法一所述的 irqbalance 服务,而是通过使用方法二提供的脚本来设置 RPS。RFS 的配置可以参考这里

硬件和部署要求

与使用 binary 方式部署 TiDB 集群一致,要求选用 Intel x86-64 架构的 64 位通用硬件服务器,使用万兆网卡。关于 TiDB 集群在物理机上的具体部署需求,参考 TiDB 软件和硬件环境建议配置

对于服务器 disk、memory、CPU 的选择要根据对集群的容量规划以及部署拓扑来定。线上 Kubernetes 集群部署为了保证高可用,一般需要部署三个 master 节点、三个 etcd 节点以及若干个 worker 节点。同时,为了充分利用机器资源,master 节点一般也充当 worker 节点(也就是 master 节点上也可以调度负载)。通过 kubelet 设置预留资源来保证机器上的系统进程以及 Kubernetes 的核心进程在工作负载很高的情况下仍然有足够的资源来运行,从而保证整个系统的稳定。

下面按 3 Kubernetes master + 3 etcd + 若干 worker 节点部署方案进行分析。Kubernetes 的多 master 节点高可用部署可参考官方文档

Kubernetes 系统资源要求

  • 每台机器需要一块比较大的 SAS 盘(至少 1T),这块盘用来存 Docker 和 kubelet 的数据目录。Docker 的数据主要包括镜像和容器日志数据,kubelet 主要占盘的数据是 emptyDir 所使用的数据。

  • 如果需要部署 Kubernetes 集群的监控系统, 且监控数据需要落盘,则也需要考虑为 Prometheus 准备一块 SAS 盘,后面日志监控系统也需要大的 SAS 盘,同时考虑到机器采购最好是同构的这一因素,因此每台机器最好有两块大的 SAS 盘。

  • etcd 的分布建议是和 Kubernetes master 节点保持一致,即有多少个 master 节点就部署多少个 etcd 节点。etcd 数据建议使用 SSD 盘存放。

TiDB 集群资源需求

TiDB 集群由 PD、TiKV、TiDB 三个组件组成,在做容量规划的时候一般按照可以支持多少套 TiDB 集群来算。这里按照标准的 TiDB 集群(3 个 PD + 3 个 TiKV + 2 个 TiDB)来算,下面是对每个组件规划的一种建议:

  • PD 组件:PD 占用资源较少,这种集群规模下分配 2C 4GB 即可,占用少量本地盘。

    为了便于管理,可以将所有集群的 PD 都放在 master 节点,比如需要支持 5 套 TiDB 集群,则可以规划 3 个 master 节点,每个节点支持部署 5 个 PD 实例,5 个 PD 实例使用同一块 SSD 盘即可(两三百 GB 的盘即可)。通过 bind mount 的方式在这块 SSD 上创建 5 个目录作为挂载点,操作方式见 Sharing a disk filesystem by multiple filesystem PVs

    如果后续要添加更多机器支持更多的 TiDB 集群,可以在 master 上用这种方式继续增加 PD 实例。如果 master 上资源耗尽,可以找其它的 worker 节点机器用同样的方式添加 PD 实例。这种方式的好处就是方便规划和管理 PD 实例,坏处就是由于 PD 实例过于集中,这些机器中如果有两台宕机会导致所有的 TiDB 集群不可用。

    因此建议从所有集群里面的机器都拿出一块 SSD 盘像 master 节点一样提供 PD 实例。比如总共 7 台机器,要支持 7 套 TiDB 标准集群的情况下,则需要每台机器上都能支持部署 3 个 PD 实例,如果后续有集群需要通过扩容机器增加容量,也只需要在新的机器上创建 PD 实例。

  • TiKV 组件:因为 TiKV 组件的性能很依赖磁盘 I/O 且数据量一般较大,因此建议每个 TiKV 实例独占一块 NVMe 的盘,资源配置为 8C 32GB。如果想要在一个机器上支持部署多个 TiKV 实例,则建议参考这些参数去选择合适的机器,同时在规划容量的时候应当预留出足够的 buffer。

  • TiDB 组件:TiDB 组件因为不占用磁盘,因此在规划的时候只需要考虑其占用的 CPU 和内存资源即可,这里也按 8C 32 GB 的容量来计算。

TiDB 集群规划示例

通过上面的分析,这里给出一个支持部署 5 套规模为 3 个 PD + 3 个 TiKV + 2 个 TiDB 集群的例子,其中 PD 配置为 2C 4GB,TiDB 配置为 8C 32GB,TiKV 配置为 8C 32GB。Kubernetes 节点有 7 个,其中有 3 个节点既是 master 又是 worker 节点,另外 4 个是纯 worker 节点。各节点上部署组件情况如下:

  • 每台 master 节点:

    • 1 etcd (2C 4GB) + 2 PD (2 * 2C 2 * 4GB) + 3 TiKV (3 * 8C 3 * 32GB) + 1 TiDB (8C 32GB),总共是 38C 140GB
    • 两块 SSD 盘,一块给 etcd,另外一块给 2 个 PD 实例
    • 做了 RAID5 的 SAS 盘,给 Docker 和 kubelet 做数据盘
    • 三块 NVMe 盘给 TiKV 实例
  • 每台 worker 节点:

    • 3 PD (3 * 2C 3 * 4GB) + 2 TiKV (2 * 8C 2 * 32GB) + 2 TiDB (2 * 8C 2 * 32GB),总共是 38C 140GB
    • 一块 SSD 盘给三个 PD 实例
    • 做了 RAID5 的 SAS 盘,给 Docker 和 kubelet 做数据盘
    • 两块 NVMe 盘给 TiKV 实例

从上面的分析来看,要支持 5 套 TiDB 集群容量共需要 7 台物理机,其中 3 台为 master 兼 worker 节点,其余 4 台为 worker 节点,机器配置需求如下:

  • master 兼 worker 节点:48C 192GB;2 块 SSD 盘,一块做了 RAID5 的 SAS 盘,三块 NVMe 盘
  • worker 节点:48C 192GB;1 块 SSD 盘,一块做了 RAID5 的 SAS 盘,两块 NVMe 盘

使用上面的机器配置,除去各个组件占用的资源外,还有比较多的预留资源。如果要考虑加监控和日志组件,则可以用同样的方法去规划需要采购的机器类型以及配置。

另外,在生产环境的使用上尽量不要在 master 节点部署 TiDB 实例,或者尽可能少地部署 TiDB 实例。这里的主要考虑点是网卡带宽,因为 master 节点网卡满负荷工作会影响到 worker 节点和 master 节点之间的心跳信息汇报,导致比较严重的问题。