監視サーバーの構成のカスタマイズ

TiUP を使用して TiDB クラスターをデプロイすると、TiUP は Prometheus、Grafana、Alertmanager などの監視サーバーもデプロイします。その間、このクラスターをスケールアウトすると、TiUP は新しいノードも監視範囲に追加します。

上記の監視サーバーの構成をカスタマイズするには、以下の手順に従って、関連する構成項目を TiDB クラスターの topology.yaml に追加します。

ノート:

  • モニター・サーバーの構成ファイルを直接変更しないでください。これらの変更は、デプロイ、スケールアウト、スケールイン、リロードなどの後の TiUP 操作によって上書きされるためです。

  • 監視サーバーが TiUP によってデプロイおよび管理されていない場合は、このドキュメントを参照する代わりに、監視サーバーの構成ファイルを直接変更できます。

  • この機能は、TiUP v1.9.0 以降でサポートされています。したがって、この機能を使用する前に、TiUP のバージョンを確認してください。

Prometheus 構成のカスタマイズ

現在、TiUP は、Prometheus ルールとスクレイプ構成ファイルのカスタマイズをサポートしています。

Prometheus ルール構成のカスタマイズ

  1. ルール構成ファイルをカスタマイズして、TiUP が配置されているマシンのディレクトリの下に配置します。

  2. topology.yaml ファイルで、カスタマイズされたルール構成ファイルのディレクトリにrule_dirを設定します。

    次に、topology.yaml ファイルの monitoring_servers の構成例を示します。

    # # Server configs are used to specify the configuration of Prometheus Server. monitoring_servers: # # The ip address of the Monitoring Server. - host: 127.0.0.1 rule_dir: /home/tidb/prometheus_rule # prometheus rule dir on TiUP machine

前述の構成が完了した後、TiDB クラスターをデプロイ、スケールアウト、スケールイン、またはリロードすると、TiUP はカスタマイズされたルール構成をrule_dir (たとえば、 /home/tidb/prometheus_rule ) からロードし、それらを Prometheus サーバーに送信して、デフォルトのルール構成を置き換えます。 .

Prometheus スクレイプ構成のカスタマイズ

  1. TiDB クラスターの topology.yaml ファイルを開きます。

  2. monitoring_servers構成で、 additional_scrape_confフィールドを追加します。

    次に、topology.yaml ファイルの monitoring_servers の構成例を示します。

    monitoring_servers: - host: xxxxxxx ssh_port: 22 port: 9090 deploy_dir: /tidb-deploy/prometheus-9090 data_dir: /tidb-data/prometheus-9090 log_dir: /tidb-deploy/prometheus-9090/log external_alertmanagers: [] arch: amd64 os: linux additional_scrape_conf: metric_relabel_configs: - source_labels: [__name__] separator: ; regex: tikv_thread_nonvoluntary_context_switches|tikv_thread_voluntary_context_switches|tikv_threads_io_bytes_total action: drop - source_labels: [__name__,name] separator: ; regex: tikv_thread_cpu_seconds_total;(tokio|rocksdb).+ action: drop

上記の構成が完了した後、TiDB クラスターをデプロイ、スケールアウト、スケールイン、またはリロードすると、TiUP は Prometheus 構成ファイルの対応するパラメーターにadditional_scrape_confフィールドを追加します。

Grafana 構成をカスタマイズする

現在、TiUP は Grafana ダッシュボードおよびその他の構成のカスタマイズをサポートしています。

Grafana ダッシュボードのカスタマイズ

  1. Grafana ダッシュボードの構成ファイルをカスタマイズし、TiUP が配置されているマシンのディレクトリの下に配置します。

  2. topology.yaml ファイルで、カスタマイズされたダッシュボード構成ファイルのディレクトリにdashboard_dirを設定します。

    次に、topology.yaml ファイルの grafana_servers の構成例を示します。

    # # Server configs are used to specify the configuration of Grafana Servers. grafana_servers: # # The ip address of the Grafana Server. - host: 127.0.0.1 dashboard_dir: /home/tidb/dashboards # grafana dashboard dir on TiUP machine

前述の構成が完了した後、TiDB クラスターをデプロイ、スケールアウト、スケールイン、またはリロードすると、TiUP はカスタマイズされたダッシュボード構成をdashboard_dir (たとえば、 /home/tidb/dashboards ) からロードし、その構成を Grafana サーバーに送信して、デフォルトのダッシュボードを置き換えます。構成。

他の Grafana 構成をカスタマイズする

  1. TiDB クラスターの topology.yaml ファイルを開きます。

  2. grafana_servers構成に他の構成アイテムを追加します。

    次に、topology.yaml ファイルの[log.file] levelフィールドとsmtpフィールドの構成例を示します。

    # # Server configs are used to specify the configuration of Grafana Servers. grafana_servers: # # The ip address of the Grafana Server. - host: 127.0.0.1 config: log.file.level: warning smtp.enabled: true smtp.host: {IP}:{port} smtp.user: example@pingcap.com smtp.password: {password} smtp.skip_verify: true

前述の構成が完了した後、TiDB クラスターをデプロイ、スケールアウト、スケールイン、またはリロードすると、TiUP はconfigフィールドを Grafana 構成ファイルgrafana.iniに追加します。

Alertmanager 構成のカスタマイズ

現在、TiUP は Alertmanager のリッスン アドレスのカスタマイズをサポートしています。

TiUP によってデプロイされた Alertmanager は、デフォルトでalertmanager_servers.hostをリッスンします。プロキシを使用している場合は、Alertmanager にアクセスできません。この問題に対処するには、クラスター構成ファイルの topology.yaml にlisten_hostを追加して、リッスン アドレスを指定します。推奨値は 0.0.0.0 です。

次の例では、 listen_hostフィールドを 0.0.0.0 に設定します。

alertmanager_servers: # # The ip address of the Alertmanager Server. - host: 172.16.7.147 listen_host: 0.0.0.0 # # SSH port of the server. ssh_port: 22

前述の構成が完了した後、TiDB クラスターをデプロイ、スケールアウト、スケールイン、またはリロードすると、TiUP は Alertmanager 起動パラメーターのlisten_hostフィールドを--web.listen-addressに追加します。