CLUSTER_LOG

CLUSTER_LOGクラスター ログ テーブルでクラスター ログをクエリできます。クエリ条件を各インスタンスにプッシュ ダウンすることにより、クラスター パフォーマンスに対するクエリの影響は、 grepコマンドの影響よりも少なくなります。

v4.0 より前の TiDB クラスターのログを取得するには、各インスタンスにログインしてログを要約する必要があります。 4.0 のこのクラスター ログ テーブルは、グローバルで時系列のログ検索結果を提供し、フルリンク イベントの追跡を容易にします。たとえば、 region idに従ってログを検索すると、このリージョンのライフサイクルのすべてのログを照会できます。同様に、低速ログのtxn idを介して完全なリンク ログを検索することにより、フローと、各インスタンスでこのトランザクションによってスキャンされたキーの数を照会できます。

USE information_schema; DESC cluster_log;
+----------+------------------+------+------+---------+-------+ | Field | Type | Null | Key | Default | Extra | +----------+------------------+------+------+---------+-------+ | TIME | varchar(32) | YES | | NULL | | | TYPE | varchar(64) | YES | | NULL | | | INSTANCE | varchar(64) | YES | | NULL | | | LEVEL | varchar(8) | YES | | NULL | | | MESSAGE | var_string(1024) | YES | | NULL | | +----------+------------------+------+------+---------+-------+ 5 rows in set (0.00 sec)

フィールドの説明:

  • TIME : ログを印刷する時間。
  • TYPE : インスタンスタイプ。オプションの値はtidbpd 、およびtikvです。
  • INSTANCE : インスタンスのサービス アドレス。
  • LEVEL : ログレベル。
  • MESSAGE : ログの内容。

ノート:

  • クラスタ ログ テーブルのすべてのフィールドは、実行のために対応するインスタンスにプッシュ ダウンされます。クラスター ログ テーブルを使用するオーバーヘッドを減らすには、検索に使用するキーワード、時間範囲、およびできるだけ多くの条件を指定する必要があります。たとえば、 select * from cluster_log where message like '%ddl%' and time > '2020-05-18 20:40:00' and time<'2020-05-18 21:40:00' and type='tidb'です。

  • messageフィールドはlikeおよびregexpの正規表現をサポートし、対応するパターンはregexpとしてエンコードされます。複数のmessage条件を指定することは、 grepコマンドのpipeline形式と同等です。たとえば、 select * from cluster_log where message like 'coprocessor%' and message regexp '.*slow.*' and time > '2020-05-18 20:40:00' and time<'2020-05-18 21:40:00'ステートメントを実行することは、すべてのクラスター インスタンスでgrep 'coprocessor' xxx.log | grep -E '.*slow.*'を実行することと同じです。

次の例は、 CLUSTER_LOGテーブルを使用して DDL ステートメントの実行プロセスを照会する方法を示しています。

SELECT time,instance,left(message,150) FROM cluster_log WHERE message LIKE '%ddl%job%ID.80%' AND type='tidb' AND time > '2020-05-18 20:40:00' AND time < '2020-05-18 21:40:00'
+-------------------------+----------------+--------------------------------------------------------------------------------------------------------------------------------------------------------+ | time | instance | left(message,150) | +-------------------------+----------------+--------------------------------------------------------------------------------------------------------------------------------------------------------+ | 2020/05/18 21:37:54.784 | 127.0.0.1:4002 | [ddl_worker.go:261] ["[ddl] add DDL jobs"] ["batch count"=1] [jobs="ID:80, Type:create table, State:none, SchemaState:none, SchemaID:1, TableID:79, Ro | | 2020/05/18 21:37:54.784 | 127.0.0.1:4002 | [ddl.go:477] ["[ddl] start DDL job"] [job="ID:80, Type:create table, State:none, SchemaState:none, SchemaID:1, TableID:79, RowCount:0, ArgLen:1, start | | 2020/05/18 21:37:55.327 | 127.0.0.1:4000 | [ddl_worker.go:568] ["[ddl] run DDL job"] [worker="worker 1, tp general"] [job="ID:80, Type:create table, State:none, SchemaState:none, SchemaID:1, Ta | | 2020/05/18 21:37:55.381 | 127.0.0.1:4000 | [ddl_worker.go:763] ["[ddl] wait latest schema version changed"] [worker="worker 1, tp general"] [ver=70] ["take time"=50.809848ms] [job="ID:80, Type: | | 2020/05/18 21:37:55.382 | 127.0.0.1:4000 | [ddl_worker.go:359] ["[ddl] finish DDL job"] [worker="worker 1, tp general"] [job="ID:80, Type:create table, State:synced, SchemaState:public, SchemaI | | 2020/05/18 21:37:55.786 | 127.0.0.1:4002 | [ddl.go:509] ["[ddl] DDL job is finished"] [jobID=80] | +-------------------------+----------------+--------------------------------------------------------------------------------------------------------------------------------------------------------+

上記のクエリ結果は、DDL ステートメントを実行するプロセスを示しています。

  1. DDL JOB ID が80のリクエストは、 127.0.0.1:4002の TiDB インスタンスに送信されます。
  2. 127.0.0.1:4000番目の TiDB インスタンスがこの DDL 要求を処理します。これは、 127.0.0.1:4000番目のインスタンスがその時点で DDL 所有者であることを示しています。
  3. DDL JOB ID が80の要求が処理されました。
Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.