TiCDCクラスタとレプリケーション タスクの管理

このドキュメントでは、TiUP を使用して TiCDC クラスターをアップグレードし、TiCDC クラスターの構成を変更する方法、およびコマンドライン ツールを使用して TiCDC クラスターとレプリケーション タスクを管理する方法について説明しますcdc cli

HTTP インターフェイス (TiCDC OpenAPI 機能) を使用して、TiCDC クラスターとレプリケーション タスクを管理することもできます。詳細については、 TiCDC OpenAPIを参照してください。

TiUP を使用して TiCDC をアップグレードする

このセクションでは、TiUP を使用して TiCDC クラスターをアップグレードする方法を紹介します。次の例では、TiCDC と TiDB クラスター全体を v6.2.0 にアップグレードする必要があると想定しています。

tiup update --self && \ tiup update --all && \ tiup cluster upgrade <cluster-name> v6.2.0

バージョンアップ時の注意事項

TiUP を使用して TiCDC 構成を変更する

このセクションでは、TiUP のtiup cluster edit-configコマンドを使用して、TiCDC クラスターの構成を変更する方法を紹介します。次の例では、値gc-ttlをデフォルトの86400から3600 、つまり 1 時間に変更します。

まず、次のコマンドを実行します。 <cluster-name>を実際のクラスター名に置き換える必要があります。

tiup cluster edit-config <cluster-name>

次に、vi エディター ページに入り、 server-configsの下のcdc構成を変更します。構成を以下に示します。

server_configs: tidb: {} tikv: {} pd: {} tiflash: {} tiflash-learner: {} pump: {} drainer: {} cdc: gc-ttl: 3600

変更後、 tiup cluster reload -R cdcコマンドを実行して設定をリロードします。

TLS を使用する

暗号化データ転送 (TLS) の使用について詳しくは、 TiDB コンポーネント間の TLS を有効にするを参照してください。

cdc cliを使用してクラスターのステータスとデータ複製タスクを管理する

このセクションでは、 cdc cliを使用して TiCDC クラスターとデータ複製タスクを管理する方法を紹介します。 cdc cliは、 cdcバイナリを使用して実行されるcliサブコマンドです。以下の説明では、次のことを前提としています。

  • cliコマンドはcdcバイナリを使用して直接実行されます。
  • PD は10.0.10.25でリッスンし、ポートは2379です。

ノート:

PD が listen する IP アドレスとポートは、 pd-server始動時に指定されたadvertise-client-urlsパラメーターに対応します。複数のpd-serverには複数のadvertise-client-urlsパラメータがあり、1 つまたは複数のパラメータを指定できます。たとえば、 --pd=http://10.0.10.25:2379または--pd=http://10.0.10.25:2379,http://10.0.10.26:2379,http://10.0.10.27:2379です。

TiUP を使用して TiCDC をデプロイする場合は、次のコマンドのcdc clitiup ctl cdcに置き換えます。

TiCDC サービスの進行状況を管理する ( capture )

  • captureのリストをクエリします。

    cdc cli capture list --pd=http://10.0.10.25:2379
    [ { "id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd", "is-owner": true, "address": "127.0.0.1:8300" }, { "id": "ea2a4203-56fe-43a6-b442-7b295f458ebc", "is-owner": false, "address": "127.0.0.1:8301" } ]
    • id : サービス プロセスの ID。
    • is-owner : サービスプロセスがオーナーノードかどうかを示します。
    • address : サービス プロセスが外部へのインターフェイスを提供するためのアドレス。

レプリケーション タスクの管理 ( changefeed )

レプリケーション タスクの状態転送

レプリケーション タスクの状態は、レプリケーション タスクの実行ステータスを表します。 TiCDC の実行中に、レプリケーション タスクがエラーで失敗したり、手動で一時停止、再開したり、指定されたTargetTsに達したりする場合があります。これらの動作により、レプリケーション タスクの状態が変化する可能性があります。このセクションでは、TiCDC レプリケーション タスクの状態と、状態間の転送関係について説明します。

TiCDC state transfer

上記の状態遷移図の状態は、次のように説明されています。

  • Normal : レプリケーション タスクは正常に実行され、checkpoint-ts は正常に進行します。
  • Stopped : ユーザーが変更フィードを手動で一時停止したため、レプリケーション タスクは停止されています。この状態の変更フィードは、GC 操作をブロックします。
  • Error : レプリケーション タスクはエラーを返します。いくつかの回復可能なエラーが原因で、レプリケーションを続行できません。この状態の changefeed は、状態がNormalに移行するまで再開を試み続けます。この状態の変更フィードは、GC 操作をブロックします。
  • Finished : レプリケーション タスクが完了し、プリセットTargetTsに達しました。この状態の変更フィードは、GC 操作をブロックしません。
  • Failed : レプリケーション タスクは失敗します。一部の回復不能なエラーが原因で、レプリケーション タスクを再開できず、回復できません。この状態の変更フィードは、GC 操作をブロックしません。

上記の状態遷移図の番号は、次のように記述されます。

  • changefeed pauseコマンド実行
  • changefeed resumeコマンドを実行してレプリケーションタスクを再開する
  • changefeed動作中に回復可能なエラーが発生し、自動的に動作が再開されます。
  • changefeed resumeコマンドを実行してレプリケーションタスクを再開する
  • changefeedの動作中に回復可能なエラーが発生した場合
  • changefeedがプリセットTargetTsに到達し、レプリケーションが自動的に停止されます。
  • changefeedgc-ttlで指定された期間を超えて停止し、再開することはできません。
  • changefeedは、自動回復を実行しようとしたときに、回復不能なエラーが発生しました。

レプリケーション タスクを作成する

次のコマンドを実行して、レプリケーション タスクを作成します。

cdc cli changefeed create --pd=http://10.0.10.25:2379 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --changefeed-id="simple-replication-task" --sort-engine="unified"
Create changefeed successfully! ID: simple-replication-task Info: {"sink-uri":"mysql://root:123456@127.0.0.1:3306/","opts":{},"create-time":"2020-03-12T22:04:08.103600025+08:00","start-ts":415241823337054209,"target-ts":0,"admin-job-type":0,"sort-engine":"unified","sort-dir":".","config":{"case-sensitive":true,"filter":{"rules":["*.*"],"ignore-txn-start-ts":null,"ddl-allow-list":null},"mounter":{"worker-num":16},"sink":{"dispatchers":null},"scheduler":{"type":"table-number","polling-time":-1}},"state":"normal","history":null,"error":null}
  • --changefeed-id : レプリケーション タスクの ID。形式は^[a-zA-Z0-9]+(\-[a-zA-Z0-9]+)*$の正規表現と一致する必要があります。この ID が指定されていない場合、TiCDC は ID として UUID (バージョン 4 形式) を自動的に生成します。

  • --sink-uri : レプリケーション タスクのダウンストリーム アドレス。 --sink-uriを次の形式に従って構成します。現在、スキームはmysql / tidb / kafka / pulsar / s3 / localをサポートしています。

    [scheme]://[userinfo@][host]:[port][/path]?[query_parameters]

    URI に特殊文字が含まれている場合、URL エンコーディングを使用してこれらの特殊文字を処理する必要があります。

  • --start-ts : changefeedの開始 TSO を指定します。この TSO から、TiCDC クラスターはデータのプルを開始します。デフォルト値は現在の時刻です。

  • --target-ts : changefeedの終了 TSO を指定します。この TSO に対して、TiCDC クラスターはデータのプルを停止します。デフォルト値は空です。これは、TiCDC がデータのプルを自動的に停止しないことを意味します。

  • --sort-engine : changefeedのソート エンジンを指定します。 TiDB と TiKV は分散アーキテクチャを採用しているため、TiCDC はデータの変更をシンクに書き込む前にソートする必要があります。このオプションはunified (デフォルト)/ memory / fileをサポートします。

    • unified : unifiedを使用すると、TiCDC はメモリ内でのデータの並べ替えを優先します。メモリが不足している場合、TiCDC は自動的にディスクを使用して一時データを保存します。これはデフォルト値の--sort-engineです。
    • memory : メモリ内のデータ変更をソートします。大量のデータをレプリケートすると OOM が簡単にトリガーされるため、この並べ替えエンジンの使用はお勧めしません
    • file : ディスクを完全に使用して一時データを格納します。この機能は非推奨ですどのような状況でも使用することはお勧めしません
  • --config : changefeedの構成ファイルを指定します。

  • sort-dir : ソート エンジンが使用する一時ファイル ディレクトリを指定します。このオプションは、TiDB v4.0.13、v5.0.3、および v5.1.0 以降ではサポートされていないことに注意してください。もう使用しないでください

mysql / tidbでシンク URI を構成する

サンプル構成:

--sink-uri="mysql://root:123456@127.0.0.1:3306/?worker-count=16&max-txn-row=5000&transaction-atomicity=table"

以下は、 mysql / tidbを使用してシンク URI に構成できるパラメーターとパラメーター値の説明です。

パラメータ/パラメータ値説明
rootダウンストリーム データベースのユーザー名
123456ダウンストリーム データベースのパスワード
127.0.0.1ダウンストリーム データベースの IP アドレス
3306ダウンストリーム データのポート
worker-countダウンストリームに対して同時に実行できる SQL ステートメントの数 (オプション、既定では16 )
max-txn-rowダウンストリームに対して実行できるトランザクション バッチのサイズ (オプション、既定では256 )
ssl-caダウンストリームの MySQL インスタンスに接続するために必要な CA 証明書ファイルのパス (オプション)
ssl-certダウンストリームの MySQL インスタンスに接続するために必要な証明書ファイルのパス (オプション)
ssl-keyダウンストリームの MySQL インスタンスに接続するために必要な証明書キー ファイルのパス (オプション)
time-zoneダウンストリームの MySQL インスタンスに接続するときに使用されるタイム ゾーン。v4.0.8 以降で有効です。これはオプションのパラメーターです。このパラメーターが指定されていない場合、TiCDC サービス プロセスのタイム ゾーンが使用されます。このパラメータが空の値に設定されている場合、TiCDC がダウンストリームの MySQL インスタンスに接続するときにタイム ゾーンが指定されず、ダウンストリームのデフォルトのタイム ゾーンが使用されます。
transaction-atomicityトランザクションの原子性レベル。これはオプションのパラメーターで、デフォルト値はtableです。値がtableの場合、TiCDC は単一テーブル トランザクションの原子性を保証します。値がnoneの場合、TiCDC は単一テーブル トランザクションを分割します。

kafkaでシンク URI を構成する

サンプル構成:

--sink-uri="kafka://127.0.0.1:9092/topic-name?kafka-version=2.4.0&partition-num=6&max-message-bytes=67108864&replication-factor=1"

以下は、 kafkaのシンク URI に構成できるパラメーターとパラメーター値の説明です。

パラメータ/パラメータ値説明
127.0.0.1ダウンストリーム Kafka サービスの IP アドレス
9092下流の Kafka のポート
topic-name変数。 Kafka トピックの名前
kafka-versionダウンストリーム Kafka のバージョン (オプション、デフォルトでは2.4.0現在、サポートされている最も古い Kafka バージョンは0.11.0.2で、最新のものは2.7.0です。この値は、ダウンストリーム Kafka の実際のバージョンと一致する必要があります)
kafka-client-idレプリケーション タスクの Kafka クライアント ID を指定します (オプション。既定ではTiCDC_sarama_producer_replication ID )。
partition-numダウンストリーム Kafka パーティションの数 (オプション。値は、実際のパーティション数を超えてはなりません。そうでない場合、レプリケーション タスクは正常に作成されません。デフォルトでは3 )
max-message-bytes毎回 Kafka ブローカーに送信されるデータの最大サイズ (オプション、デフォルトでは10MB )。 v5.0.6 および v4.0.6 から、デフォルト値が 64MB および 256MB から 10MB に変更されました。
replication-factor保存できる Kafka メッセージ レプリカの数 (オプション、既定では1 )
protocolメッセージが Kafka に出力されるプロトコル。値のオプションはcanal-jsonopen-protocolcanalavro 、およびmaxwellです。
auto-create-topic渡されたtopic-nameが Kafka クラスターに存在しない場合に、TiCDC がトピックを自動的に作成するかどうかを決定します (オプション、デフォルトではtrue )。
enable-tidb-extensionオプション。デフォルトではfalseです。出力プロトコルがcanal-jsonの場合、値がtrueの場合、TiCDC は Resolved イベントを送信し、TiDB 拡張フィールドを Kafka メッセージに追加します。 v6.1.0 から、このパラメーターはavroプロトコルにも適用されます。値がtrueの場合、TiCDC は 3 つの TiDB 拡張フィールドを Kafka メッセージに追加します。
max-batch-sizev4.0.9 の新機能。メッセージ プロトコルが 1 つの Kafka メッセージへの複数のデータ変更の出力をサポートしている場合、このパラメーターは 1 つの Kafka メッセージ内のデータ変更の最大数を指定します。現在、Kafka のprotocolopen-protocolの場合にのみ有効です。 (オプション、デフォルトで16 )
enable-tlsTLS を使用してダウンストリーム Kafka インスタンスに接続するかどうか (オプション、デフォルトではfalse )
caダウンストリーム Kafka インスタンスに接続するために必要な CA 証明書ファイルのパス (オプション)
certダウンストリームの Kafka インスタンスに接続するために必要な証明書ファイルのパス (オプション)
keyダウンストリーム Kafka インスタンスに接続するために必要な証明書キー ファイルのパス (オプション)
sasl-userダウンストリームの Kafka インスタンスに接続するために必要な SASL/PLAIN または SASL/SCRAM 認証の ID (authcid) (オプション)
sasl-passwordダウンストリーム Kafka インスタンスに接続するために必要な SASL/PLAIN または SASL/SCRAM 認証のパスワード (オプション)
sasl-mechanismダウンストリーム Kafka インスタンスに接続するために必要な SASL 認証の名前。値はplainscram-sha-256scram-sha-512 、またはgssapiです。
sasl-gssapi-auth-typegssapi 認証タイプ。値はuserまたはkeytabです (オプション)
sasl-gssapi-keytab-pathgssapi キータブ パス (オプション)
sasl-gssapi-kerberos-config-pathgssapi kerberos 構成パス (オプション)
sasl-gssapi-service-namegssapi サービス名 (オプション)
sasl-gssapi-usergssapi 認証のユーザー名 (オプション)
sasl-gssapi-passwordgssapi 認証のパスワード (オプション)
sasl-gssapi-realmgssapi レルム名 (オプション)
sasl-gssapi-disable-pafxfastgssapi PA-FX-FAST を無効にするかどうか (オプション)
dial-timeoutダウンストリーム Kafka との接続を確立する際のタイムアウト。デフォルト値は10sです
read-timeoutダウンストリーム Kafka から返された応答を取得する際のタイムアウト。デフォルト値は10sです
write-timeoutダウンストリーム Kafka にリクエストを送信する際のタイムアウト。デフォルト値は10sです
avro-decimal-handling-modeavroプロトコルでのみ有効です。 Avro が DECIMAL フィールドを処理する方法を決定します。値はstringまたはpreciseで、DECIMAL フィールドを文字列または正確な浮動小数点数にマッピングすることを示します。
avro-bigint-unsigned-handling-modeavroプロトコルでのみ有効です。 Avro が BIGINT UNSIGNED フィールドを処理する方法を決定します。値はstringまたはlongで、BIGINT UNSIGNED フィールドを 64 ビットの符号付き数値または文字列にマッピングすることを示します。

ベストプラクティス:

  • 独自の Kafka トピックを作成することをお勧めします。少なくとも、トピックが Kafka ブローカーに送信できる各メッセージの最大データ量と、ダウンストリーム Kafka パーティションの数を設定する必要があります。 changefeed を作成すると、これら 2 つの設定はそれぞれmax-message-bytespartition-numに対応します。
  • まだ存在しないトピックで変更フィードを作成すると、TiCDC はpartition-numreplication-factorのパラメーターを使用してトピックを作成しようとします。これらのパラメーターを明示的に指定することをお勧めします。
  • ほとんどの場合、 canal-jsonプロトコルを使用することをお勧めします。

ノート:

protocolopen-protocolの場合、TiCDC は長さがmax-message-bytesを超えるメッセージの生成を回避しようとします。ただし、1 つの変更だけで長さがmax-message-bytesを超える行が非常に大きい場合、TiCDC はサイレント エラーを回避するために、このメッセージを出力しようとし、ログに警告を出力します。

TiCDC は Kafka の認証と承認を使用します

以下は、Kafka SASL 認証を使用する場合の例です。

  • SASL/プレーン

    --sink-uri="kafka://127.0.0.1:9092/topic-name?kafka-version=2.4.0&sasl-user=alice-user&sasl-password=alice-secret&sasl-mechanism=plain"
  • SASL/スクラム

    SCRAM-SHA-256 と SCRAM-SHA-512 は PLAIN メソッドに似ています。対応する認証方法としてsasl-mechanismを指定するだけです。

  • SASL/GSSAPI

    SASL/GSSAPI user認証:

    --sink-uri="kafka://127.0.0.1:9092/topic-name?kafka-version=2.4.0&sasl-mechanism=gssapi&sasl-gssapi-auth-type=user&sasl-gssapi-kerberos-config-path=/etc/krb5.conf&sasl-gssapi-service-name=kafka&sasl-gssapi-user=alice/for-kafka&sasl-gssapi-password=alice-secret&sasl-gssapi-realm=example.com"

    sasl-gssapi-usersasl-gssapi-realmの値は、kerberos で指定された原理に関連しています。たとえば、原則がalice/for-kafka@example.comに設定されている場合、 sasl-gssapi-usersasl-gssapi-realmはそれぞれalice/for-kafkaexample.comとして指定されます。

    SASL/GSSAPI keytab認証:

    --sink-uri="kafka://127.0.0.1:9092/topic-name?kafka-version=2.4.0&sasl-mechanism=gssapi&sasl-gssapi-auth-type=keytab&sasl-gssapi-kerberos-config-path=/etc/krb5.conf&sasl-gssapi-service-name=kafka&sasl-gssapi-user=alice/for-kafka&sasl-gssapi-keytab-path=/var/lib/secret/alice.key&sasl-gssapi-realm=example.com"

    SASL/GSSAPI 認証方式の詳細については、 GSSAPI の設定を参照してください。

  • TLS/SSL 暗号化

    Kafka ブローカーで TLS/SSL 暗号化が有効になっている場合は、 -enable-tls=trueパラメーターを--sink-uriに追加する必要があります。自己署名証明書を使用する場合は、 --sink-uricacert 、およびkeyも指定する必要があります。

  • ACL 認可

    TiCDC が適切に機能するために必要な最小限のアクセス許可セットは次のとおりです。

    • トピックリソースタイプCreateWriteのアクセス許可。
    • クラスタリソース タイプのDescribeConfigsのアクセス許可。

TiCDC を Kafka Connect (コンフルエント プラットフォーム) と統合する

Confluent が提供するデータ コネクタを使用してデータをリレーショナル データベースまたは非リレーショナル データベースにストリーミングするには、 avroプロトコルを使用してコンフルエント スキーマ レジストリ in schema-registryの URL を提供する必要があります。

サンプル構成:

--sink-uri="kafka://127.0.0.1:9092/topic-name?&protocol=avro&replication-factor=3" --schema-registry="http://127.0.0.1:8081" --config changefeed_config.toml
[sink] dispatchers = [ {matcher = ['*.*'], topic = "tidb_{schema}_{table}"}, ]

詳細な統合ガイドについては、 TiDB と Confluent Platform の統合に関するクイック スタート ガイドを参照してください。

pulsarでシンク URI を構成する

サンプル構成:

--sink-uri="pulsar://127.0.0.1:6650/topic-name?connectionTimeout=2s"

以下は、 pulsarでシンク URI に構成できるパラメーターの説明です。

パラメータ説明
connectionTimeoutダウンストリーム Pulsar への接続を確立するためのタイムアウト。これはオプションであり、デフォルトは 30 (秒) です。
operationTimeoutダウンストリーム Pulsar で操作を実行するためのタイムアウト。これはオプションであり、デフォルトは 30 (秒) です。
tlsTrustCertsFilePathダウンストリームの Pulsar インスタンスに接続するために必要な CA 証明書ファイルのパス (オプション)
tlsAllowInsecureConnectionTLS が有効になった後に暗号化されていない接続を許可するかどうかを決定します (オプション)
tlsValidateHostnameダウンストリーム Pulsar からの証明書のホスト名を検証するかどうかを決定します (オプション)
maxConnectionsPerBroker単一のダウンストリーム Pulsar ブローカーに許可される接続の最大数。これはオプションで、デフォルトは 1 です。
auth.tlsTLS モードを使用して、下流のパルサーを検証します (オプション)。たとえば、 auth=tls&auth.tlsCertFile=/path/to/cert&auth.tlsKeyFile=/path/to/keyです。
auth.tokenトークン モードを使用して、下流のパルサーを検証します (オプション)。たとえば、 auth=token&auth.token=secret-tokenまたはauth=token&auth.file=path/to/secret-token-fileです。
nameTiCDC のパルサー プロデューサーの名前 (オプション)
protocolメッセージがパルサーに出力されるプロトコル。値のオプションはcanal-jsonopen-protocolcanalavro 、およびmaxwellです。
maxPendingMessages保留中のメッセージ キューの最大サイズを設定します。これはオプションで、デフォルトは 1000 です。たとえば、Pulsar からの確認メッセージを保留します。
disableBatchingバッチでのメッセージの自動送信を無効にします (オプション)
batchingMaxPublishDelay送信されたメッセージがバッチ化される期間を設定します (デフォルト: 10ms)
compressionTypeメッセージの送信に使用される圧縮アルゴリズムを設定します (オプション)。値のオプションはNONELZ4ZLIB 、およびZSTDです。 (デフォルトではNONE )
hashingSchemeメッセージの送信先のパーティションを選択するために使用されるハッシュ アルゴリズム (オプション)。値のオプションはJavaStringHash (デフォルト) とMurmur3です。
properties.*TiCDC の Pulsar プロデューサーに追加されたカスタマイズされたプロパティ (オプション)。たとえば、 properties.location=Hangzhouです。

Pulsar のその他のパラメータについては、 pulsar-client-go ClientOptionsおよびpulsar-client-go ProducerOptionsを参照してください。

タスク構成ファイルを使用する

レプリケーション構成の詳細 (単一テーブルのレプリケーションを指定するなど) については、 タスク構成ファイルを参照してください。

構成ファイルを使用して、次の方法でレプリケーション タスクを作成できます。

cdc cli changefeed create --pd=http://10.0.10.25:2379 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --config changefeed.toml

上記のコマンドで、 changefeed.tomlはレプリケーション タスクの構成ファイルです。

レプリケーション タスク リストを照会する

次のコマンドを実行して、レプリケーション タスク リストを照会します。

cdc cli changefeed list --pd=http://10.0.10.25:2379
[{ "id": "simple-replication-task", "summary": { "state": "normal", "tso": 417886179132964865, "checkpoint": "2020-07-07 16:07:44.881", "error": null } }]
  • checkpointは、この時点より前に TiCDC が既にデータをダウンストリームにレプリケートしたことを示します。
  • stateは、レプリケーション タスクの状態を示します。
    • normal : レプリケーション タスクは正常に実行されます。
    • stopped : レプリケーション タスクは停止しています (手動で一時停止)。
    • error : レプリケーション タスクは (エラーにより) 停止されました。
    • removed : レプリケーション タスクは削除されます。この状態のタスクは、オプション--allを指定した場合にのみ表示されます。このオプションが指定されていない場合にこれらのタスクを表示するには、 changefeed queryコマンドを実行します。
    • finished : レプリケーション タスクが完了しました (データはtarget-tsにレプリケートされます)。この状態のタスクは、オプション--allを指定した場合にのみ表示されます。このオプションが指定されていない場合にこれらのタスクを表示するには、 changefeed queryコマンドを実行します。

特定のレプリケーション タスクを照会する

特定のレプリケーション タスクを照会するには、 changefeed queryコマンドを実行します。クエリ結果には、タスク情報とタスク状態が含まれます。 --simpleまたは-s引数を指定して、基本的なレプリケーション状態とチェックポイント情報のみを含むクエリ結果を簡素化できます。この引数を指定しない場合、詳細なタスク構成、レプリケーション状態、およびレプリケーション テーブル情報が出力されます。

cdc cli changefeed query -s --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task
{ "state": "normal", "tso": 419035700154597378, "checkpoint": "2020-08-27 10:12:19.579", "error": null }

上記のコマンドと結果:

  • stateは、現在のchangefeedの複製状態です。各状態はchangefeed listの状態と一致している必要があります。
  • tsoは、現在のchangefeedでダウンストリームに正常に複製された最大のトランザクション TSO を表します。
  • checkpointは、ダウンストリームに正常に複製された現在のchangefeedの最大トランザクション TSO の対応する時間を表します。
  • errorは、現在のchangefeedでエラーが発生したかどうかを記録します。
cdc cli changefeed query --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task
{ "info": { "sink-uri": "mysql://127.0.0.1:3306/?max-txn-row=20\u0026worker-number=4", "opts": {}, "create-time": "2020-08-27T10:33:41.687983832+08:00", "start-ts": 419036036249681921, "target-ts": 0, "admin-job-type": 0, "sort-engine": "unified", "sort-dir": ".", "config": { "case-sensitive": true, "enable-old-value": false, "filter": { "rules": [ "*.*" ], "ignore-txn-start-ts": null, "ddl-allow-list": null }, "mounter": { "worker-num": 16 }, "sink": { "dispatchers": null, }, "scheduler": { "type": "table-number", "polling-time": -1 } }, "state": "normal", "history": null, "error": null }, "status": { "resolved-ts": 419036036249681921, "checkpoint-ts": 419036036249681921, "admin-job-type": 0 }, "count": 0, "task-status": [ { "capture-id": "97173367-75dc-490c-ae2d-4e990f90da0f", "status": { "tables": { "47": { "start-ts": 419036036249681921 } }, "operation": null, "admin-job-type": 0 } } ] }

上記のコマンドと結果:

  • infoは、照会されたchangefeedの複製構成です。
  • statusは、照会されたchangefeedの複製状態です。
    • resolved-ts : 現在のchangefeedの中で最大のトランザクションTS 。このTSは TiKV から TiCDC に正常に送信されていることに注意してください。
    • checkpoint-ts : 現在のchangefeedの中で最大のトランザクションTS 。このTSはダウンストリームに正常に書き込まれていることに注意してください。
    • admin-job-type : changefeedのステータス:
      • 0 : 状態は正常です。
      • 1 : タスクは一時停止されています。タスクが一時停止すると、レプリケートされたすべてのprocessorが終了します。タスクの構成とレプリケーション ステータスが保持されるため、タスクをcheckpiont-tsから再開できます。
      • 2 : タスクは再開されます。レプリケーション タスクはcheckpoint-tsから再開します。
      • 3 : タスクは削除されます。タスクが削除されると、複製されたすべてのprocessorが終了し、複製タスクの構成情報がクリアされます。以降のクエリでは、レプリケーション ステータスのみが保持されます。
  • task-statusは、照会されたchangefeedの各複製サブタスクの状態を示します。

レプリケーション タスクを一時停止する

次のコマンドを実行して、レプリケーション タスクを一時停止します。

cdc cli changefeed pause --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task

上記のコマンドで:

  • --changefeed-id=uuidは、一時停止するレプリケーション タスクに対応するchangefeedの ID を表します。

レプリケーション タスクを再開する

次のコマンドを実行して、一時停止したレプリケーション タスクを再開します。

cdc cli changefeed resume --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task
  • --changefeed-id=uuidは、再開するレプリケーション タスクに対応するchangefeedの ID を表します。
  • --overwrite-checkpoint-ts : v6.2.0 以降、レプリケーション タスクを再開する開始 TSO を指定できます。 TiCDC は、指定された TSO からのデータのプルを開始します。引数は、 nowまたは特定の TSO (434873584621453313 など) を受け入れます。指定された TSO は、(GC セーフ ポイント、CurrentTSO] の範囲内にある必要があります。この引数が指定されていない場合、TiCDC はデフォルトで現在のcheckpoint-tsからデータを複製します。
  • --no-confirm : レプリケーションを再開する場合、関連情報を確認する必要はありません。デフォルトはfalseです。

ノート:

  • --overwrite-checkpoint-ts ( t2 ) で指定された TSO が、変更フィード ( t1 ) の現在のチェックポイント TSO よりも大きい場合、 t1t2の間のデータはダウンストリームに複製されません。これにより、データが失われます。 cdc cli changefeed queryを実行するとt1を取得できます。
  • --overwrite-checkpoint-tsで指定された TSO ( t2 ) が、変更フィードの現在のチェックポイント TSO より小さい場合 ( t1 )、TiCDC は古い時点 ( t2 ) からデータをプルします。これにより、データの重複が発生する可能性があります (たとえば、ダウンストリームが MQ シンクの場合)。

レプリケーション タスクを削除する

次のコマンドを実行して、レプリケーション タスクを削除します。

cdc cli changefeed remove --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task

上記のコマンドで:

  • --changefeed-id=uuidは、削除するレプリケーション タスクに対応するchangefeedの ID を表します。

タスク構成の更新

v4.0.4 以降、TiCDC はレプリケーション タスクの構成の変更をサポートしています (動的ではありません)。 changefeed構成を変更するには、タスクを一時停止し、構成を変更してから、タスクを再開します。

cdc cli changefeed pause -c test-cf --pd=http://10.0.10.25:2379 cdc cli changefeed update -c test-cf --pd=http://10.0.10.25:2379 --sink-uri="mysql://127.0.0.1:3306/?max-txn-row=20&worker-number=8" --config=changefeed.toml cdc cli changefeed resume -c test-cf --pd=http://10.0.10.25:2379

現在、次の構成項目を変更できます。

  • changefeedsink-uri
  • changefeedの構成ファイルと、ファイル内のすべての構成アイテム。
  • ファイルの並べ替え機能と並べ替えディレクトリを使用するかどうか。
  • changefeedtarget-ts

レプリケーション サブタスクの処理単位を管理する ( processor )

  • processorのリストをクエリします。

    cdc cli processor list --pd=http://10.0.10.25:2379
    [ { "id": "9f84ff74-abf9-407f-a6e2-56aa35b33888", "capture-id": "b293999a-4168-4988-a4f4-35d9589b226b", "changefeed-id": "simple-replication-task" } ]
  • 特定のレプリケーション タスクのステータスに対応する特定のchangefeedを照会します。

    cdc cli processor query --pd=http://10.0.10.25:2379 --changefeed-id=simple-replication-task --capture-id=b293999a-4168-4988-a4f4-35d9589b226b
    { "status": { "tables": { "56": { # ID of the replication table, corresponding to tidb_table_id of a table in TiDB "start-ts": 417474117955485702 } }, "operation": null, "admin-job-type": 0 }, "position": { "checkpoint-ts": 417474143881789441, "resolved-ts": 417474143881789441, "count": 0 } }

    上記のコマンドでは:

    • status.tables : 各キー番号はレプリケーション テーブルの ID を表し、TiDB のテーブルのtidb_table_idに対応します。
    • resolved-ts : 現在のプロセッサでソートされたデータの中で最大の TSO。
    • checkpoint-ts : 現在のプロセッサでダウンストリームに正常に書き込まれた最大の TSO。

タスク構成ファイル

このセクションでは、レプリケーション タスクの構成について説明します。

# Specifies whether the database names and tables in the configuration file are case-sensitive. # The default value is true. # This configuration item affects configurations related to filter and sink. case-sensitive = true # Specifies whether to output the old value. New in v4.0.5. Since v5.0, the default value is `true`. enable-old-value = true [filter] # Ignores the transaction of specified start_ts. ignore-txn-start-ts = [1, 2] # Filter rules. # Filter syntax: https://docs.pingcap.com/tidb/stable/table-filter#syntax. rules = ['*.*', '!test.*'] # Event filter rules. # The detailed syntax is described in the event filter rules section. # The first event filter rule. [[filter.event-filters]] matcher = ["test.worker"] # matcher is an allow list, which means this rule only applies to the worker table in the test database. ignore-event = ["insert"] # Ignore insert events. ignore-sql = ["^drop", "add column"] # Ignore DDLs that start with "drop" or contain "add column". ignore-delete-value-expr = "name = 'john'" # Ignore delete DMLs that contain the condition "name = 'john'". ignore-insert-value-expr = "id >= 100" # Ignore insert DMLs that contain the condition "id >= 100". ignore-update-old-value-expr = "age < 18" # Ignore update DMLs whose old value contains "age < 18". ignore-update-new-value-expr = "gender = 'male'" # Ignore update DMLs whose new value contains "gender = 'male'". # The second event filter rule. matcher = ["test.fruit"] # matcher is an allow list, which means this rule only applies to the fruit table in the test database. ignore-event = ["drop table"] # Ignore drop table events. ignore-sql = ["delete"] # Ignore delete DMLs. ignore-insert-value-expr = "price > 1000 and origin = 'no where'" # Ignore insert DMLs that contain the conditions "price > 1000" and "origin = 'no where'". [sink] # For the sink of MQ type, you can use dispatchers to configure the event dispatcher. # Since v6.1, TiDB supports two types of event dispatchers: partition and topic. For more information, see the following section. # The matching syntax of matcher is the same as the filter rule syntax. For details about the matcher rules, see the following section. dispatchers = [ {matcher = ['test1.*', 'test2.*'], topic = "Topic expression 1", partition = "ts" }, {matcher = ['test3.*', 'test4.*'], topic = "Topic expression 2", partition = "index-value" }, {matcher = ['test1.*', 'test5.*'], topic = "Topic expression 3", partition = "table"}, {matcher = ['test6.*'], partition = "ts"} ] # For the sink of MQ type, you can specify the protocol format of the message. # Currently the following protocols are supported: canal-json, open-protocol, canal, avro, and maxwell. protocol = "canal-json"

イベント フィルタ ルールv6.2.0 の新機能

v6.2.0 以降、TiCDC はイベント フィルターをサポートします。指定した条件を満たす DML および DDL イベントを除外するイベント フィルター ルールを構成できます。

以下は、イベント フィルター ルールの例です。

[filter] # The event filter rules must be under the `[filter]` configuration. You can configure multiple event filters at the same time. [[filter.event-filters]] matcher = ["test.worker"] # matcher is an allow list, which means this rule only applies to the worker table in the test database. ignore-event = ["insert"] # Ignore insert events. ignore-sql = ["^drop", "add column"] # Ignore DDLs that start with "drop" or contain "add column". ignore-delete-value-expr = "name = 'john'" # Ignore delete DMLs that contain the condition "name = 'john'". ignore-insert-value-expr = "id >= 100" # Ignore insert DMLs that contain the condition "id >= 100". ignore-update-old-value-expr = "age < 18 or name = 'lili'" # Ignore update DMLs whose old value contains "age < 18" or "name = 'lili'". ignore-update-new-value-expr = "gender = 'male' and age > 18" # Ignore update DMLs whose new value contains "gender = 'male'" and "age > 18".

イベント フィルター ルールは、 [filter]構成の下にある必要があります。詳細な設定については、 タスク構成ファイルを参照してください。

構成パラメータの説明:

  • matcher : このイベント フィルター規則が適用されるデータベースとテーブル。構文はテーブル フィルターと同じです。
  • ignore-event : 無視するイベント タイプ。このパラメーターは、文字列の配列を受け入れます。複数のイベント タイプを設定できます。現在、次のイベント タイプがサポートされています。
イベントタイプエイリアス説明
すべてのdmlすべての DML イベントに一致
すべての ddlすべての DDL イベントに一致
入れるDMLinsertの DML イベントに一致
アップデートDMLupdateの DML イベントに一致
消去DMLdeleteの DML イベントに一致
スキーマを作成するDDLデータベースを作成するcreate databaseのイベントに一致
スキーマを削除DDLデータベースをドロップdrop databaseのイベントに一致
テーブルを作成DDLcreate tableのイベントに一致
ドロップテーブルDDLdrop tableのイベントに一致
テーブルの名前を変更DDLrename tableのイベントに一致
テーブルを切り捨てるDDLtruncate tableのイベントに一致
他の机DDLalter tablecreate index 、およびdrop indexのすべての節を含むalter tableのイベントに一致します
テーブルパーティションを追加DDLadd table partitionのイベントに一致
テーブル パーティションの削除DDLdrop table partitionのイベントに一致
テーブル パーティションの切り捨てDDLtruncate table partitionのイベントに一致
ビューを作成DDLcreate viewのイベントに一致
ビューをドロップDDLdrop viewのイベントに一致
  • ignore-sql : 無視される DDL ステートメント。このパラメーターは、複数の正規表現を構成できる文字列の配列を受け入れます。このルールは、DDL イベントにのみ適用されます。
  • ignore-delete-value-expr : このパラメーターは SQL 式を受け入れます。このルールは、指定された値を持つ DML イベントの削除にのみ適用されます。
  • ignore-insert-value-expr : このパラメーターは SQL 式を受け入れます。このルールは、指定された値を持つ挿入 DML イベントにのみ適用されます。
  • ignore-update-old-value-expr : このパラメーターは SQL 式を受け入れます。このルールは、古い値に指定された値が含まれる更新 DML イベントにのみ適用されます。
  • ignore-update-new-value-expr : このパラメーターは SQL 式を受け入れます。このルールは、新しい値に指定された値が含まれる更新 DML イベントにのみ適用されます。

ノート:

  • TiDB がクラスター化インデックスの列の値を更新すると、TiDB はUPDATEイベントをDELETEイベントとINSERTイベントに分割します。 TiCDC はそのようなイベントをUPDATEイベントとして識別しないため、そのようなイベントを正しく除外できません。
  • SQL 式を構成するときは、 matcherに一致するすべてのテーブルに、SQL 式で指定されたすべての列が含まれていることを確認してください。そうしないと、レプリケーション タスクを作成できません。さらに、レプリケーション中にテーブル スキーマが変更され、テーブルに必要な列が含まれなくなった場合、レプリケーション タスクは失敗し、自動的に再開できません。このような状況では、構成を手動で変更し、タスクを再開する必要があります。

互換性に関する注意事項

  • TiCDC v4.0.0 では、 ignore-txn-commit-tsが削除され、 ignore-txn-start-tsが追加され、start_ts を使用してトランザクションをフィルタリングします。
  • TiCDC v4.0.2 では、 db-dbs / db-tables / ignore-dbs / ignore-tablesが削除され、データベースとテーブルに新しいフィルター ルールを使用するrulesが追加されました。詳細なフィルター構文については、 テーブル フィルターを参照してください。
  • TiCDC v6.1.0 では、 mounterが削除されました。 mounterを構成すると、TiCDC はエラーを報告しませんが、構成は有効になりません。

Kafka Sink のトピックおよびパーティション ディスパッチャーのルールをカスタマイズする

マッチャーのルール

前のセクションの例では:

  • マッチャー ルールに一致するテーブルについては、対応するトピック式で指定されたポリシーに従ってディスパッチされます。たとえば、 test3.aaテーブルは「トピック式 2」に従ってディスパッチされます。 test5.aaテーブルは「トピック式 3」に従ってディスパッチされます。
  • 複数のマッチャー ルールに一致するテーブルの場合、最初に一致したトピック式に従ってディスパッチされます。たとえば、「トピック表現 1」に従って、 test1.aaのテーブルが分散されます。
  • どのマッチャー ルールにも一致しないテーブルの場合、対応するデータ変更イベントが--sink-uriで指定されたデフォルト トピックに送信されます。たとえば、 test10.aaテーブルはデフォルト トピックに送信されます。
  • マッチャー ルールに一致するが、トピック ディスパッチャーが指定されていないテーブルの場合、対応するデータ変更は--sink-uriで指定されたデフォルト トピックに送信されます。たとえば、 test6.aaテーブルはデフォルト トピックに送信されます。

トピック ディスパッチャ

topic = "xxx" を使用してトピック ディスパッチャを指定し、トピック式を使用して柔軟なトピック ディスパッチ ポリシーを実装できます。トピックの総数は 1000 未満にすることをお勧めします。

Topic 式の形式は[prefix]{schema}[middle][{table}][suffix]です。

  • prefix : オプション。トピック名のプレフィックスを示します。
  • {schema} : 必須。スキーマ名と一致させるために使用されます。
  • middle : オプション。スキーマ名とテーブル名の間の区切り文字を示します。
  • {table} : オプション。テーブル名と一致させるために使用されます。
  • suffix : オプション。トピック名のサフィックスを示します。

prefixmiddle 、およびsuffixには、次の文字のみを含めることができます: a-zA-Z0-9._ 、および-{schema}{table}は両方とも小文字です。 {Schema}{TABLE}などのプレースホルダーは無効です。

いくつかの例:

  • matcher = ['test1.table1', 'test2.table2'], topic = "hello_{schema}_{table}"
    • test1.table1に対応するデータ変更イベントは、 hello_test1_table1という名前のトピックに送信されます。
    • test2.table2に対応するデータ変更イベントは、 hello_test2_table2という名前のトピックに送信されます。
  • matcher = ['test3.*', 'test4.*'], topic = "hello_{schema}_world"
    • test3のすべてのテーブルに対応するデータ変更イベントは、 hello_test3_worldという名前のトピックに送信されます。
    • test4のすべてのテーブルに対応するデータ変更イベントは、 hello_test4_worldという名前のトピックに送信されます。
  • matcher = ['*.*'], topic = "{schema}_{table}"
    • TiCDC がリッスンするすべてのテーブルは、「schema_table」ルールに従って個別のトピックにディスパッチされます。たとえば、 test.accountテーブルの場合、TiCDC はそのデータ変更ログをtest_accountという名前のトピックにディスパッチします。

DDL イベントのディスパッチ

スキーマレベルの DDL

create databasedrop databaseなど、特定のテーブルに関連付けられていない DDL は、スキーマ レベルの DDL と呼ばれます。スキーマレベルの DDL に対応するイベントは、 --sink-uriで指定されたデフォルトのトピックに送信されます。

テーブルレベルの DDL

alter tablecreate tableなど、特定のテーブルに関連する DDL はテーブルレベル DDL と呼ばれます。テーブルレベルの DDL に対応するイベントは、ディスパッチャの構成に従って、対応するトピックに送信されます。

たとえば、 matcher = ['test.*'], topic = {schema}_{table}のようなディスパッチャーの場合、DDL イベントは次のようにディスパッチされます。

  • DDL イベントに含まれるテーブルが 1 つの場合、DDL イベントは対応するトピックにそのまま送信されます。たとえば、DDL イベントdrop table test.table1の場合、イベントはtest_table1という名前のトピックに送信されます。
  • DDL イベントに複数のテーブルが含まれる場合 ( rename table / drop table / drop viewは複数のテーブルが含まれる場合があります)、DDL イベントは複数のイベントに分割され、対応するトピックに送信されます。たとえば、DDL イベントrename table test.table1 to test.table10, test.table2 to test.table20の場合、イベントrename table test.table1 to test.table10test_table1という名前のトピックに送信され、イベントrename table test.table2 to test.table20test.table2という名前のトピックに送信されます。

区画ディスパッチャー

partition = "xxx"を使用して、パーティション ディスパッチャーを指定できます。デフォルト、ts、インデックス値、およびテーブルの 4 つのディスパッチャがサポートされています。ディスパッチャのルールは次のとおりです。

  • デフォルト: 複数の一意のインデックス (主キーを含む) が存在する場合、または古い値機能が有効になっている場合、イベントはテーブル モードでディスパッチされます。一意のインデックス (または主キー) が 1 つだけ存在する場合、イベントはインデックス値モードで送出されます。
  • ts: 行変更の commitTs を使用して、イベントをハッシュおよびディスパッチします。
  • index-value: 主キーの値またはテーブルの一意のインデックスを使用して、イベントをハッシュしてディスパッチします。
  • table: テーブルのスキーマ名とテーブル名を使用して、イベントをハッシュしてディスパッチします。

ノート:

v6.1 以降、構成の意味を明確にするために、パーティション ディスパッチャーを指定するために使用される構成がdispatcherからpartitionに変更されましたpartitiondispatcherのエイリアスです。たとえば、次の 2 つのルールはまったく同じです。

[sink] dispatchers = [ {matcher = ['*.*'], dispatcher = "ts"}, {matcher = ['*.*'], partition = "ts"}, ]

ただし、 dispatcherpartitionを同じルールに含めることはできません。たとえば、次のルールは無効です。

{matcher = ['*.*'], dispatcher = "ts", partition = "table"},

行変更イベントの履歴値を出力v4.0.5 の新機能

デフォルトの構成では、レプリケーション タスクの TiCDC Open Protocol 出力の Row Changed Event には、変更前の値ではなく、変更された値のみが含まれます。したがって、出力値は、TiCDC Open Protocol のコンシューマー側で行変更イベントの履歴値として使用することはできません。

v4.0.5 以降、TiCDC は行変更イベントの履歴値の出力をサポートしています。この機能を有効にするには、ルート レベルのchangefeedの構成ファイルで次の構成を指定します。

enable-old-value = true

この機能は、v5.0 以降、デフォルトで有効になっています。この機能を有効にした後の TiCDC Open Protocol の出力形式については、 TiCDC オープン プロトコル - 行変更イベントを参照してください。

照合の新しいフレームワークを有効にしてテーブルを複製する

v4.0.15、v5.0.4、v5.1.1、および v5.2.0 以降、TiCDC は照合のための新しいフレームワークを有効にしたテーブルをサポートします。

有効なインデックスのないテーブルをレプリケートする

v4.0.8 以降、TiCDC は、タスク構成を変更することにより、有効なインデックスを持たないテーブルの複製をサポートします。この機能を有効にするには、 changefeed構成ファイルで次のように構成します。

enable-old-value = true force-replicate = true

ユニファイドソーター

ユニファイド ソーターは、TiCDC のソーティング エンジンです。次のシナリオによって発生する OOM の問題を軽減できます。

  • TiCDC のデータ レプリケーション タスクは長時間一時停止されます。その間、大量の増分データが蓄積され、レプリケートする必要があります。
  • データ複製タスクは早いタイムスタンプから開始されるため、大量の増分データを複製する必要があります。

v4.0.13 以降のcdc cliを使用して作成された変更フィードの場合、Unified Sorter はデフォルトで有効になっています。 v4.0.13 より前に存在していた変更フィードについては、以前の構成が使用されます。

ユニファイド ソーター機能が変更フィードで有効になっているかどうかを確認するには、次のコマンド例を実行します (PD インスタンスの IP アドレスがhttp://10.0.10.25:2379であると仮定します)。

cdc cli --pd="http://10.0.10.25:2379" changefeed query --changefeed-id=simple-replication-task | grep 'sort-engine'

上記のコマンドの出力で、値sort-engineが「unified」の場合、変更フィードでユニファイド ソーターが有効になっていることを意味します。

ノート:

  • サーバーが機械式ハード ドライブまたはその他のストレージ デバイスを使用しており、レイテンシーが大きいか帯域幅が限られている場合は、統合ソーターを慎重に使用してください。
  • デフォルトでは、Unified Sorter はdata_dirを使用して一時ファイルを保存します。空きディスク容量が 500 GiB 以上であることを確認することをお勧めします。実稼働環境では、各ノードの空きディスク容量が (ビジネスで許容される最大checkpoint-ts遅延) * (ビジネス ピーク時のアップストリーム書き込みトラフィック) より大きいことを確認することをお勧めします。また、 changefeedの作成後に大量の履歴データをレプリケートする予定がある場合は、各ノードの空き容量がレプリケートされたデータの量よりも多いことを確認してください。
  • 統合ソーターはデフォルトで有効になっています。サーバーが上記の要件に一致せず、統合ソーターを無効にする場合は、changefeed のsort-engineからmemoryを手動で設定する必要があります。
  • memoryを使用してソートする既存の変更フィードでユニファイド ソーターを有効にするには、 タスクの中断後に TiCDC が再起動された後に発生する OOM を処理するにはどうすればよいですか?で提供されているメソッドを参照してください。

災害シナリオにおける結果整合性レプリケーション

v5.3.0 以降、TiCDC はアップストリームの TiDB クラスターから S3 ストレージまたはダウンストリーム クラスターの NFS ファイル システムへの増分データのバックアップをサポートします。アップストリーム クラスターが災害に遭遇して利用できなくなった場合、TiCDC はダウンストリーム データを最新の結果整合性のある状態に復元できます。これは、TiCDC が提供する結果整合性のあるレプリケーション機能です。この機能を使用すると、アプリケーションをダウンストリーム クラスターにすばやく切り替えて、長時間のダウンタイムを回避し、サービスの継続性を向上させることができます。

現在、TiCDC は、TiDB クラスターから別の TiDB クラスターまたは MySQL 互換データベース システム ( Aurora、MySQL、および MariaDB を含む) に増分データを複製できます。アップストリーム クラスターがクラッシュした場合、災害前の TiCDC のレプリケーション ステータスが正常であり、レプリケーション ラグが小さいという条件を考えると、TiCDC は 5 分以内にダウンストリーム クラスターのデータを復元できます。最大で 10 秒のデータ損失が許容されます。つまり、RTO <= 5 分、および P95 RPO <= 10 秒です。

次のシナリオでは、TiCDC のレプリケーション ラグが増加します。

  • 短時間でTPSが大幅に上昇
  • アップストリームで大規模または長時間のトランザクションが発生する
  • アップストリームの TiKV または TiCDC クラスターがリロードまたはアップグレードされている
  • add indexなどの時間のかかる DDL ステートメントはアップストリームで実行されます。
  • PD はアグレッシブなスケジューリング戦略で構成されているため、リージョンリーダーが頻繁に異動したり、リージョンの合併やリージョンの分割が頻繁に発生したりします。

前提条件

  • TiCDC のリアルタイム増分データ バックアップ ファイルを格納するために、高可用性 Amazon S3 ストレージまたは NFS システムを準備します。これらのファイルには、プライマリ クラスタの障害が発生した場合にアクセスできます。
  • 災害シナリオで結果整合性を確保する必要がある変更フィードに対して、この機能を有効にします。これを有効にするには、changefeed 構成ファイルに次の構成を追加します。
[consistent] # Consistency level. Options include: # - none: the default value. In a non-disaster scenario, eventual consistency is only guaranteed if and only if finished-ts is specified. # - eventual: Uses redo log to guarantee eventual consistency in case of the primary cluster disasters. level = "eventual" # Individual redo log file size, in MiB. By default, it's 64. It is recommended to be no more than 128. max-log-size = 64 # The interval for flushing or uploading redo logs to S3, in milliseconds. By default, it's 1000. The recommended range is 500-2000. flush-interval = 1000 # Form of storing redo log, including nfs (NFS directory) and S3 (uploading to S3). storage = "s3://logbucket/test-changefeed?endpoint=http://$S3_ENDPOINT/"

災害からの回復

主クラスタで障害が発生した場合、 cdc redoコマンドを実行して副クラスタで手動で復旧する必要があります。回復プロセスは次のとおりです。

  1. すべての TiCDC プロセスが終了していることを確認します。これは、データ リカバリ中にプライマリ クラスタがサービスを再開するのを防ぎ、TiCDC がデータ同期を再開するのを防ぐためです。
  2. データの回復には cdc バイナリを使用します。次のコマンドを実行します。
cdc redo apply --tmp-dir="/tmp/cdc/redo/apply" \ --storage="s3://logbucket/test-changefeed?endpoint=http://10.0.10.25:24927/" \ --sink-uri="mysql://normal:123456@10.0.10.55:3306/"

このコマンドでは:

  • tmp-dir : TiCDC 増分データ バックアップ ファイルをダウンロードするための一時ディレクトリを指定します。
  • storage : Amazon S3 ストレージまたは NFS ディレクトリのいずれかで、TiCDC 増分データ バックアップ ファイルを保存するためのアドレスを指定します。
  • sink-uri : データを復元するセカンダリ クラスタ アドレスを指定します。スキームはmysqlのみです。