DM での継続的なデータ検証

このドキュメントでは、DM で継続的なデータ検証を使用する方法、その動作原理、および制限について説明します。

ユーザーシナリオ

アップストリーム データベースからダウンストリーム データベースにデータを段階的に移行するプロセスでは、データの流れによってデータの破損や損失が発生する可能性がわずかにあります。クレジット業界や証券業界など、データの一貫性が必要なシナリオでは、移行の完了後に完全なデータ検証を実行して、データの一貫性を確保できます。

ただし、増分移行シナリオでは、アップストリームとダウンストリームが継続的にデータを書き込んでいます。データはアップストリームとダウンストリームで常に変化しているため、テーブル内のすべてのデータに対して完全なデータ検証 (たとえば、 同期差分インスペクターを使用) を実行することは困難です。

増分移行シナリオでは、DM で継続的なデータ検証機能を使用できます。この機能により、データがダウンストリームに継続的に書き込まれる増分移行中に、データの整合性と一貫性が保証されます。

継続的なデータ検証を有効にする

次のいずれかの方法を使用して、継続的なデータ検証を有効にすることができます。

  • タスク構成ファイルで有効にします。
  • dmctl を使用して有効にします。

方法 1: タスク構成ファイルで有効にする

継続的なデータ検証を有効にするには、次の構成項目をタスク構成ファイルに追加します。

# Add the following configuration items to the upstream database that needs to be validated: mysql-instances: - source-id: "mysql1" block-allow-list: "bw-rule-1" validator-config-name: "global" validators: global: mode: full # "fast" is also allowed. "none" is the default mode, which means no validation is performed. worker-count: 4 # The number of validation workers in the background. The default value is 4. row-error-delay: 30m # If a row cannot pass the validation within the specified time, it will be marked as an error row. The default value is 30m, which means 30 minutes.

設定項目は次のとおりです。

  • mode : 検証モード。可能な値はnonefull 、およびfastです。
    • none : デフォルト値。これは、検証が実行されないことを意味します。
    • full : 変更された行と下流のデータベースで取得された行を比較します。
    • fast : 変更された行がダウンストリーム データベースに存在するかどうかのみを確認します。
  • worker-count : バックグラウンドでの検証ワーカーの数。各ワーカーはゴルーチンです。
  • row-error-delay : 行が指定された時間内に検証に合格できない場合、エラー行としてマークされます。デフォルト値は 30 分です。

完全な構成については、 DM 拡張タスクConfiguration / コンフィグレーションファイルを参照してください。

方法 2: dmctl を使用して有効にする

継続的なデータ検証を有効にするには、次のdmctl validation startコマンドを実行します。

Usage: dmctl validation start [--all-task] [task-name] [flags] Flags: --all-task whether applied to all tasks -h, --help help for start --mode string specify the mode of validation: full (default), fast; this flag will be ignored if the validation task has been ever enabled but currently paused (default "full") --start-time string specify the start time of binlog for validation, e.g. '2021-10-21 00:01:00' or 2021-10-21T00:01:00
  • --mode : 検証モードを指定します。可能な値はfastfullです。
  • --start-time : 検証の開始時間を指定します。フォーマットは2021-10-21 00:01:00または2021-10-21T00:01:00に従います。
  • task : 継続的な検証を有効にするタスクの名前を指定します。 --all-taskを使用して、すべてのタスクの検証を有効にすることができます。

例えば:

dmctl --master-addr=127.0.0.1:8261 validation start --start-time 2021-10-21T00:01:00 --mode full my_dm_task

継続的なデータ検証を使用する

継続的なデータ検証を使用する場合、dmctl を使用して検証のステータスを表示し、エラー行を処理できます。 「エラー行」とは、アップストリーム データベースとダウンストリーム データベースの間で矛盾が見つかった行を指します。

検証ステータスをビューする

次のいずれかの方法を使用して、検証ステータスを表示できます。

方法 1: dmctl query-status <task-name>コマンドを実行します。継続的なデータ検証が有効になっている場合、検証結果は各サブタスクのvalidationフィールドに表示されます。出力例:

"subTaskStatus": [ { "name": "test", "stage": "Running", "unit": "Sync", "result": null, "unresolvedDDLLockID": "", "sync": { ... }, "validation": { "task": "test", // Task name "source": "mysql-01", // Source id "mode": "full", // Validation mode "stage": "Running", // Current stage. "Running" or "Stopped". "validatorBinlog": "(mysql-bin.000001, 5989)", // The binlog position of the validation "validatorBinlogGtid": "1642618e-cf65-11ec-9e3d-0242ac110002:1-30", // The GTID position of the validation "result": null, // When the validation is abnormal, show the error message "processedRowsStatus": "insert/update/delete: 0/0/0", // Statistics of the processed binlog rows. "pendingRowsStatus": "insert/update/delete: 0/0/0", // Statistics of the binlog rows that are not validated yet or that fail to be validated but are not marked as "error rows" "errorRowsStatus": "new/ignored/resolved: 0/0/0" // Statistics of the error rows. The three statuses are explained in the next section. } } ]

方法 2: dmctl validation status <taskname>コマンドを実行します。

dmctl validation status [--table-stage stage] [flags] Flags: -h, --help help for status --table-stage string filter validation tables by stage: running/stopped

上記のコマンドでは、 --table-stageを使用して、検証中のテーブルをフィルター処理するか、検証を停止できます。出力例:

{ "result": true, "msg": "", "validators": [ { "task": "test", "source": "mysql-01", "mode": "full", "stage": "Running", "validatorBinlog": "(mysql-bin.000001, 6571)", "validatorBinlogGtid": "", "result": null, "processedRowsStatus": "insert/update/delete: 2/0/0", "pendingRowsStatus": "insert/update/delete: 0/0/0", "errorRowsStatus": "new/ignored/resolved: 0/0/0" } ], "tableStatuses": [ { "source": "mysql-01", // Source id "srcTable": "`db`.`test1`", // Source table name "dstTable": "`db`.`test1`", // Target table name "stage": "Running", // Validation status "message": "" // Error message } ] }

エラーの種類やエラー時間など、エラー行の詳細を表示する場合は、次のdmctl validation show-errorコマンドを実行します。

Usage: dmctl validation show-error [--error error-state] [flags] Flags: --error string filtering type of error: all, ignored, or unprocessed (default "unprocessed") -h, --help help for show-error

出力例:

{ "result": true, "msg": "", "error": [ { "id": "1", // Error row id, which will be used in processing error rows "source": "mysql-replica-01", // Source id "srcTable": "`validator_basic`.`test`", // Source table of the error row "srcData": "[0, 0]", // Data of the error row in the source table "dstTable": "`validator_basic`.`test`", // Target table of the error row "dstData": "[]", // Data of the error row in the target table "errorType": "Expected rows not exist", // Error type "status": "NewErr", // Error status "time": "2022-07-04 13:33:02", // Discovery time of the error row "message": "" // Additional information } ] }

エラー行の処理

継続的なデータ検証でエラー行が返された後、エラー行を手動で処理する必要があります。

継続的なデータ検証でエラー行が見つかった場合、検証はすぐには停止しません。代わりに、エラー行を記録して処理できるようにします。エラー行が処理される前のデフォルトのステータスはunprocessedです。ダウンストリームでエラー行を手動で修正した場合、検証では、修正されたデータの最新のステータスが自動的に取得されません。エラー行は引き続きerrorフィールドに記録されます。

検証ステータスでエラー行を表示したくない場合、またはエラー行を解決済みとしてマークする場合は、 validation show-errorコマンドを使用してエラー行 ID を見つけ、その後、指定されたエラー ID でそれを処理できます。

dmctl には、次の 3 つのエラー処理コマンドが用意されています。

  • clear-error : エラー行をクリアします。 show-errorコマンドはエラー行を表示しなくなりました。

    Usage: dmctl validation clear-error [flags] Flags: --all all errors -h, --help help for clear-error
  • ignore-error : エラー行を無視します。このエラー行は「無視」としてマークされます。

    Usage: dmctl validation ignore-error [flags] Flags: --all all errors -h, --help help for ignore-error
  • resolve-error : エラー行は手動で処理され、「解決済み」としてマークされます。

    Usage: dmctl validation resolve-error [flags] Flags: --all all errors -h, --help help for resolve-error

継続的なデータ検証を停止する

継続的なデータ検証を停止するには、次のvalidation stopコマンドを実行します。

Usage: dmctl validation stop [--all-task] [task-name] [flags] Flags: --all-task whether applied to all tasks -h, --help help for stop

詳細な使用方法については、 dmctl validation startを参照してください。

実装

DM での継続的なデータ検証 (バリデーター) のアーキテクチャは次のとおりです。

validator summary

継続的なデータ検証のライフサイクルは次のとおりです。

validator lifecycle

継続的なデータ検証の詳細な実装は次のとおりです。

  1. バリデーターは上流から binlog イベントをプルし、変更された行を取得します。
    • バリデータは、syncer によって増分的に移行されたイベントのみをチェックします。イベントが syncer によって処理されていない場合、バリデーターは一時停止し、syncer が処理を完了するまで待機します。
    • イベントが syncer によって処理された場合、バリデーターは次の手順に進みます。
  2. バリデーターは binlog イベントを解析し、ブロック リストと許可リスト、テーブル フィルター、およびテーブル ルーティングに基づいて行をフィルター処理します。その後、バリデーターは変更された行をバックグラウンドで実行される検証ワーカーに送信します。
  3. 検証ワーカーは、同じテーブルと同じ主キーに影響する変更された行をマージして、「期限切れ」のデータの検証を回避します。変更された行はメモリーにキャッシュされます。
  4. 検証ワーカーが一定数の変更された行を蓄積するか、一定の時間間隔が経過すると、検証ワーカーは主キーを使用してダウンストリーム データベースにクエリを実行し、現在のデータを取得して変更された行と比較します。
  5. 検証ワーカーはデータ検証を実行します。検証モードがfullの場合、検証ワーカーは変更された行のデータをダウンストリーム データベースのデータと比較します。検証モードがfastの場合、検証ワーカーは変更された行の存在のみをチェックします。
    • 変更された行が検証に合格すると、変更された行はメモリから削除されます。
    • 変更された行が検証に失敗した場合、バリデーターはすぐにエラーを報告しませんが、行を再度検証する前に一定の時間間隔を待ちます。
    • 変更された行が (ユーザーが指定した) 指定された時間内に検証に合格できない場合、バリデーターはその行をエラー行としてマークし、ダウンストリームのメタ データベースに書き込みます。移行タスクをクエリすることで、エラー行の情報を表示できます。詳細については、 検証ステータスをビューするおよびエラー行の処理を参照してください。

制限事項

  • 検証するソース テーブルには、主キーまたは null 以外の一意のキーが必要です。
  • DM がアップストリーム データベースから DDL を移行する場合、次の制限が適用されます。
    • DDL で主キーを変更したり、列の順序を変更したり、既存の列を削除したりしてはなりません。
    • テーブルを削除してはなりません。
  • 式を使用してイベントをフィルタリングするタスクはサポートされていません。
  • TiDB と MySQL では浮動小数点数の精度が異なります。 10^-6 より小さい差は等しいと見なされます。
  • 次のデータ型はサポートされていません。
    • JSON
    • バイナリデータ
Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.