TiDB TPC-C パフォーマンス テスト レポート -- v5.1.0 対 v5.0.2

テストの概要

このテストは、オンライン分析処理 (OLAP) シナリオで TiDB v5.1.0 と TiDB v5.0.2 の TPC-H パフォーマンスを比較することを目的としています。結果は、v5.0.2 と比較して、v5.1.0 の TPC-C パフォーマンスが 2.8% 向上したことを示しています。

テスト環境(AWS EC2)

ハードウェア構成

サービスの種類EC2タイプインスタンス数
PDm5.xlarge3
TiKVi3.4xlarge3
TiDBc5.4xlarge3
TPC-Cc5.9xlarge1

ソフトウェアバージョン

サービスの種類ソフトウェアバージョン
PDv5.0.2 および v5.1.0
TiDBv5.0.2 および v5.1.0
TiKVv5.0.2 および v5.1.0
TiUP1.5.1

パラメータ構成

TiDB v5.1.0 と TiDB v5.0.2 は同じ構成を使用します。

TiDB パラメーター構成

log.level: "error" performance.max-procs: 20 prepared-plan-cache.enabled: true tikv-client.max-batch-wait-time: 2000000

TiKV パラメータ設定

pessimistic-txn.pipelined: true raftdb.allow-concurrent-memtable-write: true raftdb.max-background-jobs: 4 raftstore.apply-max-batch-size: 2048 raftstore.apply-pool-size: 3 raftstore.store-max-batch-size: 2048 raftstore.store-pool-size: 3 readpool.storage.normal-concurrency: 10 readpool.unified.max-thread-count: 20 readpool.unified.min-thread-count: 5 rocksdb.max-background-jobs: 8 server.grpc-concurrency: 6 storage.scheduler-worker-pool-size: 20 server.enable-request-batch: false

TiDB グローバル変数の構成

{{{< コピー可能な「SQL」 >}}

set global tidb_hashagg_final_concurrency=1; set global tidb_hashagg_partial_concurrency=1; set global tidb_enable_async_commit = 1; set global tidb_enable_1pc = 1; set global tidb_guarantee_linearizability = 0; set global tidb_enable_clustered_index = 1;

テスト計画

  1. TiUP を使用して TiDB v5.1.0 および v5.0.2 をデプロイします。
  2. tpcc : create database tpcc;という名前のデータベースを作成します。
  3. BenchmarkSQL を使用して、TPC-C 5000 Warehouse データをインポートしtiup bench tpcc prepare --warehouses 5000 --db tpcc -H 127.0.0.1 -p 4000
  4. tiup bench tpcc run -U root --db tpcc --host 127.0.0.1 --port 4000 --time 300s --warehouses 5000 --threads {{thread}}コマンドを実行して、HAProxy 経由で TiDB のストレス テストを実行します。
  5. 結果から New Order の tpmC データを抽出します。

テスト結果

v5.0.2 と比較して、v5.1.0 の TPC-C パフォーマンスは2.8% 向上しています。

TPC-C

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.