質問

150 万個の値を入力したあたりで、興味深いパフォーマンスの変化が発生していることに気付きました。なぜこれが起こっているのか誰かが私に適切な説明をしてくれますか?

テーブルはとてもシンプルです。これは(Bigint、Bigint、Bigint、Bool、Varbinary(Max))で構成されています。最初の3つのBigintsにPK Clusered Indexがあります。データvarbinary(max)としてブール値「true」のみを挿入します。

その時点から、パフォーマンスはかなり一定しているように見えます。

伝説:y(MSの時間)| x(10kを挿入)

enter image description here

また、グラフ上に一定の比較的小さい(時には非常に大きい)スパイクがあることにも興味があります。

スパイク前の実際の実行計画。

Actual Execution Plan from before spikes

伝説:
挿入しているテーブル:TSMデータテーブル
1.BigInt DataNodeID - fk
2.BigInt TS - メインのタイムスタンプ
3.BigInt CTS - 変更タイムスタンプ
4.少し:ICT - 最後に挿入された値の記録を保持します (読み取りパフォーマンスが向上します)。
5.データ:データ
ブール値 現在のタイムスタンプを保持

環境
ローカルです。
リソースを共有していません。
これは固定サイズのデータ​​ベースです (十分なサイズなので拡張されません)。
(コンピューター、4 コア、8GB、7200rps、Win 7)。
(SQL Server 2008 R2 DC、プロセッサ アフィニティ (コア 1、2)、3GB、)

正しい解決策はありません

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top