Question

J'ai remarqué un changement de performance intéressant qui se produit autour de 1,5 million de valeurs entrées. Quelqu'un peut-il me donner une bonne explication pourquoi cela se produit?

La table est très simple. Il est composé de (BigInt, Bigint, Bigint, Bool, Varbinary (Max)) J'ai un index clusier PK sur les trois premiers Bigints. J'insère uniquement booléen "true" sous forme de données varbinaire (max).

À partir de ce moment, les performances semblent assez constantes.

Légende: Y (temps dans MS) | X (insère 10k)

enter image description here

Je suis aussi des curiosités à propos des pointes constantes relativement petites (parfois très grandes) que j'ai sur le graphique.

Plan d'exécution réel avant les pointes.

Actual Execution Plan from before spikes

Légende:
Tableau J'inserte dans: tsmdatatable
1. BigInt Datanodeid - FK
2. BigInt TS - Timestap principal
3. BigInt CTS - Timestamp de modification
4. Bit: ICT - Reste la dernière valeur insérée (augmente les performances de lecture)
5. Données: données
Bool Valeur Time Stampl

Environnement
C'est local.
Il ne partage aucune ressource.
Il s'agit de la base de données de taille fixe (suffisamment pour ne pas se développer).
(Computer, 4 Core, 8 Go, 7200RPS, Win 7).
(SQL Server 2008 R2 DC, Affinité du processeur (Core 1,2), 3 Go,)

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top