Domanda

Ho notato un interessante cambiamento di prestazioni che si verifica circa 1,5 milioni di valori inseriti. Qualcuno può darmi una buona spiegazione perché sta accadendo?

La tabella è molto semplice. È composto da (Bigint, Bigint, Bigint, Bool, Varbinary (Max)) Ho un indice cluserato PK sui primi tre bigint. Inserisco solo "vero" booleano come dati varbinary (max).

Da quel momento in poi, le prestazioni sembrano abbastanza costanti.

Legenda: Y (tempo in MS) | X (inserisce 10k)

enter image description here

Sono anche curiosi su picchi costantemente relativamente piccoli (a volte molto grandi) che ho sul grafico.

Piano di esecuzione effettivo da prima di picchi.

Actual Execution Plan from before spikes

Leggenda:
Tabella in cui mi inserisco: tsmdatable
1. Bigint DataNodeId - FK
2. Bigint TS - Timestapm principale
3. Bigint CTS - Timestamp di modifica
4. BIT: ICT: tiene registrato l'ultimo valore inserito (aumenta le prestazioni delle letture)
5. Dati: dati
BOOL VALORE TEMPO CORRENTE STAMPL

Ambientamento
È locale.
Non sta condividendo alcuna risorsa.
È un database di dimensioni fisse (sufficiente per non espandersi).
(Computer, 4 core, 8 GB, 7200RP, vinci 7).
(SQL Server 2008 R2 DC, Affinità del processore (Core 1,2), 3GB,)

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top