Domanda

Ho un objectdatasource che restituirà una raccolta potenzialmente ampia (fino a 200.000 record) rilegata e impaginata in una gridview.Sto utilizzando il paging e la memorizzazione nella cache predefiniti sull'oggettodatasource.I dati restituiti vengono aggiornati solo settimanalmente, quindi i dati obsoleti non costituiscono un problema.Anche il paging in questa soluzione è stato più veloce rispetto a quando ho creato una soluzione utilizzando il paging personalizzato.

Le mie domande sono:La memorizzazione nella cache di un set di record così grande è accettabile per te?Se no, perché?Esistono contatori delle prestazioni che utilizzi per visualizzare l'impatto sulla memoria creato dai dati memorizzati nella cache?

Grazie!

È stato utile?

Soluzione

per rispondere alle tue domande:

1) Sì, la memorizzazione nella cache di un set di dati di grandi dimensioni è ok.In particolare, generare il set di dati è più costoso rispetto alla memorizzazione nella cache.Inoltre, poiché si tratta di dati abbastanza statici, questo lo rende un buon candidato.
2) Per quanto riguarda i contatori delle prestazioni, dipende in qualche modo dal meccanismo di memorizzazione nella cache utilizzato.Se utilizzi il blocco di memorizzazione nella cache di Enterprise Librarie, ad esempio, ha dei contatori integrati.Per quanto riguarda i contatori generali, osservare i contatori di memoria, il working set, i byte privati ​​ecc...

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top