Domanda

Quanti file può una directory di Windows Server 2008 R2 in modo sicuro tenere?

Sto pensando in termini di un sito web con gallerie di immagini. Dire c'è una directory che contiene tutte le miniature e una directory diversa che contiene le immagini a piena risoluzione. Quante coppie di immagini possono essere memorizzate in modo sicuro?

In alternativa, se non c'è un buon taglio-e-risposta secca, devo solo provare con 30.000 immagini?

È stato utile?

Soluzione

Se il server utilizza NTFS per il suo file volume di sistema, non si è limitato a qualsiasi numero di file per directory per se , ma più nel senso che si sono limitati a un certo numero di file / cartelle per volume.

Per NTFS, limiti di dimensioni sono:

  

NTFS I limiti di dimensione

     

File per volume   4,294,967,295 (2 ^ 32 meno 1 file)

Naturalmente, che non dice nulla sulle prestazioni, e ci sono altre considerazioni che possono entrare in gioco. Con 30000, non si deve preoccupare. Quando si arriva in milioni, potrebbe essere necessario avviare la ristrutturazione.

modifica al ridimensionamento indirizzo / prestazioni

Tecnicamente parlando, il file system NTFS utilizza un MFT globale che tiene traccia di tutti i file (le directory sono file e sono per lo più utilizzati per la rappresentazione logica per l'utente finale) in modo che ogni volta che si modifica il volume, che il cambiamento si riflette nella MFT.

Quando si iniziano ad avere una singola directory con un gran numero di file, una delle procedure raccomandate è quello di disattivare la generazione automatica nome 8.3. Dall'articolo TechNet ho linkato sopra:

  

Ogni volta che si crea un file con un nome di file lungo, NTFS crea una seconda voce del file che ha un simile 8,3 breve il nome del file. Un file con un nome di file breve 8.3 ha un nome di file contenente da 1 a 8 caratteri e un'estensione di file contenente da 1 a 3 caratteri. Il nome del file e estensione del file sono separati da un punto.

Quindi, se si è costantemente modificando una singola directory con una grande quantità di file, il sistema deve generare un nome breve per esso - questo può portare a una riduzione delle prestazioni se si è costantemente modificando il contenuto di una singola directory. Dal momento che si memorizzano le immagini, potrebbe essere molto probabilmente un sacco di file hanno nomi di file simili all'inizio, come imageblahblahblah.

Per prestazioni look-up di file, anche per grandi directory NTFS dovrebbe essere ragionevolmente veloce a causa del sottostante implementazione B-Tree.

Anche check out questa discussione: NTFS prestazioni e grandi volumi di file e directory

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top