Domanda

Secondo il titolo di questa domanda, per situazioni critiche estremamente prestazionali, è la memorizzazione dei metadati di un file (ad esempio posizione, dimensioni, download, ecc.) In un database consentirà prestazioni migliori rispetto al tentativo di ottenerlo dal file system stesso? Ci sono stati casi di studio in questo problema?

Per fornire un po 'più di dettagli su una situazione specifica, l'applicazione deve rispecchiare terabyte di dati (centinaia di file) tra un sito remoto su base continua e l'attuale architettura del programma utilizza comandi UNIX (cioè ls) per determinare quali file dovevano essere aggiornati. Il file stesso è diviso tra i cluster IQ IQ e i cluster per thumper Sun che mi è stato detto un buon throughput ma scarse prestazioni dei metadati. Poiché l'applicazione sarà l'unico processo ad avere le autorizzazioni di scrittura ai file che non ci occupiamo delle cose che escono dalla sincronizzazione, ma ci occupiamo delle prestazioni in quanto attualmente richiedono tra le sei e le dieci ore per trasferire i dati.

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top