Cosa sta succedendo a database cloud in memoria distribuiti come Hazelcast e Scalris se ci sono più dati da archiviare rispetto alla RAM nel cluster?

StackOverflow https://stackoverflow.com/questions/643142

Domanda

Cosa sta succedendo a tali database cloud in memoria distribuiti come

  1. Hazelcast
  2. Scalaris

se ci sono più dati da archiviare rispetto alla RAM nel cluster?

Scambieranno? Cosa succede se lo spazio di Swap è pieno? Non riesco a vedere una strategia di ripristino di emergenza in entrambi i database! Forse tutti i dati vengono persi se la memoria è piena?

Esiste una disponibilità per scrivere cose sul disco rigido per problemi di memoria? Esistono altri database là fuori che offrono le stesse funzionalità di Hazelcast o Scalaris con funzionalità di backup / hdd-storage / disaster recovery?

È stato utile?

Soluzione

Non so quale fosse la situazione quando fu pubblicata la risposta accettata da Martin K., ma le FAQ di Scalaris ora sostengono che ciò è supportato.

Posso memorizzare più dati in Scalaris di ram + swapspace è disponibile nel cluster?

  

Sì. Abbiamo diversi database   backend, ad es. src / db_ets.erl (ets)   e src / db_tcerl (tokyocabinet). Il   ex utilizza la memoria principale per   memorizzazione dei dati, mentre quest'ultimo utilizza   tokyocabinet per la memorizzazione di dati su disco.   Con tokycoabinet, solo il tuo locale   i dischi dovrebbero limitare la dimensione totale di   il tuo database. Si noti tuttavia che questo   non fornisce ancora persistenza.

     

Per istruzioni su come cambiare il   database backend a tokyocabinet vedi    Tokyocabinet .

Altri suggerimenti

Per quanto riguarda i team di Hazelcast e Scalaris, affermano entrambi che non è supportata la scrittura di più dati rispetto alla RAM.

Il team Hazlecast scriverà un negozio di file flat nel prossimo futuro.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top