Cosa sta succedendo a database cloud in memoria distribuiti come Hazelcast e Scalris se ci sono più dati da archiviare rispetto alla RAM nel cluster?
-
22-07-2019 - |
Domanda
Cosa sta succedendo a tali database cloud in memoria distribuiti come
se ci sono più dati da archiviare rispetto alla RAM nel cluster?
Scambieranno? Cosa succede se lo spazio di Swap è pieno? Non riesco a vedere una strategia di ripristino di emergenza in entrambi i database! Forse tutti i dati vengono persi se la memoria è piena?
Esiste una disponibilità per scrivere cose sul disco rigido per problemi di memoria? Esistono altri database là fuori che offrono le stesse funzionalità di Hazelcast o Scalaris con funzionalità di backup / hdd-storage / disaster recovery?
Soluzione
Non so quale fosse la situazione quando fu pubblicata la risposta accettata da Martin K., ma le FAQ di Scalaris ora sostengono che ciò è supportato.
Posso memorizzare più dati in Scalaris di ram + swapspace è disponibile nel cluster?
Sì. Abbiamo diversi database backend, ad es. src / db_ets.erl (ets) e src / db_tcerl (tokyocabinet). Il ex utilizza la memoria principale per memorizzazione dei dati, mentre quest'ultimo utilizza tokyocabinet per la memorizzazione di dati su disco. Con tokycoabinet, solo il tuo locale i dischi dovrebbero limitare la dimensione totale di il tuo database. Si noti tuttavia che questo non fornisce ancora persistenza.
Per istruzioni su come cambiare il database backend a tokyocabinet vedi Tokyocabinet .
Altri suggerimenti
Per quanto riguarda i team di Hazelcast e Scalaris, affermano entrambi che non è supportata la scrittura di più dati rispetto alla RAM.
Il team Hazlecast scriverà un negozio di file flat nel prossimo futuro.