Domanda

La domanda principale è la seguente:
Quando si progetta un sistema a supporto della trasmissione atomica, si può dimostrare teoricamente che le dimensioni delle prestazioni e della scalabilità (cioè latenza, throughput, dimensione del set di dati) del sistema sono limitate dalle prestazioni di un singolo nodo?

Per fare un esempio:
Un sistema basato su log partizionati, come Apache Kafka, può fornire garanzie di ordinazione in un'unica partizione, ma non può fornire alcuna garanzia di ordinazione tra diverse partizioni. Tuttavia, ciò offre a Kafka la capacità di ridimensionare a set di dati estremamente grandi. Stavo pensando se sarebbe stato possibile creare un sistema in grado di fornire la garanzia di ordinazione per l'intero set di dati, consentendo anche alle dimensioni del set di dati di aumentare nello stesso modo quasi lineare.

La mia risposta speculativa a questo è No Per il seguente motivo:
È stato dimostrato che il problema della trasmissione atomica è equivalente al problema del consenso [1]. Sulla base del fatto che il problema del consenso richiede un leader eletto, che guida il processo di consenso, ho concluso che le capacità di ridimensionamento di tale sistema sono limitate dalle risorse di un singolo nodo.

Ci sono difetti nel mio pensiero?

[1]: https://en.wikipedia.org/wiki/atomic_broadcast#equivalent_to_consensus

Nessuna soluzione corretta

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a cs.stackexchange
scroll top