Frage

für das eingestellte Disjointness-Problem Bei dem 2-Partei-Modell der Kommunikationskomplexität wird Alice einen Eingang $ x $ erteilt> $ x $ und Bob wird eingegeben $ y $ , $ x $ und $ y $ sind < Span-Klasse="Math-Container"> $ n $ -Länge-Bitstrings (aus einiger Verteilung abgetastet), die als Teilmengen von $ [n] $ , dh $ x_i= 1 $ bedeutet den $ i $ -thochbisse $ x $ ist in der Teilmenge. Das Ziel ist, dass Alice und Bob beantwortet werden, ob die Teilsets, die durch $ x $ und $ y $ sind disjunkt, indem Sie so wenig Kommunikation wie möglich verwenden. Es ist bekannt, dass $ \ Omega (n) $ Bits im schlimmsten Fall für randomisierte Protokolle erforderlich sind.

Ich stieß auf diesen Entwurf des Lehrbuchs Kommunikationskomplexität von Anup Rao und Amir Yehudayoff , wo Übung 6.8 erwähnt, dass 2-Party-Set-Discointness mit einer erwarteten -Nummer von $ O (n ^ {2 / 3} \ log ^ 2 n) $ Bits, wenn die Eingänge von Alice und Bob unabhängig voneinander abgetastet werden.

Betrachten Sie das folgende Protokoll. Wenn es eine Koordinate gibt $ J \ in [n] $ , so dass $ H (x_j) $ und $ h (y_j) $ sind beide zumindest $ \ epsilon $ , dann kommunizieren Alice und Bob $ x_j, y_j $ . Sie kondensieren die Werte, die sie sehen und wiederholen, bis diese Koordinate gefunden werden kann. An diesem Punkt verwenden Alice und Bob Shannon-Codierungs-Theorem, um $ x $ , $ y $ zu codieren. Zeigen Sie, wie Sie $ \ Epsilon $ festlegen, damit die erwartete Kommunikation von $ n ^ {2/3} \ log ^ 2 n $ . TIPP: Verwenden Sie die Tatsache, dass $ H (x_j) \ ge \ epsilon $ impliziert, dass $ PR [x_j= 1] \ GE \ OMEGA (\ Epsilon / (\ \ log (1 / ε))) $ .

Ich nehme an, die Idee besteht darin, zunächst alle Indizes zu kommunizieren, in denen $ x $ und $ y $ verfügen Große Entropie und nutzen Sie dann die Tatsache, dass die verbleibenden Indizes eine kleine Entropie haben müssen. Die Details des Protokolls und bei der Unabhängigkeit von $ x $ und $ y $ kommt in , bist mir nicht klar.

War es hilfreich?

Lösung

Während der ersten Phase des Algorithmus vergrößern sich die Spieler auf eine hohe Entropie-Koordinate. Sie tauschen $ O (1) $ Bits und stoppt in jedem Schritt mit der Wahrscheinlichkeit $ \ Omega (\ Epsilon ^ 2 / \ log ^ 2 (1 / \ Epsilon)) $ (hier verwenden wir Unabhängigkeit). Daher verwendet diese Phase höchstens $ O (\ log ^ 2 (1 / \ Epsilon) / \ Epsilon ^ 2) $ Bits in Erwartung. Die zweite Phase verwendet $ O (N \ Epsilon) $ Bits. Insgesamt haben wir diese vielen Bits in Erwartung verwendet: $$ O (\ \ log ^ 2 (1 / \ epsilon) / \ epsilon ^ 2 + \ epsilon n). $$ Wählen Sie $ \ epsilon= 1 / n ^ {1/3} $ , um die angegebene Grenze zu erhalten.

Ohne Unabhängigkeit haben wir keine Kontrolle über die Haltwahrscheinlichkeit in jedem Schritt der ersten Phase. Es könnte zum Beispiel sein, dass $ x $ einheitlich nach dem Zufallsprinzip abgetastet wird, und $ y $ ist das Negation von $ x $ . In diesem Fall wird die erste Phase niemals angehalten, und das Protokoll verwendet also immer $ 2N $ Bits.

als beiseite, die obere Grenze kann auf $ o (\ sqrt {n} \ log n) $ verbessert werden, was fast mit der unteren Grenze $ \ omega (\ sqrt {n}) $ (Die Lücke könnte in der Literatur geschlossen sein). Siehe Vorlesung von Prahladh Harsha < / a>.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit cs.stackexchange
scroll top