Pregunta

Para el problema del conjunto de disgustación en el modelo de complejidad de comunicación de 2 partes, Alice recibe una entrada $ x $ y Bob recibe entrada $ y $ , $ x $ y $ y $ son < Span Class="Math-contenedor"> $ n $ -length bitstrings (muestreados de alguna distribución), que se interpretan como subconjuntos de $ [n] $ , es decir, $ x_i= 1 $ significa el $ i $ -th bit of $ x $ está en el subconjunto. El objetivo es que Alice y Bob respondan si los subconjuntos representados por $ x $ y $ y $ son Disjoint utilizando la menor comunicación como sea posible. Se sabe que $ \ omega (n) $ bits son necesarios en el peor de los casos para los protocolos aleatorios.

Me encontré con este borrador del libro de texto complejidad de la comunicación de anup rao y Amir YehudayOff , donde el ejercicio 6.8 menciona que la disyección establecida de 2 partes se puede resolver con un número esperado de $ O (n ^ {2/2 / 3} \ log ^ 2 n) $ bits Si las entradas de Alice y Bob se muestran de forma independiente.

Considerar el siguiente protocolo. Si hay una coordenada $ j \ en [n] $ de modo que $ h (x_j) $ y $ H (y_j) $ son al menos $ \ epsilon $ , luego Alice y Bob se comunican $ X_J, Y_J $ . Conduzcan en los valores que ven y repiten este paso hasta que no se puedan encontrar tal coordenada. En este punto, Alice y Bob usan el teorema de la codificación de Shannon para codificar $ x $ , $ y $ . Mostrar cómo configurar $ \ epsilon $ para que la comunicación esperada pueda limitar por $ n ^ {2/3} \ log ^ 2 n $ . Sugerencia: Use el hecho de que $ h (x_j) \ ge \ epsilon $ implica que $ PR [x_j= 1] \ ge \ omega (\ epsilon / (\ log (1 / ε))) $ .

Supongo que la idea es comunicar primero a todos los índices donde $ x $ y $ y $ tienen Gran entropía y luego use el hecho de que los índices restantes deben tener una pequeña entropía. Sin embargo, los detalles del protocolo y donde la independencia de $ x $ y $ y $ está llegando , no están claros para mí.

¿Fue útil?

Solución

Durante la primera fase del algoritmo, los jugadores se acercan a una coordenada de alta entropía. Intercambian $ o (1) $ bits, y deténgase en cada paso con probabilidad $ \ omega (\ epsilon ^ 2 / \ log ^ 2 (1 / \ Epsilon)) $ (aquí usamos la independencia). Por lo tanto, esta fase se usa en la mayoría de $ o (\ log ^ 2 (1 / \ epsilon) / \ epsilon ^ 2) $ bits en la expectativa. La segunda fase utiliza $ o (n \ epsilon) $ bits. En total, usamos estos muchos bits en la expectativa: $$ O (\ log ^ 2 (1 / \ Epsilon) / \ Epsilon ^ 2 + \ Epsilon N). $$ Elija $ \ epsilon= 1 / n ^ {1/3} $ para obtener el límite establecido.

Sin independencia, no tenemos ningún control sobre la probabilidad de parada en cada paso de la primera fase. Por ejemplo, podría ser que $ x $ se muestrea uniformemente al azar, y $ y $ es el Negación de $ x $ . En este caso, la primera fase nunca se detendrá, por lo que el protocolo siempre usará $ 2n $ bits.

Como un lado, el límite superior se puede mejorar a $ o (\ sqrt {n} \ log n) $ , que casi coincide con el límite inferior $ \ omega (\ sqrt {n}) $ (la brecha podría haber sido cerrada en la literatura). Consulte Notas de la conferencia de Prahladh Harsha < / a>.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a cs.stackexchange
scroll top