Pergunta

Meu professor ensinou-nos que a capacidade do canal de canal AWGN é infinito, sem qualquer poder de entrada restrições.O ruído é $Z \sim \mathcal{N}(0,\sigma^2) $.Não há nenhuma restrição sobre o sinal de entrada.Eu não entendo como o professor pode dizer diretamente a capacidade do canal é infinito.Não precisamos maximizar a troca de informações entre a entrada e saída para obter a capacidade de canal?Como fazer isso para as variáveis contínuas?

Foi útil?

Solução

Aqui é um esquema de codificação que demonstra a idéia principal:

Codificação: Deixe que o poder de restrição $P$ ser corrigido e suponha que queremos transmitir uma informação pouco tempo.Montamos o nosso esquema de codificação, como $X(0) = \sqrt{P}, X(1) = -\sqrt{P}$, onde $X$ é a função de codificação.

Decodificação: Deixe $Y$ indicar o sinal recebido e $Z$ o aditivo de ruído Gaussiano, como você definiu.Vamos definir o decodificador como $\hat{X} = \mathbb{1}_{\{Y > 0\}}(Y)$, onde $\mathbb{1}_A(w)$ é a função de indicador que produz $1$ se $w \em Us$ e $0$ caso contrário.

Probabilidade de erro: Deixe $P_e$ denotar a probabilidade de erro.Assumimos os bits de informação são igualmente prováveis, pois, caso contrário, poderia simplesmente utilização óptima fonte de codificação para garantir que eles são.Em seguida,

\begin{align} P_e &= \frac{1}{2}P(Y>0 | X = -\sqrt{P}) + \frac{1}{2}P(Y \leq 0 | X = \sqrt{P}) \\ &= \frac{1}{2}P(Z > \sqrt{P} | X = -\sqrt{P}) + \frac{1}{2}P( Z \leq -\sqrt{P} | X = \sqrt{P}) \\ &= P(Z > \sqrt{P}) = 1 - \Phi\left(\sqrt{\frac{P}{\sigma^2}} ight), \end{align}

onde $\Phi(t) = \int_{-\infty}^t \frac{1}{\sqrt{2\pi}}e^{-\frac{-t^2}{2}}$ é Gaussiana cdf.A observação mais importante aqui é que, como cdf, esta não é uma função decrescente que converge para $1$ no limite.Aumentando $P$, nós podemos torná-lo arbitrariamente perto de $1$.Em outras palavras, que $\epsilon > 0$, para os grandes o suficiente $P$, $P_e < \epsilon$.Sem um poder de restrição, podemos enviar um bit de informação com arbitrariamente pequena probabilidade de erro.Esse esquema de codificação prova de uma taxa de $1$ é viável.

Ok, então como podemos obter a partir de um realizáveis taxa de $1$ para $\infty$?Vamos ver o que acontece quando temos de aumentar nossa taxa de $1$ para $2$, por codificação de duas informações de bits de cada vez.Deixe $$X(b_1, b_2)=\begin{cases} \sqrt{P}, & ext{ se } (b_1,b_2) &= (0,0) \\ \frac{\sqrt{P}}{2}, & ext{ se } (b_1,b_2) &= (0,1) \\ -\sqrt{P}, & ext{ se } (b_1,b_2) &= (1,0) \\ -\frac{\sqrt{P}}{2}, & ext{ se } (b_1,b_2) &= (1,1) \end{cases}$$

Agora, se você seguir o mesmo procedimento acima, você vai descobrir que $P_e = P\left(Z > \frac{\sqrt{P}}{2} ight) = 1 - \Phi\left(\sqrt{\frac{P}{4\sigma^2}} ight)$.Portanto, podemos voltar a encontrar um (maior) $P$ que nos permite squeeze $2$ informações de bits de $1$ codificado bits com um arbitrariamente pequena probabilidade de erro.Como você pode imaginar, se $P$ é ilimitado, podemos simplesmente continuar fazendo isso para codificar mais e mais informações de bits em um único codificado pouco, sem sacrificar a partir de $P_e$.

Moral da história: Sem limite de potência de transmissão, podemos escolher um conjunto de bits codificados (palavras-código de comprimento 1) que atingir arbitrariamente pequeno $P_e$ e nós podemos fazer isso de uma forma arbitrária de um grande conjunto de bits de código para a squeeze conforme é muitas informações de bits em 1, como nós queremos.Assim, o realizável taxas é ilimitado, e uma vez que a capacidade é o menor limite superior do conjunto de alcançáveis preços, é $\infty$.

Licenciado em: CC-BY-SA com atribuição
Não afiliado a cs.stackexchange
scroll top