Pergunta

Alguém pode explicar de uma forma simples e clara como MPEG4 obras aos dados compressa. Estou interessado sobretudo em vídeo. Eu sei que existem diferentes normas ou partes a ela. Eu estou apenas procurando o método de compressão geral predominante, se não houver um com MPEG4.

Foi útil?

Solução

MPEG-4 é um grande padrão, e emprega muitas técnicas para atingir as altas taxas de compressão que é capaz de fazer.

Em geral, compressão de vídeo está preocupado com jogando fora tanta informação quanto possível ao mesmo tempo ter um efeito mínimo sobre a experiência de visualização para um usuário final. Por exemplo, usando subsampled YUV em vez de RGB corta o tamanho do vídeo ao meio imediatamente. Isto é possível porque o olho humano é menos sensível à cor do que é brilho. Em YUV, o valor de Y é de brilho, e os valores de U e V representam cor. Portanto, você pode jogar fora algumas das informações cor que reduz o tamanho do arquivo, sem que o espectador perceba qualquer diferença.

Depois disso, a maioria das técnicas de compressão de tirar vantagem de 2 despedimentos em particular. O primeiro é a redundância temporal e o segundo é a redundância espacial.

notas de redundância temporal que quadros sucessivos em uma seqüência de vídeo são muito semelhantes. Normalmente um vídeo seria da ordem de 20-30 frames por segundo, e nada muito alterações em 1/30 de segundo. Pegue qualquer DVD e pausá-lo, em seguida, movê-lo em um quadro e nota a semelhança entre as 2 imagens são. Assim, em vez de codificar cada quadro independentemente, MPEG-4 (e outras normas de compressão), apenas codificar a diferença entre quadros sucessivos (usando movimento estimativa para encontrar a diferença entre os quadros)

redundância espacial tira proveito do fato de que, em geral, a cor espalhados por imagens tende a ser bastante baixa frequência. Com isto quero dizer que os pixels vizinhos tendem a ter cores semelhantes. Por exemplo, em uma imagem de você que veste um jumper vermelho, todos os pixels que representam o seu saltador teria cor muito similar. É possível usar o DCT para transformar os valores de pixel no espaço de freqüência, onde algumas informações de alta frequência pode ser jogado fora. Então, quando o DCT inversa é realizada (durante a descodificação), a imagem é agora sem a informação de alta frequência deitado fora.

Para visualizar os efeitos de jogar informação de distância de alta frequência, MS abertos pintar e desenhar uma série de linhas sobrepostas pretas horizontais e verticais. Salve a imagem como um JPEG (que também usa DCT para compressão). Agora zoom o padrão, observe como as bordas das linhas não são tão nítidas mais e são meio embaçada. Isso ocorre porque algumas informações de alta frequência (a transição de preto para branco) foi jogado fora durante a compressão. Leia este para uma explicação com imagens agradáveis ??

Para ler mais, este livro é muito bom, se um pouco pesado sobre a matemática.

Outras dicas

Como qualquer outro codec de vídeo popular, MPEG4 usa uma variação do Discrete Cosine Transform e uma variedade de técnicas de movimento de compensação (que você pode pensar como o movimento de previsão se isso ajuda) que reduzem a quantidade de dados necessários para quadros subsequentes. Esta página tem uma visão geral do que é feito por MPEG4 simples.

Não é totalmente diferente das técnicas utilizadas pelos JPEG.

MPEG4 usa uma variedade de técnicas para vídeo compressa.

Se você ainda não olhou para wikipedia, esta seria uma boa ponto de partida .

Há também este artigo da IEEE que explica estes técnicas em mais detalhes.

Sharp bordas certamente contêm altas frequências. Reduzir ou eliminar frequências elevadas reduz a nitidez dos contornos. Detalhe fino incluindo bordas afiadas é removido com a remoção de alta frequência - dade para resolver 2 pequenos objetos é removido com altas frequências -. Então você vê apenas um

Licenciado em: CC-BY-SA com atribuição
Não afiliado a StackOverflow
scroll top