Domanda

Qualcuno può spiegare in modo chiaro come MPEG4 opere di comprimere i dati.In genere mi interessa il video.So che ci sono diverse norme o parti di esso.Sto solo cercando il predominante nel complesso metodo di compressione, se c'è uno con MPEG4.

È stato utile?

Soluzione

MPEG-4 è un enorme standard, e si avvale di numerose tecniche per raggiungere gli alti tassi di compressione che è in grado di.

In generale, la compressione video è interessato a buttare via la maggior quantità di informazioni possibile, pur avendo un effetto minimo sull'esperienza di visualizzazione per l'utente finale.Per esempio, l'utilizzo di subsampled YUV invece di RGB tagli la dimensione del video in mezzo subito.Questo è possibile in quanto l'occhio umano è meno sensibile al colore che alla luminosità.In YUV, il valore di Y è la luminosità, e la U e V rappresentano colore.Pertanto, si può buttare via un po ' di informazioni sui colori, che riduce la dimensione del file, senza che lo spettatore notare alcuna differenza.

Dopo di che, la maggior parte delle tecniche di compressione prendere vantaggio di 2 esuberi in particolare.Il primo è temporale, la ridondanza e la seconda è la ridondanza spaziale.

Temporale ridondanza note che i fotogrammi successivi in una sequenza video sono molto simili.In genere un video sarebbe nell'ordine del 20-30 frame al secondo, e nulla cambia molto a 1/30 di secondo.Qualsiasi DVD e metterlo in pausa, per poi spostarlo su un telaio e notare come simili 2 immagini sono.Così, invece di codifica di ogni fotogramma in modo indipendente, MPEG-4 (e altri standard di compressione) codificare solo la differenza tra fotogrammi successivi (utilizzando la stima del movimento per trovare la differenza tra i fotogrammi)

Spaziale ridondanza sfrutta il fatto che in generale il colore si sviluppa attraverso immagini tende ad essere piuttosto bassa frequenza.Con questo voglio dire che i pixel adiacenti tendono ad avere colori simili.Per esempio, in un'immagine di lei che indossa un maglione rosso, tutti i pixel che rappresentano il ponticello sarebbe molto simile colore.È possibile utilizzare il DCT per trasformare i valori dei pixel in frequenza di spazio, in cui alcuni in alta frequenza può essere gettato via.Quindi, se la retromarcia DCT viene eseguita (durante la decodifica di), l'immagine è ora senza buttato via i dati ad alta frequenza.

Per visualizzare gli effetti di buttare via alta frequenza, aprire MS dipingere e disegnare una serie di sovrapposizioni orizzontali e verticali, le linee nere.Salvare l'immagine come file JPEG (che utilizza anche DCT per la compressione).Ora ingrandire il modello, si noti come i bordi delle linee non sono più nitida e sono un pò sfocate.Questo è perché alcuni di alta frequenza (il passaggio dal nero al bianco) è stato gettato via durante la compressione. Leggere il presente per una spiegazione con foto

Per ulteriori letture, questo libro è abbastanza buona, anche se un po ' pesante sulla matematica.

Altri suggerimenti

Come qualsiasi altro codec video popolare, MPEG4 utilizza una variante di Discrete Cosine Transform e un varietà di tecniche di motion-compensazione (che si può pensare, come motion-previsione se questo aiuta) che riducono la quantità di dati necessari per i fotogrammi successivi. Questa pagina ha una panoramica di ciò che viene fatto da MPEG4 pianura.

Non è del tutto dissimile dalle tecniche usate dai JPEG.

MPEG4 utilizza una varietà di tecniche per comprimere il video.

Se non si è già guardato su Wikipedia, questo sarebbe un buon punto .

C'è anche questo articolo dal IEEE che spiega questi le tecniche più in dettaglio.

Gli spigoli vivi certamente contengono alte frequenze. Riducendo o eliminando alte frequenze riduce la nitidezza dei bordi. dettagli fini tra cui bordi taglienti viene rimosso con alta frequenza di rimozione - bilità di risolvere 2 piccoli oggetti viene rimosso con alte frequenze -. poi si vede un solo

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top