Frage

Stellen Sie sich vor, dass Sie in der Welt zu Ihrer Verfügung für die nächsten 10 Jahre alle Supercomputer hatten. Ihre Aufgabe war es 10 Filme in voller Länge so viel wie möglich verlustlos zu komprimieren. Ein weiteres Kriterium war, dass ein normaler Computer in der Lage sein sollte, es on the fly zu dekomprimieren und soll nicht viel von seiner HD verbringen muß die Dekomprimierung Software zu installieren.

Meine Frage ist, wie viel mehr Kompression könnte man erreichen, als heute die besten Alternativen? 1%, 5%, 50%? Genauer gesagt: eine theoretische Grenze für Kompression dort eine feste Größe des Wörterbuchs gegeben (wenn es für Videokompression genannt wird, dass auch)

?
War es hilfreich?

Lösung

Die Grenzen der Kompression werden durch die diktiert Zufälligkeit der Quelle. Willkommen in der Studie von Informationstheorie ! Siehe Datenkompression .

Andere Tipps

Es gibt eine theoretische Grenze: Ich schlage vor, das Lesen dieses Artikel über Informationstheorie und das Taubenloch-Prinzip . Es scheint, das Problem in einer sehr einfach zu verstehen Weise zusammenzufassen.

Wenn Sie einen festen Katalog aller Filme haben Sie jemals zu komprimieren gehen würden, könnten Sie nur eine ID für den Film senden und haben die „Dekompression“ Nachschlag auf die Daten mit diesem Index. So Kompression auf eine feste Größe von log2 (N) Bits sein könnte, wobei N die Anzahl der Filme war.

Ich vermute, dass die praktische untere Grenze ist etwas höher als diese.

Haben Sie wirklich mittlere lossless? Die meisten Video-Kompression der heutigen verlustbehafteten ist, dachte ich.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top