Frage

Ich habe einen Kurs über Datenkompression an meiner Universität vor kurzem begonnen. Allerdings finde ich die Verwendung der Begriff „Entropie“, wie es in der Informatik gilt eher zweideutig. Soweit ich sagen kann, es übersetzt in etwa die „Zufälligkeit“ einem System oder eine Struktur.

Was ist die richtige Definition der Informatik "Entropie"?

War es hilfreich?

Lösung

Entropy kann verschiedene Dinge bedeuten:

Computing

  

Bei der Berechnung der Entropie ist die   Zufälligkeit durch einen Betrieb gesammelte   System oder Anwendung für die Verwendung in   Kryptographie oder andere Verwendungen, die   erfordern Zufallsdaten. diese Zufälligkeit   wird oft von der Hardware gesammelt   Quellen, entweder vorge bestehende solche   wie Mausbewegungen oder speziell   vorgesehen Zufälligkeit Generatoren.

Informationstheorie

  

In der Informationstheorie, Entropie ist ein   Maß für die Unsicherheit im Zusammenhang   mit einer Zufallsgröße. Der Begriff von   in der Regel selbst in diesem Zusammenhang bezieht sich   an die Shannon-Entropie, die   im Sinne einer quantifiziert,   Erwartungswert, die Informationen   in einer Nachricht enthalten sind, in der Regel in   Einheiten wie Bits. Gleichwertig, die   Shannon Entropie ist ein Maß für die   durchschnittliche Informationsgehalt ist   fehlt, wenn man nicht weiß, hat die   Wert der Zufallsvariablen

Entropy in Datenkompression

Entropy in Datenkompression kann die Zufälligkeit der Daten bezeichnen, die Sie mit dem Kompressionsalgorithmus inputing. Je mehr sich die Entropie, desto geringer ist das Kompressionsverhältnis. Das heißt, die mehr zufällig der Text ist, desto weniger können Sie es komprimieren.

  

Shannons Entropie stellt ein   absolute Grenze für die bestmögliche   verlustfreie Komprimierung von irgend   Kommunikation: Nachrichten Behandlung zu sein   codiert als eine Folge unabhängiger   und identisch verteilte Zufalls   Variablen, Shannons Quellcodierverfahren   Theorem zeigt, daß in der Begrenzung, die   durchschnittliche Länge der kürzesten   mögliche Darstellung zu kodieren, die   Nachrichten in einem bestimmten Alphabet ist ihre   Entropie dividiert durch den Logarithmus von   die Anzahl der Symbole in dem Ziel   Alphabet.

Andere Tipps

Meine Lieblings Definition, mit einem praktischeren Fokus wird in Kapitel 1 des ausgezeichneten Buch pragmatische Programmierer: von Gesellen Meister von Andrew Hunt und David Thomas:

  

Software Entropy

     

Während der Software-Entwicklung ist immun   von fast allen physikalischen Gesetzen, Entropie   trifft uns hart. Entropy ist ein Begriff aus   Physik, die den Betrag von verweist   "Unordnung" in einem System. Unglücklicherweise,   die Gesetze der Thermodynamik Garantie   daß die Entropie im Universum neigt   zu einem Maximum. wenn Störung   erhöht in der Software-Programmierer   nennt es "Software rot."

     

Es gibt viele Faktoren, die können   Software rot beitragen. Am meisten   wichtig scheint der zu sein,   Psychologie oder Kultur, bei der Arbeit an einem   Projekt. Selbst wenn Sie sind ein Team von   ein, kann Ihr Projekt Psychologie   eine sehr heikle Sache. Trotz der   beste Pläne und die besten Leute, ein   Projekt kann noch erleben Ruine und   Zerfall während seiner Lebensdauer. doch es   dass es andere Projekte, trotz   enorme Schwierigkeiten und konstant   Rückschläge, kämpfen erfolgreich Natur   Tendenz zur Unordnung und verwalten zu   kommt ziemlich gut.

     

...

     

...

     

Ein zerbrochenes Fenster.

     

Ein zerbrochenes Fenster, links unrepaired für   eine wesentliche Länge der Zeit,   flößt den Bewohnern der   Gebäude ein Gefühl des Verlassenseins-a   Sinn, dass die Kräfte, die nicht tun   über das Gebäude kümmern. so ein anderer   Fenster wird gebrochen. Die Menschen beginnen   Littering. Graffiti erscheint. ernst   Bauschäden beginnt. In einem   relativ kurze Zeit, das   Gebäude wird über die beschädigt   Besitzer den Wunsch, es zu beheben, und die   Gefühl der Verlassenheit wird Realität.

     

Die "Broken Window Theory" hat   inspiriert Polizei in New   York und andere große Städte zu knacken   nach unten auf den kleinen Dingen, um   halten die großen Sachen aus. Es klappt:   auf den zerbrochenen Fensterscheiben zu halten,   Graffiti und andere kleine Übertretungen   das schwere Kriminalität Niveau reduziert.

     

Tipp 4

     

Sie nicht leben mit zerbrochenen Fensterscheiben

     

Lassen Sie keine "broken windows" (bad   Entwürfe, falsche Entscheidungen oder schlecht   Code) nicht repariert. Fix jeden so schnell   wie es entdeckt. Wenn da ist   nicht genügend Zeit, um es richtig zu beheben,   Bord es dann nach oben. Vielleicht können Sie   Kommentar der säumige Code aus, oder   zeigen eine „nicht implementiert“ -Meldung,   oder Ersatzblinddaten statt. Nehmen   eine Aktion um weitere Schäden zu verhindern   und zu zeigen, dass Sie oben auf der sind   Situation.

Text aus: http://pragprog.com/the-pragmatic- Programmierer / Extrakte / Software-Entropie


(Quelle: mit.edu )

Universität von Mexiko

  

Der informationstheoretische Begriff der   Entropy ist eine Verallgemeinerung der   physikalischer Begriff. Es gibt viele Wege   zu beschreiben Entropy. Es ist ein Maß   der Zufälligkeit einer zufälligen   Variable. Es ist auch ein Maß für die   Menge an Informationen eines zufälligen   Variable oder stochastischer Prozess   enthält. Es ist auch eine untere Schranke auf   die Menge eine Nachricht sein kann   komprimiert. Und schließlich ist es die   durchschnittliche Anzahl der Ja / Nein-Fragen   dass Notwendigkeit, um eine zufällig gefragt,   Unternehmen seinen Wert zu bestimmen.

Die Gleichung für Entropy in einer Beispielanwendung für Wahrscheinlichkeitsrechnung:

  

Es ist die Summe über alle Werte einer rv   der Wahrscheinlichkeit, dass Wertzeiten   das Protokoll dieser prob (d.   p (x) logP (x)). Diese Gleichung kann sein   abgeleitet von ersten Grundsätzen der   Eigenschaften von Informationen.

ich immer Entropie im Sinne von Shannon Entropy begegnet.

http://en.wikipedia.org/wiki/Information_entropy :

In der Informationstheorie ist die Entropie ein Maß für die Unsicherheit, die mit einer Zufallsvariablen zugeordnet. Der Begriff selbst in diesem Zusammenhang bezieht sich normalerweise auf die Shannon-Entropie, die im Sinne von einem erwarteten Wert quantifiziert, die Informationen in einer Nachricht enthalten ist, in der Regel in Einheiten wie Bits. Gleichwertig, die Shannon-Entropie ist ein Maß für die durchschnittliche Informationsgehalt eines fehlt, wenn man nicht den Wert der Zufallsvariablen nicht kennt.

Im Hinblick auf die Komprimierung und Informationstheorie ist die Entropie einer Quelle ist die durchschnittliche Menge an Informationen (in Bits), die Symbole von der Quelle vermitteln kann. Informell gesprochen, desto unwahrscheinlicher ist ein Symbol, bringt das mehr überraschen seine Erscheinung.

Wenn Ihre Quelle zwei Symbole hat, sagen A und B, und sie ist gleich wahrscheinlich, dann jedes Symbol vermittelt die gleiche Menge an Informationen (ein Bit). Eine Quelle mit vier gleich wahrscheinlich Symbolen vermittelt zwei Bits pro Symbol.

Für ein interessantes Beispiel, wenn Ihre Quelle drei Symbole hat, A, B und C, wo die ersten beiden doppelt so wahrscheinlich wie die dritte, dann ist das dritte überraschender ist aber auch weniger wahrscheinlich. Es gibt eine Netto-Entropie von 1,52 für diese Quelle, wie unten berechnet.

Sie berechnen Entropie als „durchschnittliche Überraschung“, wo die „Überraschung“ für jedes Symbol seiner Wahrscheinlichkeit mal die negative Binärlog der Wahrscheinlichkeit ist:

                            binary
symbol  weight  probability   log    surprise
  A        2        0.4      -1.32    0.53
  B        2        0.4      -1.32    0.53
  C        1        0.2      -2.32    0.46
total      5        1.0               1.52

das Negativ der binären logarithmischen wird (natürlich) verwendet, da logs von Werten zwischen 0 und 1 (exklusiv) ist negativ.

Hier ist eine große alternative Erklärung für Entropie in der Informationstheorie.

  

Entropie ist ein Maß für Unsicherheit bei der Herstellung eines beteiligt   Vorhersage .

Wir können auch Entropie wie überrascht beschreiben wären wir, wenn wir ein Ergebnis erhalten, nachdem wir unsere erste Vorhersage gemacht.

Lassen Sie uns sagen wir einen gebogenen Münze, die uns einen Kopf 99% der Zeit und einem Schwanz 1% der Zeit gibt. Da es, sich einen Schwanz nur eine einprozentige Chance ist, würden wir sehr überrascht, wenn wir tatsächlich einen Schwanz bekommen. Auf der anderen Seite, es wird nicht allzu überraschend, wenn wir einen Kopf bekamen, wie wir bereits eine 99-prozentige Chance, einen Kopf zu bekommen.

lässt vermuten, dass wir eine Funktion namens Surprise(x) haben, die uns die Menge Überraschung für jedes Ergebnis geben würde; dann können wir die Menge der Überraschung auf einer Wahrscheinlichkeitsverteilung im Durchschnitt. Diese durchschnittliche Menge der Überraschung könnte auch als Maß für die verwendet werden, wie unsicher wir sind. Diese Unsicherheit wird als Entropie .

Super einfache Definition

Das Wort Entropie kann in einem Satz definiert werden:

"Die Menge an Informationen benötigt ein System zu beschreiben."

Stellen Sie sich zum Beispiel die Expansion des Universums: Von Anfang an alle Materie in einem kleinen Punkt vor dem Urknall gesammelt, so konnten wir das System beschrieben haben, mit „alle Materie in einem Punkt ist.“ Während heute wesentlich mehr Informationen benötigt, um das System (das Universum, das ist) zu beschreiben, müßte man alle Planeten-Positionen beschreiben, ihre Bewegung, was etc auf sie ist .. In Bezug auf der Informationstheorie funktioniert die Definition auch: Z. B: Je mehr Buchstaben Sie ein Passwort hinzufügen (das System), desto mehr Informationen benötigt, um das Passwort zu beschreiben. Dann können Sie es in verschiedenen Einheiten, zB Bits oder Zeichen messen, wie "Hallo" = 5 Zeichen Entropie = 40 Bits Entropie (wenn charsize ist 8 Bits).
Daraus ergibt sich auch, dass die mehr Informationen, desto mehr Möglichkeiten haben Sie diese Informationen in arrangieren können. Wenn Sie 40 Bits haben, gibt es 2 ^ 40 verschiedene Arten können sie angeordnet werden. Wenn wir Passwörter hier dann die weiteren möglichen Anordnungen der Information (Bits), desto länger sprechen, es wird (mit Brute-Force oder Wörterbuch-Attacken) nehmen knacken.

In einfacheren Worten definiert Entropy Zufälligkeit. Es ist mehr wie, wie unberechenbar etwas ist. In technischen Worten: „Bei der Berechnung ist die Entropie die Zufälligkeit durch ein Betriebssystem oder eine Anwendung für die Verwendung in der Kryptographie oder anderen Verwendungen gesammelt, die Zufallsdaten erfordern. Diese Zufälligkeit wird häufig von Hardware-Quellen gesammelt, entweder vorge bestehende wie Mausbewegungen oder speziell Zufälligkeit Generatoren zur Verfügung gestellt.“, Wie wikipedia definiert.

Man kann nun leicht die Bedeutung der Entropie in Bezug auf eine Datei schließen, wie die Messung der wie viel Unordnung die Bytes in einer Datei sind. Es gibt verschiedene Einheiten zur Definition von Entropie wie nat, shannon oder hartley verwendet. Nun, die meisten gemeinsame Einheit verwendet wird, ist Shannon. Der Wertebereich eine Entropie der Datei nach Shannon-Algorithmus kommen muss, ist 0 bis 8 Also, wenn die Entropie Wert gleich Null ist, kann man sagen, das Ergebnis ist sicher. Im Gegenteil, wenn die Entropie Wert 8 ist, ist das Ergebnis unvorhersehbarsten es sein könnte. Die Formel von Shannon gegeben Zufälligkeit der Ereignisse in den Ergebnissen zu messen ist:

          Entropy = ∑ pi log(1/pi)

Dabei steht i ist das Ereignis mit einer Wahrscheinlichkeit von pi .

Diese Gleichung führt immer zwischen 0-8.

Weitere Informationen finden Sie über den Link: https: //www.talentcookie.com/2016/02/file-entropy-in-malware-analysis/

Entropie bezieht sich auf das Ausmaß, wo eine Software gelegentlich auf Kundenanforderungen basieren neu geformt wird damit die Kosten für Umformung Kunden reqrments gerecht zu werden maximal wird.

Entropy ist wie ein Hash-Code für die Virus-Forscher als auch. Weniger Entropie Sie erhalten, würde es bedeuten, dass es wahrscheinlich verschlüsselt oder Code komprimiert, die möglicherweise einen Virus enthalten sein könnte.

Ein Standardbinärdistributionen würde eine höhere Entropie als eine komprimierte oder verschlüsselte ein.

Entropy hat viele Bedeutungen typischerweise in der Informatik. Es hängt vom Kontext ab. Entropie bedeutet, in Sicherheit, wie viel randomality Sie platzieren, zum Beispiel, wenn Sie einen privaten Schlüssel viele Anwendungen generieren fragen Sie die Maus zu bewegen um Entropie zu erzeugen. Dies erzeugt Entropie durch das „menschliche“ Element randomality nehmen und fügt sie den Hashing-Prozess die Schlüssel zu erzeugen.

Jetzt gibt es auch eine defnition für Software Engineering der Entropie. Diese Definition stellt veraltet Code oder Code, der viele Entwickler schreiben sie gehabt hat. Typischerweise in Referenz verwendet, wenn es in der Nähe von Zeit, um Ihr Software-Projekt Refactoring. „Der Code für dieses Projekt hat eine enorme Menge an Entropie, weil viele der Personen, die gepflegt es ist nicht für das Projekt zur Zeit“.

Hier ist ein drittes Beispiel für die Verwendung, die ich auch in Erinnerung hatte. Im Thema der simulierten Glühen (soweit Informatik betroffen ist), wird die Entropie beschrieben, wie vielen Zerfall bei der Auswertung des Algorithmus geschehen ist.

Ich glaube, Ihre Frage zu beantworten gibt es aber keine konkrete Definition des Wortes ‚Entropie‘, außer für diejenigen, die Sie in einem Wörterbuch finden. Wie Informatik neigt dieser Begriff hängt vom Kontext des Begriffs anzuwenden ist, verwendet und was sie angewandt wird.

Es ist einfach eine große Sache aus der Entropie zu machen. Meiner Meinung nach ist es ein ziemlich einfaches und nützliches Konzept .

Im Grunde quantifiziert es, was im Durchschnitt Sie von einem Ereignis erfahren, wie eine Münze werfen, einen Verzweigungsbefehl nehmen, oder die Indizierung eines Arrays.

Wie eine Vergleichsoperation in der Mitte eines Suchalgorithmus hat eine gewisse Wahrscheinlichkeit P einen Zweig des Nehmens und 1-P von den andere nehmen.

Sei P 1/2, wie es in einer binären Suche ist. Dann, wenn Sie diesen Zweig nehmen, wissen Sie, ein bisschen mehr als vorher, denn log (2/1), Basis 2, 1. Auf der anderen Seite ist, wenn Sie die andere Zweig nehmen auch Sie ein bisschen lernen.

Um die durchschnittliche Menge an Informationen erhalten Sie lernen, sich vermehren, was Sie auf dem ersten Zweig mal lernen die Wahrscheinlichkeit Sie diesen Zweig nehmen, und was Sie lernen, auf dem zweiten Zweig mal die Wahrscheinlichkeit dieses Zweiges.

1/2 mal 1 Bit plus 1/2 mal 1 Bit, ist 1/2 Bit Plus 1/2 Bit oder 1 Bit insgesamt der Entropie. Das ist, was können Sie von dieser Entscheidung im Durchschnitt lernen erwartet.

Auf der anderen Seite an, dass Sie in einer Tabelle von 1024 Einträgen lineare Suche tun.

Im ersten == Test die Wahrscheinlichkeit von YES ist 1/1024, so dass die Entropie von JA zu dieser Entscheidung ist

1/1024 times log(1024/1)

oder 1/1024 * 10 = etwa 1/100 Bit.

Also, wenn die Antwort ja ist, lernen Sie 10 Bits, aber die Wahrscheinlichkeit, dass etwa 1 in tausend.

Auf der anderen Seite ist keine viel wahrscheinlicher. Es ist Entropie

1023/1024 * log(1024/1023)

oder etwa 1 mal grob Null = etwa Null.

Fügen Sie die beiden zusammen, und im Durchschnitt werden Sie etwa 1/100 eines Bits auf diese Entscheidung erfahren.

Deshalb lineare Suche langsam ist. Die Entropie bei jeder Entscheidung zu klein (wie viel Sie können zu lernen, erwarten) ist, da man 10 Bits zu lernen haben werden Sie den Eintrag in der Tabelle zu finden.

Entropy in der Informatik bezieht sich allgemein auf, wie zufällig eine Folge von Bits ist. Die folgende Frage geht es darum, dass eine präzise:

Wie berechnen ich die ungefähre Entropie eine Bitkette?

In einfachen Worten, wenn Sie die Wahrscheinlichkeiten der Symbole in dem Langauge kennen, kann man den durchschnittlichen Informationsgehalt des Symbols in der Sprache berechnen.

oder

Die Entropie einer Sprache ist ein Maß für den Informationsgehalt eines durchschnittlichen Symbols in der Sprache

Betrachten wir eine faire Münze;

Es gibt zwei Symbole, die jeweils mit einer Wahrscheinlichkeit von 1/2 so Entropie wird wie folgt berechnet

h = - (1/2 * log1 / 2 + 1/2 * log1 / 2) = 1

Ich habe gehört, wie Leute, die thermodynamische Definition der Entropie w.r.t CS missbräuchlich verwenden.

z. Entropy ist auf jeden Fall in diesem System zu erhöhen.

Wenn das, was sie bedeuten, ist dieser Code wird immer schlimmer!

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top