Frage

ich weiss Bescheid Wikipedia und Mackays Informationstheorie, Inferenz und Lernalgorithmen (Ist es als Lehrbuch angemessen?). Ein Lehrbuch, das mit Shannons Entropie beginnt und eine bedingte Entropie- und gegenseitige Informationen durchläuft, wird gesucht ... eine Idee? Welches Lehrbuch wird verwendet, wenn Sie einen solchen Kurs an Ihrer Universität folgen?

Vielen Dank.

War es hilfreich?

Lösung

Ich habe das folgende Lehrbuch während meines Studiums in CS bei verwendet EPFL. IMO, es ist gut geschrieben, mit guten Erklärungen und deckt mehr als genug für eine Einführung in die Domain ab.

Elemente der Informationstheorie

Elements of Information Theory

Bearbeiten: Zum weiteren Lesen finden Sie hier einige andere Lesungen, die mein Professor empfohlen hat. Ich habe sie nicht gelesen (Schande über mich), also kann ich nicht sagen, ob sie gut sind oder nicht.

  1. RG Gallager, Informationstheorie und zuverlässige Kommunikation, Wiley, 1968.
  2. D. Mackay, Informationstheorie, Inferenz- und Lernalgorithmen, Cambridge University Press, 2008. (Sie haben es bereits erwähnt)
  3. I. Csiszar und J. Korner, Informationstheorie: Codierung von Theoreme für diskrete, speicherlose Systeme, Akademiai Kiado, 1997.
  4. CE Shannon, die mathematische Kommunikationstheorie
Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top