Domanda

Wikipedia e MacKay di Teoria dell'Informazione, inferenza, e Learning Algorithms (è appropriato come libro di testo?). è richiesta Un libro di testo che iniziano con l'entropia di Shannon e passando attraverso l'entropia condizionale e l'informazione reciproca ... Qualche idea? Se si sta seguendo un tale corso nella vostra università, che viene utilizzato da manuale?

Grazie.

È stato utile?

Soluzione

Ho usato il seguente libro di testo durante i miei studi in CS a EPFL . IMO, è ben scritto, con buone spiegazioni, e copre più che sufficiente per un'introduzione al dominio.

Elementi di Teoria dell'Informazione

Elementi di Teoria dell'Informazione

EDIT: Per ulteriori letture, qui ci sono alcune altre letture che il mio professore ha raccomandato. Non ho letto loro (vergogna su di me), quindi non posso dire se sono buono o no.

  1. R. G. Gallager, Teoria dell'Informazione e della Comunicazione affidabile , Wiley, 1968.
  2. D. MacKay, Information Theory, inferenza & Learning Algorithms , Cambridge University Press, 2008. (che già parlato)
  3. I. Csiszar e J. Korner, Teoria: Coding Teoremi per discreti senza memoria sistemi , Akademiai Kiado, 1997.
  4. C. E. Shannon, la teoria matematica della comunicazione
Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top