Théorie de l'information et du codage

Horaires

Intervenants

Si vous avez des questions, n'hésitez pas à leur envoyer un mail : prenom.nom@ens.fr

Devoirs maison

à rendre pour le 29 mars : DM

Plan du cours

Cours du 9 février : Entropie, ensembles typiques

  1. Introduction
  2. Entropie, entropie conditionnelle, information mutuelle
  3. Ensembles typiques, application au codage/compression avec perte

Cours du 16 février : Codage pour des sources discrètes

  1. Codes, codes instantanés
  2. Théorème de codage de source
  3. Codage de Huffman, optimalité, codage de Huffman adaptatif

Cours du 23 février : Codage de souces universel

  1. Codage universel d'une suite binaire
  2. Codage par automate fini
  3. Algortihme de Lempel-Ziv

Cours du 1er mars : complexité de Kolmogorov

  1. Modèle et exemples
  2. Liens avec l'entropie
  3. Complexité des entiers : incompressibilité et non-calculabilité
  4. probabilité universelle

Cours du 8 mars : Entropie, entropie relative et information mutuelle

Notes de cours

Feuilles de TDs

Références

  1. Elements of Information Theory, T.M. Cover and J.A. Thomas.
  2. Information theory and reliable communications, R.G. Gallager.
  3. The Theory of Information and Coding, R.J. McEliece.
  4. The Theory of error-correcting codes, F.J. MacWilliams and N.J.A. Sloane.
  5. Information Theory, Inference, and Learning Algorithms, D MacKay (liens vers des programmes implémentant différents codages)

Pages des années précédentes