Exposé de Gabriel Peyré lors de la journée "Les mathématiques de l’information", organisée par le Département de mathématiques et applications (DMA) de l’ENS.
L’immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c’est-à-dire à l’aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916 - 24 février 2001), le père fondateur de la théorie de l’information. L’impact de cette théorie sur notre société est absolument colossal. Sur le plan théorique, Shannon a montré que si l’on modélise le message à coder comme étant généré par une source aléatoire, alors le nombre de bits par symbole minimum pour coder ce message est égal à l’entropie de la source. Gabriel Peyré explique la signification et les implications pratiques de ce théorème, et il le démontre. il explique aussi comment on peut calculer efficacement des codes atteignant la borne minimum de l’entropie à l’aide des arbres de Huffman.
Voir aussi
Institutions : Ecole normale supérieure-PSL
Cursus :
Gabriel Peyré est directeur de recherches au département de mathématiques de l'École normale supérieure.
Cliquer ICI pour fermerDernière mise à jour : 08/02/2021