Тёмный

Claude Shannon et la compression des données | 11/05/2017 | Gabriel Peyre 

CultureMath Des mathématiques vivantes (DMA-ENS Ulm)
Просмотров 2,5 тыс.
50% 1

L’immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c’est-à-dire à l’aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916 - 24 février 2001), le père fondateur de la théorie de l’information. L’impact de cette théorie sur notre société est absolument colossal. Sur le plan théorique, Shannon a montré que si l’on modélise le message à coder comme étant généré par une sources aléatoire, alors le nombre de bits par symbole minimum pour coder ce message est égal à l’entropie de la source. J’expliquerais la signification et les implications pratiques de ce théorème, et je le démontrerais. J’expliquerais aussi comment on peut calculer efficacement des codes atteignant la borne minimum de l’entropie à l’aide des arbres de Huffman. Un texte grand public (sans les preuves mathématiques) est disponible sur le site "Images des mathématiques" et les programmes informatiques correspondants sont disponibles en ligne.

Опубликовано:

 

23 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии    
Далее
DIY Pump Solutions
00:18
Просмотров 2 млн
Information Encoding 2 : Compression
8:34
Просмотров 16 тыс.
History of Digital Storage - Part 1
10:29
Просмотров 17 тыс.
Lambda Calculus - Computerphile
12:40
Просмотров 1 млн
Seminar@SystemX - Gabriel Peyré
1:18:19
Просмотров 524
DIY Pump Solutions
00:18
Просмотров 2 млн