17: Informationstheorie, Entropie, Codierung

Опубликовано: 07 Февраль 2017
на канале: KIT Lehre und Wissen
1,987
15

0:00:00 Starten
0:01:45 Thema dieses Kapitels
0:04:52 Material für Informationstheorie
0:05:32 Information
0:12:45 Wiederholung: Rechenregeln Logarithmus
0:13:53 Definition Information
0:14:52 Entropie
0:19:16 Bemerkung zur Entropie
0:19:31 Entropie einer Münze mit Wkt p für Zahl
0:20:44 (Platzsparende) Codierungen
0:22:12 Codierungsbäume
0:26:49 Präfix-Codes
0:29:08 Beispiel: Morse-Alphabet
0:30:15 Quellencodierungstheorem
0:31:47 Beispiel: Shannon-Fano Codierung
0:38:01 Codierungsbaum Shannon-Fano
0:38:59 Beispel: Huffman-Codierung
0:44:36 Optimalität der Huffman-Codierung
0:45:13 Vorbereitendes Lemma
0:47:00 VorbereitendesLemma: Beweis
0:51:10 Beweis - Induktionsschluss
0:57:00 Nachteile der Huffman-Codierung
0:59:05 Lauflängenkodierung

Dozentin:
Prof. Dr. Dorothea Wagner | Karlsruher Institut für Technologie (KIT), Institut für Theoretische Informatik

Vorlesungsaufzeichnung: KIT | WEBCAST
http://webcast.kit.edu


Смотрите видео 17: Informationstheorie, Entropie, Codierung онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь KIT Lehre und Wissen 07 Февраль 2017, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 1,987 раз и оно понравилось 15 людям.