17: Informationstheorie, Entropie, Codierung

Published: 07 February 2017
on channel: KIT Lehre und Wissen
1,987
15

0:00:00 Starten
0:01:45 Thema dieses Kapitels
0:04:52 Material für Informationstheorie
0:05:32 Information
0:12:45 Wiederholung: Rechenregeln Logarithmus
0:13:53 Definition Information
0:14:52 Entropie
0:19:16 Bemerkung zur Entropie
0:19:31 Entropie einer Münze mit Wkt p für Zahl
0:20:44 (Platzsparende) Codierungen
0:22:12 Codierungsbäume
0:26:49 Präfix-Codes
0:29:08 Beispiel: Morse-Alphabet
0:30:15 Quellencodierungstheorem
0:31:47 Beispiel: Shannon-Fano Codierung
0:38:01 Codierungsbaum Shannon-Fano
0:38:59 Beispel: Huffman-Codierung
0:44:36 Optimalität der Huffman-Codierung
0:45:13 Vorbereitendes Lemma
0:47:00 VorbereitendesLemma: Beweis
0:51:10 Beweis - Induktionsschluss
0:57:00 Nachteile der Huffman-Codierung
0:59:05 Lauflängenkodierung

Dozentin:
Prof. Dr. Dorothea Wagner | Karlsruher Institut für Technologie (KIT), Institut für Theoretische Informatik

Vorlesungsaufzeichnung: KIT | WEBCAST
http://webcast.kit.edu


Watch video 17: Informationstheorie, Entropie, Codierung online without registration, duration hours minute second in high quality. This video was added by user KIT Lehre und Wissen 07 February 2017, don't forget to share it with your friends and acquaintances, it has been viewed on our site 1,987 once and liked it 15 people.