Einführung in die Informationstheorie: Studienbuch für Informatiker, Mathematiker und alle Naturwiss
62.96 CHF
Versandkostenfrei
Lieferzeit: 21 Werktage
- Artikel-Nr.: 10477073
Beschreibung
1. Einleitung.- 1.1. Ziele der Informationstheorie, Oberblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Defmition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel fur einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.
Eigenschaften
Breite: | 170 |
Höhe: | 244 |
Seiten: | 89 |
Sprachen: | Deutsch |
Autor: | Ernst Henze, Horst H. Homuth |
Bewertung
Bewertungen werden nach Überprüfung freigeschaltet.
Zuletzt angesehen