/ Informationstheorie
Informationsgehalt
Informationsgehalt eines Einzelereignisses: I = −log₂(p) = log₂(1/p). Seltene Ereignisse tragen mehr Information.
01 · Eingabe
Informationsgehalt berechnen
Informationsgehalt eines Einzelereignisses: I = −log₂(p) = log₂(1/p). Seltene Ereignisse tragen mehr Information.
Lösen für
- I — Informationsgehalt
- p — Wahrscheinlichkeit
I = -log₂(p)
p = 2^(-I)
Bit
Worum geht es?
Der Informationsgehalt I eines Einzelereignisses misst, wie überraschend dieses Ereignis ist. Je kleiner die Wahrscheinlichkeit p, desto höher der Informationsgehalt.
Bei p = 1/2 trägt das Ereignis genau 1 Bit, bei p = 1/256 sind es 8 Bit. Die Shannon-Entropie ist nichts anderes als der mit den Wahrscheinlichkeiten gewichtete Mittelwert dieser Einzelbeträge.
Die Formel
I = −log₂(p) = log₂(1 / p)
Umstellung:
p = 2^(−I)Die Variablen
| Symbol | Bedeutung | Einheit | Erklärung |
|---|---|---|---|
| p | Wahrscheinlichkeit | — | Wahrscheinlichkeit des Einzelereignisses. |
| I | Informationsgehalt | Bit | Informationsgehalt des Ereignisses in Bit. |
Minimal-Beispiel
Buchstabe mit relativer Häufigkeit p = 0,1:
I = −log₂(0,1)
≈ 3,32 BitPraxis-Beispiele
Beispiel 1 — Faire Münze
I = −log₂(0,5)
= 1 BitBeispiel 2 — Würfelwurf
Eine bestimmte Augenzahl auf dem fairen Würfel:
I = −log₂(1 / 6)
≈ 2,585 BitBeispiel 3 — Rückrechnung Wahrscheinlichkeit
Ein Ereignis liefert 4 Bit Information:
p = 2^(−4)
= 1 / 16
= 0,0625