/ Informationstheorie

Shannon-Entropie

Mittlerer Informationsgehalt einer diskreten Quelle: H = −Σ pᵢ · log₂(pᵢ). Formel hier für drei Symbole mit Wahrscheinlichkeiten p1, p2, p3.

Shannon-Entropie
01 · Eingabe

Shannon-Entropie berechnen

Mittlerer Informationsgehalt einer diskreten Quelle: H = −Σ pᵢ · log₂(pᵢ). Formel hier für drei Symbole mit Wahrscheinlichkeiten p1, p2, p3.

H = -(p1 · log(p1) + p2 · log(p2) + p3 · log(p3))

Worum geht es?

Die Shannon-Entropie misst den mittleren Informationsgehalt einer diskreten Quelle. Sie gibt an, wie viele Bit pro Symbol mindestens benötigt werden, um eine Nachricht der Quelle verlustfrei zu kodieren.

Je gleichmäßiger die Wahrscheinlichkeiten verteilt sind, desto höher ist die Entropie. Eine deterministische Quelle (eine Wahrscheinlichkeit gleich 1) hat die Entropie 0 — sie liefert keine Information.

Die Formel

Formel Shannon-Entropie
H = −Σ pᵢ · log₂(pᵢ)

Für drei Symbole:
    H = −(p1 · log₂(p1) + p2 · log₂(p2) + p3 · log₂(p3))

Die Variablen

SymbolBedeutungEinheitErklärung
p1Wahrscheinlichkeit 1Wahrscheinlichkeit des ersten Symbols.
p2Wahrscheinlichkeit 2Wahrscheinlichkeit des zweiten Symbols.
p3Wahrscheinlichkeit 3Wahrscheinlichkeit des dritten Symbols.
HEntropieBitMittlerer Informationsgehalt pro Symbol.

Minimal-Beispiel

Drei gleichwahrscheinliche Symbole, jedes mit p = 1/3:

Rechnung Gleichverteilung
H = −3 · (1/3 · log₂(1/3))
  = log₂(3)
  ≈ 1,585 Bit

Praxis-Beispiele

Beispiel 1 — Stark schiefe Verteilung

Drei Symbole mit p1 = 0,9, p2 = 0,08, p3 = 0,02:

Rechnung Schiefe Quelle
H = −(0,9 · log₂(0,9)
    + 0,08 · log₂(0,08)
    + 0,02 · log₂(0,02))
  ≈ 0,137 + 0,292 + 0,113
  ≈ 0,542 Bit

Dominantes Symbol senkt die Entropie deutlich unter den Maximalwert.

Beispiel 2 — Binärquelle

Zwei Symbole mit p = 0,5 (über p3 = 0 marginalisiert):

Rechnung Faire Münze
H = −(0,5 · log₂(0,5) + 0,5 · log₂(0,5))
  = 1 Bit

Beispiel 3 — Deterministische Quelle

p1 = 1, p2 = 0, p3 = 0:

Rechnung Sicheres Ereignis
H = −(1 · log₂(1) + 0 + 0)
  = 0 Bit