Top-Fragen
Zeitleiste
Chat
Kontext

Differentielle Entropie

Begriff der Informationstheorie Aus Wikipedia, der freien Enzyklopädie

Remove ads

Die differentielle Entropie ist ein Begriff aus der Informationstheorie und stellt ein Maß für die Entropie einer kontinuierlichen Zufallsvariable dar, ähnlich der Shannon-Entropie für diskrete Zufallsvariablen.

Genaugenommen ist sie eine Kennzahl einer Wahrscheinlichkeitsverteilung. Sie kann zum Vergleich zweier kontinuierlicher Zufallsvariablen herangezogen werden, besitzt jedoch nicht die gleiche Aussage wie die Shannon-Entropie. Einen Versuch die differentielle Entropie anzupassen, um ähnliche Eigenschaften wie die der Shannon-Entropie zu erhalten, ist die "limiting density of discrete points" von Edwin Thompson Jaynes.[1]

Remove ads

Definition

Zusammenfassung
Kontext

Eine kontinuierliche Zufallsvariable kann unendlich viele Werte annehmen, d. h. könnte man ihre Werte exakt ermitteln, wäre die Wahrscheinlichkeit für einen bestimmten Wert gleich Null:

Und somit der Informationsgehalt eines jeden Werts unendlich:

Sei eine kontinuierliche Zufallsvariable mit der Wahrscheinlichkeitsdichtefunktion , dann ist ihre differentielle Entropie definiert als

Im Gegensatz zur Shannon-Entropie kann die differentielle Entropie auch negativ sein.

Da die differentielle Entropie nicht skalierungsinvariant ist (s. u.), empfiehlt es sich, die Zufallsvariable geeignet zu normieren, sodass sie dimensionslos ist.

Remove ads

Eigenschaften

  • Die differentielle Entropie ist verschiebungsinvariant, d. h. für konstante . Es ist somit hinreichend, mittelwertfreie Zufallsvariablen zu betrachten.
  • Für die Skalierung gilt: mit dem Zufallsvektor und dem Betrag der Determinante .
Remove ads

Differentielle Entropie für verschiedene Verteilungen

Zusammenfassung
Kontext

Für eine gegebene Varianz besitzt die Gauß-Verteilung die maximale differentielle Entropie, d. h. ihre „Zufälligkeit“ oder ihr Überraschungswert ist – verglichen mit allen anderen Verteilungen – am größten. Sie wird deshalb auch zur Modellierung von Störungen beim Kanalmodell verwendet, da sie ein Worst-Case-Modell für Störungen darstellt (siehe auch additives weißes gaußsches Rauschen).

Für einen endlichen Wertebereich, d. h. ein gegebenes Betragsmaximum besitzt eine gleichverteilte Zufallsvariable die maximale differentielle Entropie.

Weitere Informationen , ...
Remove ads

Literatur

  • Thomas M. Cover, Joy A. Thomas: Elements of Information Theory. John Wiley & Sons, 1991, ISBN 0-471-06259-6, S. 224–238.
  • Martin Werner: Information und Codierung. Grundlagen und Anwendungen, 2. Auflage, Vieweg+Teubner Verlag, Wiesbaden 2008, ISBN 978-3-8348-0232-3.
  • Peter Adam Höher: Grundlagen der digitalen Informationsübertragung. Von der Theorie zu Mobilfunkanwendungen, 1. Auflage, Vieweg+Teubner Verlag, Wiesbaden 2011, ISBN 978-3-8348-0880-6.
Remove ads

Einzelnachweise

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads