Топ питань
Часова шкала
Чат
Перспективи
Спільна ентропія
З Вікіпедії, вільної енциклопедії
Remove ads
У теорії інформації спі́льна ентропі́я — це міра невизначеності, пов'язана з набором змінних.

Remove ads
Визначення
Спільна ентропія Шеннона (в бітах) двох змінних та визначається як
де та є конкретними значеннями та відповідно, є спільною ймовірністю трапляння цих значень разом, а визначається як 0, якщо .
Для понад двох змінних це визначення розширюється до
де є конкретними значеннями відповідно, є ймовірністю трапляння цих значень разом, а визначається як 0, якщо .
Remove ads
Властивості
Узагальнити
Перспектива
Більша за окремі ентропії
Спільна ентропія набору змінних є більшою за всі окремі ентропії змінних цього набору, або дорівнює їм.
Менша або дорівнює сумі окремих ентропій
Спільна ентропія набору змінних є меншою за суму окремих ентропій змінних цього набору, або дорівнює їй. Це є прикладом субадитивності[en]. Ця нерівність є рівністю, якщо і лише якщо та є статистично незалежними.
Remove ads
Відношення до інших мір ентропії
Узагальнити
Перспектива
Спільна ентропія використовується у визначенні умовної ентропії
- ,
і
Вона також використовується у визначенні взаємної інформації
У квантовій теорії інформації спільна ентропія узагальнюється до квантової спільної ентропії[en].
Джерела
- Theresa M. Korn; Korn, Granino Arthur. Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. с. 613—614. ISBN 0-486-41147-8. (англ.)
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads