Топ питань
Часова шкала
Чат
Перспективи
Умовна ентропія
З Вікіпедії, вільної енциклопедії
Remove ads
В теорії інформації умо́вна ентропі́я (або ухи́льність, англ. conditional entropy, equivocation) — це оцінка кількості інформації, необхідної, щоб описати вихід випадкової змінної , враховуючи, що значення іншої випадкової змінної є відомим. Тут інформація вимірюється в шеннонах, натах або гартлі. Ентропія , обумовлена записується як .

Remove ads
Означення
Нехай є ентропією дискретної випадкової змінної , обумовленою набуванням дискретною випадковою змінною певного значення . Нехай має функцію маси ймовірності . Безумовна ентропія обчислюється як , тобто,
де є інформаційним вмістом набування результатом[en] значення . Ентропію , обумовлену набуванням випадковою змінною значення , визначено аналогічно до умовного математичного сподівання:
є результатом усереднювання над усіма можливими значеннями , що їх може набувати .
Для заданих дискретних випадкових змінних з носієм та з носієм умовну ентропію відносно визначають як зважену суму для кожного з можливих значень із застосуванням як вагових коефіцієнтів:[1]:15
Примітка: Зрозуміло, що вирази та для фіксованих слід вважати рівними нулеві.
Remove ads
Властивості
Узагальнити
Перспектива
Нульова умовна ентропія
якщо і лише якщо значення повністю визначається значенням .
Умовна ентропія незалежних випадкових змінних
І навпаки, якщо і лише якщо та є незалежними випадковими змінними.
Ланцюгове правило
Припустімо, що об'єднана система, яку визначають дві випадкові змінні та , має спільну ентропію , тобто, нам потрібно в середньому біт інформації, щоби описати її точний стан. Тепер, якщо ми спочатку дізналися значення , ми отримали біт інформації. Щойно стало відомим, нам потрібно лише біт, щоб описати стан системи в цілому. Ця величина в точності дорівнює , що дає нам ланцюгове правило умовної ентропії:
- [1]:17
Ланцюгове правило випливає з вищенаведеного означення умовної ентропії:
В загальному випадку ланцюгове правило для декількох випадкових змінних стверджує, що
- [1]:22
Воно має вигляд, подібний до ланцюгового правила в теорії ймовірностей, за винятком того, що замість множення використовується додавання.
Правило Баєса
Правило Баєса для умовної ентропії стверджує, що
Доведення. і . Через симетрію, . Віднімання цих двох рівнянь має наслідком правило Баєса.
Якщо є умовно незалежною[en] від за заданої , то ми маємо
Інші властивості
Для будь-яких та
де є взаємною інформацією та .
Для незалежних та
- та
Хоча конкретно-умовна ентропія і може бути або меншою, або більшою за для заданої випадкової варіати[en] змінної , але ніколи не може перевищувати .
Remove ads
Умовна диференціальна ентропія
Узагальнити
Перспектива
Означення
Наведене вище означення є для дискретних випадкових змінних, але в випадку неперервних випадкових змінних воно чинним не є. Неперервну версію дискретної умовної ентропії називають умовною диференціальною (або неперервною) ентропією (англ. conditional differential (continuous) entropy). Нехай та є неперервними випадковими змінними з функцією густини спільної ймовірності[en] . Диференціальну умовну ентропію означують як
- .[1]:249
Властивості
На противагу до умовної ентропії дискретних випадкових змінних, умовна диференціальна ентропія може бути від'ємною.
Як і в дискретному випадку, для диференціальної ентропії існує ланцюгове правило:
- [1]:253
Зауважте, проте, що це правило може не виконуватися, якщо залучені диференціальні ентропії не існують, або є нескінченними.
Спільну диференціальну ентропію також використано в означенні взаємної інформації між неперервними випадковими змінними:
, з рівністю якщо і лише якщо та є незалежними.[1]:253
Стосунок до похибки оцінювача
Умовна диференціальна ентропія дає нижню межу математичного сподівання квадратичної похибки оцінювача. Для будь-якої випадкової змінної , спостереження та оцінювача виконується наступне:[1]:255
Це стосується принципу невизначеності в квантовій механіці.
Remove ads
Узагальнення до квантової теорії
У квантовій теорії інформації умовна ентропія узагальнюється до умовної квантової ентропії[en]. Остання, на відміну від свого класичного аналога, може набувати від'ємних значень.
Див. також
- Інформаційна ентропія
- Взаємна інформація
- Умовна квантова ентропія[en]
- Різновидність інформації[en]
- Нерівність ентропійної потужності[en]
- Функція правдоподібності
Примітки
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads
