Najlepsze pytania
Chronologia
Czat
Perspektywa

Entropia binarna

Z Wikipedii, wolnej encyklopedii

Entropia binarna
Remove ads

Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1.

Thumb
Entropia zmiennej losowej X przyjmującej wartość 0 lub 1.

Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi:

gdzie:

jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny.

W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit.

Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa

Remove ads

Pochodna

Pochodna funkcji entropii binarnej może być zapisana za pomocą funkcji logitowej:

Remove ads

Zobacz też

Linki zewnętrzne

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads