Entropia (teória informácií)

From Wikipedia, the free encyclopedia

Entropia je v teórii informácií miera neurčitosti t. j. protiklad k pojmu informácia. Určuje množstvo nejasnosti a na druhej strane informácie obsiahnuté v správe.

Pojem zaviedol Claude E. Shannon v roku 1948 vo svojom diele A Mathematical Theory of Communication.

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.