Лучшие вопросы
Таймлайн
Чат
Перспективы
Скорость передачи информации
Из Википедии, свободной энциклопедии
Remove ads
Скорость передачи информации — количество информации, передаваемое по каналу связи в единицу времени[1]. Является отношением средней взаимной информации между входными и выходными символами канала связи к среднему времени, затрачиваемому на передачу одного символа. Максимальная скорость передачи информации называется пропускной способностью канала[2].
Определение
Суммиров вкратце
Перспектива
Скоростью передачи информации по дискретному каналу связи (между входом модулятора передатчика и выходом демодулятора приёмника) называется величина[1]:
где
- — среднее время, затрачиваемое на передачу одного символа, — средняя скорость передачи символов.
- — средняя взаимная информация между входными символами канала и выходными символами канала,
- — производительность источника сообщений, — энтропия источника сообщений, которая является средним количеством переданной информации в одном символе источника или степенью неопределенности передачи того или иного символа.
В случае передачи независимых друг от друга символов энтропия источника равна:
где
- — априорная вероятность появления (передачи) символа ,
- — объём канального алфавита (число различных значений символов канального алфавита).
Максимальное значении энтропии равно и наблюдается в случае, когда все символы источника равновероятны, то есть . В случае, когда по каналу передаётся только один символ ( и для всех ) значение равно нулю, что означает полную определённости в выборе передаваемого символа[1].
Величина
называется ненадежностью, отнесённой к единице времени, является условной энтропией и называется ненадежностью, то есть средним количеством информации, теряемой при передаче информации и являющейся мерой неопределённости принятого символа[3][4]. Эта величина зависит от вероятности ошибочного приема символов источника[5].
В случае передачи информации независимыми символами по дискретному -ичному симметричному каналу, то есть для которого алфавиты на входе и выходе канала одинаковы, априорные вероятности входных и выходных символов канала одинаковы и вероятности перехода из входного символа в выходной символ определяются как: , ненадежность равна:
где — вероятность ошибочного приёма символа[6].
Для канала без шума ненадежность равна нулю, поэтому скорость передачи информации равна производительности источника: .
Remove ads
Отличие скорости передачи информации от скорости создания информации
Отличие скорости передачи информации от скорости при равномерном кодировании символов источника состоит в том, что является действительной скоростью передачи информации, а — скоростью создания информации (технической скоростью передачи информации (битов)), где — длительность бита. В случае отсутствия шума в канале связи (вероятность ошибочного приема символов равна нулю), то есть и одинаковой априорной вероятности передачи символов, то есть , эти величины являются равными. В случае наличия шума часть информации оказывается принятой неправильно, что эквивалентно тому, что действительная скорость передачи информации уменьшается. В двоичном канале (), в случае когда вероятность ошибочного приёма символов равна , действительная скорость передачи информации равна нулю, так как примерно половина символов окажутся принятыми неправильно, то есть никакой действительной передачи информации не будет происходить, хотя скорость создания информации останется неизменной[4].
Remove ads
Примечания
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads