Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Дискретный канал передачи информации




 

Рассмотрим модель канала передачи информации

 

, ,

,

[бит] - количество информации (мера неопределённости), содержащаяся в элементе ансамбля .

[бит] - количество информации, содержащееся в элементе при условии, на входе канала реализуется элемент ансамбля . Иногда её называют остаточной неопределённостью в элементе при условии реализации на входе канала элемента .

[бит] - количество информации, содержащееся в элементе на выходе канала связи относительно элемента на входе канала. Используя безусловную и условную вероятности и , можно получить

- количество информации, содержащееся в элементе относительно элемента .

Суммируя по всем возможным элементам и с соответствующими весами , получим

 

(2.19)

- количество взаимной информации, содержащейся в ансамбле относительно ансамбля .

(Зюко. Помехоустойчивость и эффективность систем связи. «Связь». 1972, 360 с.)

Выразим количество взаимной информации через энтропии ансамблей:

= . (2.20 а)

Формулу (2.18 а) можно интерпретировать как среднее количество информации, переданное по каналу связи. Условная энтропия зависит от характеристик шума и интерпретируется как среднее количество информации, теряемое в канале связи из-за шума, и её называют ненадёжностью [ Р. Фано, стр 66].

Используя соотношение (2.17), можно показать

. (2.20 б)

Энтропия - это среднее количество принятой информации, необходимое для определения принятого сигнала. Условная энтропия - среднее количество принятой информации, когда известны вероятностные характеристики ансамбля Y. Ввиду того, что сигнал и шум аддитивны и независимы, а характеристики сигнала учитываются в расчетах условной энтропии , то - среднее количество информации, необходимое для определения помехи, или энтропия помехи (шума) в канале связи. При отсутствии помех в канале связи

= =0 и = .

Пример 1. Положим, сигналы в канале передачи данных не искажаются, т.е. шумы в канале отсутствуют. Условная вероятность появления символов и в этом случае равна

Тогда условная энтропия равна нулю и количество взаимной информации определяется энтропией ансамбля Z. Но ранее было показано, что = . Из этого равенства и отсутствия шума следует, что , то есть количество взаимной информации на выходе канала связи относительно входа равна энтропии (неопределённости) ансамбля на входе канала передачи данных. И чем больше энтропия , тем больше информации передаётся по каналу связи.

Пример 2. Положим, сигналы в канале передачи данных искажаются настолько, что сигналы на приёмном конце канала передачи данных можно считать статистически независящими от передаваемых значений . В этом случае условная вероятность запишется как

и количество взаимной информации будет равно нулю, то есть абонент не получит никакой информации, хотя он будет фиксировать принимаемые символы .

Из рассмотренных примеров видно, чем больше энтропия , тем больше информации может быть передано по каналу. Для дискретных источников информации, как было показано ранее, энтропия принимает наибольшее значение, если элементы ансамбля равновероятны. Это положение относится как к ансамблю X, так и к ансамблям Y и Z то есть

, , где N и K – количество элементов ансамблей X и Y. Для непрерывных распределений вероятностей , , имеющих конечную дисперсию, энтропия принимает максимальное значение, если значения x и y распределены по нормальному закону.

Ансамбль сообщений, энтропия которых равна максимальному значению, является оптимальным ансамблем в смысле наибольшего количества передаваемой информации [Клюев].

Для оценки того, насколько отличается энтропия ансамбля от максимального значения вводится понятие коэффициента сжатия:

.

Из определения видно, что . При каждое сообщение несёт максимальную информацию. Избыточность информации, содержащаяся в ансамбле, характеризуется коэффициентом избыточности

.

Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. Затем с помощью элементов ансамбля Y составляются сообщения из ансамбля X.

 





Поделиться с друзьями:


Дата добавления: 2016-10-06; Мы поможем в написании ваших работ!; просмотров: 610 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Люди избавились бы от половины своих неприятностей, если бы договорились о значении слов. © Рене Декарт
==> читать все изречения...

2544 - | 2359 -


© 2015-2025 lektsii.org - Контакты - Последнее добавление

Ген: 0.01 с.