Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Скорость передачи информации и




Пропускная способность канала связи

Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов , где каждый символ , образует n-разрядный код. Количество комбинаций, которое можно образовать с использованием кода с основанием D, равно . Множество этих комбинаций образует пространство значений кодовых комбинаций . Символы при ансамбле Y обозначают моменты времени реализации величины . Например, для двумерного ансамбля c основанием кода, равным D =3, имеем

.

На выходе канала имеем последовательность символов , где каждый символ . Точно так же можно образовать множество кодовых комбинаций, составляющих пространство .

Последовательность символов поступает в канал в течение .

Количество информации, которое передается по каналу связи, за время наблюдения согласно (1.18) равно

. (4.2)

Скоростью передачи информации по каналу связи называется величина

. (4.3)

Скорость передачи информации R отражает среднюю скорость передачи информации в единицу времени.

Максимальная скорость передачи информации называется пропускной способностью канала связи

. (4.4)

Рассмотрим в выражении (1.18) разность . Чем больше энтропия , тем больше пропускная способность канала связи. Величина определяет среднюю неопределённость, содержащуюся в ансамбле Y, которая зависит от распределения вероятности элементов ансамбля Y. Поэтому максимизация скорости передачи информации происходит по распределению вероятности элементов ансамбля Y.

Упростим выражение (4.2).

. В силу того, что канал - стационарный и реализации элементов ансамблей и в моменты времени и независимы. Тогда

.

Но ансамбли за время передачи информации неизменны, т.е. . Тогда имеем

(4.5)

Условная энтропия в (4.2) представляется как

= =

= .

Воспользуемся условием независимости символов попарно на входе и выходе канала связи, а также стационарностью канала. Тогда соответствующие вероятности и условная энтропия будут равны

= ,

= ,

= =

= = . (4.6)

Если отсчёты во времени эквидистантны, то , где - интервал дискретизации по времени. Подставив (4.5), (4.6) и в (4.4), получим

. (4.7)

Введём скорость передачи символов

.

Тогда пропускную способность можно записать как

(4.8)

В таблице 4.1 представлены характеристики источника сообщений, кодера источника и канала связи.

Таблица 4.1  
   

 

Канал без шумов

Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность . Будем считать, сигнал в канале не искажается, если . Тогда для канала без шумов справедливо выражение

(4.9)

Из выражения (**.9) следует, , т.е. пропускная способность канала связи равна

= (4.10)

Если используется код с основанием D,то энтропия ансамбля достигает наибольшего значения при . Тогда пропускная способность канала равна

. (4.11)

Теорема Шеннона о кодирование источника независимых сообщений для канала без шумов. (Шеннон, стр. 270)

Пусть источник имеет энтропию , а канал имеет пропускную способность . Тогда можно закодировать сообщения таким образом, что можно передавать их со средней скоростью

, где .

Передавать сообщения со скоростью большей, чем , невозможно.

Доказательство. Будем считать источник сообщений согласованным с каналом по скорости передачи информации, если . Тогда

. (4.12)

Энтропия не превышает . Запишем

= ,. (4.13)

где .

Подстановка (4.13) в (4.12) позволяет получить

, (4.14)

где .

Если принять , то , т.е. не имеет смысла передавать сообщения.

 

Канал с шумами

 

Наличие шума в канале связи приводит к тому, что условная энтропия не равна нулю. Условную энтропию Шеннон назвал ненадёжностью канала, так как она зависит от шума в канале связи. В результате возникает вопрос, существует ли метод кодирования, позволяющий передавать информацию с определённой скоростью . На это вопрос отвечает теорема Шеннона (Шеннон стр.280).

Пусть дискретный канал обладает пропускной способностью , а дискретный источник – энтропией . Если < , то существует такая система кодирования, что сообщения источника могут быть переданы по каналу с произвольно малой частотой ошибок, (или со сколь угодно малой энтропией ). Если > , то можно закодировать источник таким образом, что ненадёжность канала будет меньше, чем , где сколь угодно мало. Не существует способа кодирования, обеспечивающего ненадёжность, меньшую, чем .

Нет доказательства

Пример 4.1. Определим пропускную способность двоичного симметричного канала связи. Модель двоичного симметричного канала показан на рисунке 4.4.

В канал связи поступают символы 1 и 0, отображающие реальные физические сигналы.

1) Канал симметричный. Вероятности искажения символов равны , вероятности неискажённого приема символов равны .

2) Канал стационарный, так как условные вероятности не зависят от времени.

Пропускную способность вычислим по формуле (4.8). Энтропию определим из условия при отсутствии шума. Энтропия принимает максимальное значение, равное 1, при . Условная энтропия равна

Подставляя полученные величины в (4.8), получим

.

Как видно из формулы, пропускная способность зависит скорости поступления символов в канал и от вероятности искажения символов.

Положим, задан ансамбль сообщений X с распределением вероятностей P, (Таблица 4.2). Сообщения генерируются со скоростью .Способ кодирования определён и каждому сообщению приписан двоичный код. Энтропия ансамбля сообщений X равна ,

Таблица 4.2
X P код
0.6  
0.2  
0.1  
0.07  
0.03  
       

вероятности реализации символов «1» и «0» равны

,

энтропия ансамбля символов Y равна

,

средняя длина кода равна .

Положим, в канале действует такой шум, что вероятность ошибочного перехода равна . Сможет ли канал обеспечить передачу сообщений?

1)

2) Будем считать . Тогда = 204.826 .

3) Будем считать . Тогда и пропускная способность канала равна =

= = 108.764

Как видно, пропускная способность канала значительно ниже скорости генерации информации источником и часть информации может быть утеряна. В этом случае можно уменьшить скорость генерации сообщений или уменьшить вероятность ошибок . Положим, каким-то образом удалось уменьшить вероятности ошибок до величины 0.01. Тогда пропускная способность канала увеличится до величины . При таком соотношении скорости поступления информации в канал и пропускной способности канала искажения информации в канале из-за величин и не будет.

Непрерывный канал связи

 

Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является передача амплитудно-модулированных, фазомодулированных или частотно-модулированных сигналов. Сами сигналы могут быть как детерминированными, так и являться случайными процессами. Сигнал и шум взаимно независимы и в канале связи складываются алгебраически, т.е сигнал и шум аддитивны

, (4.15)

где - шум в канале с известной плотностью вероятности ,

- непрерывный по множеству значений сигнал, поступающий в канал связи. Плотность распределения вероятности значений сигнала может быть произвольной

Чтобы упростить записи, в дальнейшем будем писать

, (4.16)

помня, что - непрерывные величины, а их реализациями являются . Запишем равенство (4.16) через реализации

(4.17)

Условная плотность распределения при фиксированном значении должна удовлетворять соотношению

. (4.18)

Используя (**.17), получим условную плотность распределения

(4.19)

Пропускная способность непрерывного канала связи определяется подобным образом, что и для дискретного канала, но максимизация пропускной способности производится по всем возможным распределениям :

, (4.20)

где - время, затраченное на передачу одного значения ,

- скорость передачи сигналов в канале - количество значений , переданных по каналу в единицу времени.

Определим условную энтропию :

(4.21)

Из (4.21) видно, что условная энтропия зависит от плотности распределения вероятности шума.

Пример 4.3. Вычислим энтропию случайной величины , подчиненной нормальному закону с математическим ожиданием, равным m, и дисперсией, равной .

=

Сделаем замену переменных .

 

 

.

Как видно, энтропия не зависит от математического ожидания m.

Пусть - энтропия случайной величины с математическим ожиданием, равным нулю, и дисперсией, равной . Энтропия случайной величины не превышает энтропии нормального закона распределения вероятности

, (4.22)

где знак равенства имеет место тогда и только тогда, когда случайная величина распределена по нормальному закону.

 

Положим, - произвольная плотность распределения вероятности случайной величины . Случайная величина подвергается преобразованию

.

Определим математическое ожидание случайной величины

=

. (4.23)

Рассмотрим разность . Правая часть этой разности есть . Поэтому

.

Знак равенства будет только тогда, когда справедливо равенство

или

.

Таким образом, энтропия достигает максимального значения при нормальном законе распределения вероятности. При этом накладываются условия:

- дисперсия случайной величины ограничена,

- область определения плотности распределения вероятности – ().

При рассмотрении пропускной способности канала связи никаких ограничений на вид распределения вероятности шума не накладывалось. В частном случае, наиболее употребляемом на практике, предполагается, что шум - нормальный белый. Это означает, что значения шума распределены по нормальному закону и они не коррелированны. При таких предположениях имеет место теорема Шеннона (Фано, стр. 176)

 

Если в непрерывном постоянном канале с дискретным временем аддитивный шум имеет гауссовское распределение с нулевым средним и дисперсией, равной , а мощность сигнала на входе не может превышать определенной величины , то пропускная способность этого канала на событие определяется формулой

. (4.24)

Знак равенства достигается лишь тогда, когда сигнал на входе канала - гауссовский с нулевым средним и дисперсией, равной .

Как известно, пропускная способность канала имеет вид

.

Определим . Из соотношений (4.15) - (4.18) следует,

. В силу независимости сигнала и шума .

По определению

.

Подставим вместо условной плотности плотность распределения шума и, учитывая, что шум распределён по нормальному закону, получим

. (4.25)

Используя общее определение пропускной способности канала (4..20)

. (4.25)

Если сигнал на входе канала распределен по нормальному закону, то и сумма (4.16) также распределена по нормальному закону, что является необходимым условием максимального значения энтропии . В этом случае пропускная способность достигает максимального значения (знак равенства в (4.24)).

 





Поделиться с друзьями:


Дата добавления: 2016-10-06; Мы поможем в написании ваших работ!; просмотров: 782 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Стремитесь не к успеху, а к ценностям, которые он дает © Альберт Эйнштейн
==> читать все изречения...

2221 - | 2169 -


© 2015-2025 lektsii.org - Контакты - Последнее добавление

Ген: 0.009 с.