Сравнительная оценка сообщений, передаваемых по нормальному закону и равновероятному закону распределений
Для сравнения сообщений необходимо предварительно вычислить энтропию этих сообщений. Вычислим энтропию сообщений, состояния элементов которых распределены по нормальному закону Энтропия равна Но так как
Таким образом, получили значение энтропии для нормального закона распределения. Теперь найдем значение энтропии непрерывных сообщений для равновероятного закона распределения.
Выражение (2.15) представляет энтропию для непрерывных сообщений с равновероятным распределением состояний элементов. Рассмотрим два вида сообщений, обладающих одинаковой энтропией, но характеризуемых различными законами распределения состояний элементов. где
Дисперсия для равновероятного закона распределения определяется интегралом Обозначим
откуда Таким образом, если имеются две системы с одинаковыми значениями энтропии по величине, то дисперсия системы при равновероятном распределении на 42% больше дисперсии системы, имеющей нормальное распределение состояния элементов. А, как известно, дисперсия характеризует среднюю мощность сигналов. То есть, выгоднее всего передавать сообщения по нормальному закону распределения элементов. Затраты на мощность при нормальном законе будут составлять 0,7 по сравнению с затратами мощности при равновероятном законе распределения элементов.
Епсилон -энтропия (ε-энтропия) Непрерывные сигналы воспринимаются с ограниченной точностью. Пусть Х - точный сигнал, его плотность вероятности w(x). Сигнал, воспроизводимый любой аппаратурой, отличается от исходного сигнала. То есть, на выходе аппаратуры имеем другой сигнал Y, отличный от X. Критерием близости двух сигналов X и Y является функционал
где h(x,y) - некоторая весовая функция, имеющая природу расстояния. Функционал F по своему виду представляет собой математическое ожидание функции h(x,y) случайных аргументов x и y. Если подобрать подходящим образом эту функцию, то в качестве критерия близости двух сигналов можно использовать условие Сигнал Y содержит информацию относительно X в соответствии с выражением Энтропия H(X) определяется функцией w(x), которая является заданной. Варьируя функцию w(x/y) можно в принципе добиться минимального значения величины Таким образом, ε-энтропия величины X называется минимальное количество информации в одной случайной величине Y относительно другой X, при котором удовлетворяется заданное требование к верности воспроизведения величины X. Пример. Найти ε-энтропию источника информации, ансамбль состояний которого описывается нормальным распределением. Решение. ε-энтропия определяется по формуле но условная энтропия H(X/Y) полностью определяется помехой, поэтому Энтропия сигнала равна
где
|