Студопедия — Собственная информация. Взаимная информация
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Собственная информация. Взаимная информация






 

Пример 5. На экране индикатора РЛС, представляющего поле с 10 вертикальными и 10 горизонтальными полосами, появляется изображение объекта в виде яркостной отметки. Все положения объекта равновероятны.

Определить количество информации, содержащееся в сообщениях:

а) объект находится в 46-м квадрате экрана;

б) объект находится в 5-й горизонтальной строке экрана;

в) объект находится в 6-м вертикальном столбце и 3-й горизонтальной строке экрана.

Решение. а) Пусть - сообщение о том, что объект находится в 46-м квадрате экрана.

Собственная информация в этом сообщении по формуле (4.2) [1] равна . Безусловная вероятность сообщения – объект находится в 46-квадрате экрана – равна , где – общее число возможных исходов (квадратов поля), – число исходов, благоприятствующих событию .

По условию задачи квадратов, a . Тогда

и

б) Вероятность события – объект находится в 5-й горизонтальной строке экрана – по аналогии с рассмотренным случаем а) определится и собственная информация

в) Вероятность события – объект находится в 6-м вертикальном столбце и 3-й горизонтальной строке – равна

, следовательно,

Пример 6. Рассматривается ансамбль сообщений, приведенный в табл. 2.

Таблица 2

1/2 1/4 1/8 1/32 1/32 1/32 1/32
Кодовое слово              

Сообщение поступает в кодер. Вычислить дополнительную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

Решение. На вход кодера поступает одно из сообщений ,..., , а кодер порождает соответствующие таблице двоичные символы. Так, сообщению соответствует на выходе кодовое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на входе могли быть сообщения , , или . Второй символ 0 сужает выбор – теперь на входе возможно одно из двух сообщений: или . И, наконец, последний, третий символ 1 однозначно определяет переданное сообщение.

По формуле (4.19) [1] взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения , равна

.

Обратная вероятность может быть найдена по формуле Байеса (1.9) [1]

,

где

т.е. условная вероятность для гипотез, при которых первый кодовый символ есть 0, и для гипотез, при которых первый кодовый символ 1. В знаменателе формулы Байеса таким образом учитываются те гипотезы, при которых возможно появление 1 на первом месте.

Итак,

,

, ,

а взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения , равна

Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть

Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть

Так как сообщения и кодовые слова однозначно связаны, то

.

Действительно, бит, и это совпадает с приведенной суммой.

Пример 7. По дискретному каналу передаются сообщения или . Вследствие действия шумов на выходе появляется один из сигналов . Вероятности совместного появления заданы табл. 3.

Вычислить взаимные информации , .

Решение. Дискретный канал с шумом удобно изображать в виде графа (рис. 3).

Определим взаимную информацию по формуле (4.19) [1]

или в силу свойства симметрии

.

Условные и безусловные вероятности найдем, воспользовавшись таблицей. По формуле (1.7) [1]

;

; ;

; .

Используя формулы (1.9), (1.10) [1], найдем условные вероятности:

,

.

Тогда количество взаимной информации по формуле (4.19) [1]

Мы получили , так как .

Пример 8. Производится стрельба по двум мишеням, по одной сделано 2 выстрела, по второй – 3. Вероятности попадания при одном выстреле соответственно равны 1/2 и 1/3. Исход стрельбы (число попаданий) по какой мишени является более определенным?

Решение. Исход стрельбы определяется числом попаданий в мишень, которое подчинено биномиальному закону распределения ,

где .

Составляем ряд распределения для числа попаданий в первую мишень при n =2 и p =1/2 (табл. 4) и вторую мишень при n =3 и p =1/3 (табл. 5).

Мерой неопределенности исхода стрельбы служит энтропия числа попаданий. Энтропия числа попаданий при стрельбе по первой мишени (4.6) [1]

Аналогично для второй мишени имеем

т.е. исход стрельбы по второй мишени обладает большей неопределенностью.

Пример 9. Источник сообщений вырабатывает ансамбль символов

.

Символы в последовательности независимы.

Вычислить энтропию источника и определить избыточность.

Решение. Энтропия источника для случая неравновероятных и независимых сообщений определяется формулой (4.6) [1]

Избыточность за счет неоптимальности (неравновероятности) распределения сообщений в источнике определяется формулой (4.12) [1] , где по формуле (2.2.3).

Отсюда

Пример 10. Алфавит источника состоит из трех букв:
х 1, х 2, х 3.

Определить энтропию на 1 букву текста , для следующих случаев:

а) буквы алфавита неравновероятны: , , а символы в последовательности на выходе источника статистически зависимы. Условные вероятности заданы в табл. 6;

б) вероятности букв те же, что и в п. а), но символы независимы;

в) символы в последовательности независимы, вероятности букв одинаковы.

Вычислить избыточность источников для случаев а) и б).

Решение. а) В случае неравновероятных и зависимых сообщений энтропия текста по формуле (4.10) [1]

,

где ,

а условная энтропия равна

Энтропия на один символ

б) При неравновероятных, но зависимых сообщениях энтропия вычисляется по формуле (4.6) [1]

Избыточность, обусловленная статистической зависимостью

в) В случае равновероятных и независимых сообщений энтропия по формуле (4.7) [1]

Избыточность, обусловленная неоптимальностью распределе­ния вероятности

Полная избыточность (за счет неоптимальности распределения и наличия статистических взаимосвязей)

Пример 11. Вычислить для конкретного канала, заданного в примере 7, средние количества информации.

Решение. а) Средняя взаимная информация в реализации сигнала на выходе y 1 относительно случайной величины X на входе канала определяется формулой

Из примера 7 известны вероятности:

Определим условные вероятности:

Средняя информация

б) Средняя взаимная информация в выходной величине Y относительно реализации случайной величины на входе x 1 определяется формулой

Определяем условные вероятности

Условная средняя взаимная информация равна

в) Средняя взаимная информация между случайной величи­ной Y на выходе канала и случайной величиной X на входе определяется формулой (4.23) [1]

Воспользовавшись результатами вычислений , получим для средней взаимной информации

Пример 12. Эргодический источник имеет алфавит, состоящий из 8 букв. Средние частоты повторения букв одинаковы. При передаче по каналу с шумом в среднем половина всех букв принимается правильно, в другой половине случаев имеют место ошибки, при этом любая буква переходит в любую другую с одинаковой вероятностью. Какова средняя информация в принятой букве относительно переданной?

Решение. Обозначим

ансамбль переданных букв,

ансамбль принятых букв.

Так как для эргодической последовательности средние по времени частоты повторения букв совпадают с вероятностями, то по условию задачи вероятности появления букв на входе канала

Ищем условные вероятности . Поскольку половина всех букв принимается правильно, то при

Другая половина случаев есть ошибочный прием, причем по условию задачи все возможные ошибки равновероятны. Числовозможных переходов (ошибок) равно 7. Тогда вероятность ошибки при

Вероятности появления букв на выходе найдем по (1.7) [1]

для любого к.

Этот же результат следует непосредственно из того факта, что рассматриваемый канал – симметричный (набор вероятностей ошибок одинаков для любого Х), тогда при равномерном распределении на входе распределение на выходе также равномерно.

Среднюю взаимную информацию находим по формуле (4.23) [1]

Выражения в квадратных скобках численно равны, поэтому

Пример 13. Сообщение X есть стационарная последовательность независимых символов, имеющих ряд распределения

Сигнал Y является последовательностью двоичных символов, связанных с сообщением следующим неудачным образом: x1→ 00, x2→ 00, x3→ 1.

Определить: а) средние безусловную и условную энтропии, приходящиеся на 1 символ сообщения;

б) средние безусловную и условную энтропии, приходящиеся на 1 символ сигнала;

в) среднюю взаимную информацию в расчете на 1 символ сообщения.

Решение. Символы в последовательности на выходе источника независимы, поэтому из (4.30) [1]

Обозначив y 1=00, у 2=1, вычислим условные и безусловные вероятности сигнала:

Энтропия случайной величины Y равна

,

а условная энтропия H(Y/X) =0, так как сигнал однозначно определяется сообщением.

Взаимная информация

.

Условная энтропия сообщения

.

Итак, получаем, что условная энтропия сообщения равна 0, 2755 бит/симв, а взаимная информация в расчете на 1 символ сообщения равна 0, 8813 бит/симв.

Среднее количество символов сигнала, приходящихся на 1 символ сообщения, равно

где lj – длина кодового слова, соответствующего xj.

Энтропия последовательности Y(t) равна

а условная энтропия равна нулю.

Пример 14. Вольтметром измеряется напряжение в электрической сети. Ошибка измерения не зависит от истинного значения напряжения и распределена нормально с нулевым математическим ожиданием и среднеквадратическим отклонением, равным 2 В. Истинное значение напряжения в сети также имеет нормальное распределение с математическим ожиданием 220 В и СКО, равным 10 В.

Найти:

а) зависимость величины получаемой информации от показаний прибора,

б) среднюю величину получаемой информации.

Решение. Введем обозначения:

X – напряжение в сети,

V – ошибка измерения,

Y = X + V – показание прибора.

Из условия задачи записываем плотности вероятностей:

Безусловную плотность вероятности величины Y можно найти по формуле полной вероятности, но проще поступить следующим образом. Показание прибора Y есть сумма двух независимых нормальных случайных величия и, следовательно, Y также имеет нормальное распределение с математическим ожиданием

и дисперсией

.

Итак,

Условную плотность вероятности х находим по формуле Байеса

В выражении, стоящем под знаком экспоненты, осуществляем возведение в квадрат и затем группируем члены, содержащие х 2 и х. В итоге убеждаемся, что условное распределение величины х также нормально

где – условное математическое

ожидание X,

- условная дисперсия X.

Для ответа на вопрос п. а) следует по формуле (3.1.2) вычислить величину средней взаимной информации между ансамблем X и реализацией у

Находим квадраты разностей и выносим за знак математического ожидания слагаемые и множители, не зависящие от х. Далее учитываем, что вычисляются условные математические ожидания при конкретном значении у, поэтому

В итоге получаем

Таким образом, искомая зависимость есть параболическая функция разности , причем наименьшее количество информации, равное 1, 1482 нат, доставляет наиболее вероятное показание прибора .

Для ответа на вопрос п. б) необходимо найти среднюю величину взаимной информации между ансамблями X и Y. Вычисляем безусловное математическое ожидание величины I (Х; у). При этом учитываем, что , и получаем

Обратите внимание, что в среднем количество получаемой информации в данном примере зависит только от отношения «сигнал/ошибка»

Пример 15. Положительная непрерывная случайная величина X распределена по экспоненциальному закону с математическим ожиданием mх =3. Вычислить значение дифференциальной энтропии величины X.

Решение. Заданный закон распределения имеет вид

Дифференциальная энтропия непрерывной случайной величины X определяется формулой (4.40) [1]

Подставляя mx = 3, получим

.

 







Дата добавления: 2014-11-10; просмотров: 4797. Нарушение авторских прав; Мы поможем в написании вашей работы!



Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

ТЕОРЕТИЧЕСКАЯ МЕХАНИКА Статика является частью теоретической механики, изучающей условия, при ко­торых тело находится под действием заданной системы сил...

Теория усилителей. Схема Основная масса современных аналоговых и аналого-цифровых электронных устройств выполняется на специализированных микросхемах...

Логические цифровые микросхемы Более сложные элементы цифровой схемотехники (триггеры, мультиплексоры, декодеры и т.д.) не имеют...

Случайной величины Плотностью распределения вероятностей непрерывной случайной величины Х называют функцию f(x) – первую производную от функции распределения F(x): Понятие плотность распределения вероятностей случайной величины Х для дискретной величины неприменима...

Схема рефлекторной дуги условного слюноотделительного рефлекса При неоднократном сочетании действия предупреждающего сигнала и безусловного пищевого раздражителя формируются...

Уравнение волны. Уравнение плоской гармонической волны. Волновое уравнение. Уравнение сферической волны Уравнением упругой волны называют функцию , которая определяет смещение любой частицы среды с координатами относительно своего положения равновесия в произвольный момент времени t...

Тема: Изучение фенотипов местных сортов растений Цель: расширить знания о задачах современной селекции. Оборудование:пакетики семян различных сортов томатов...

Тема: Составление цепи питания Цель: расширить знания о биотических факторах среды. Оборудование:гербарные растения...

В эволюции растений и животных. Цель: выявить ароморфозы и идиоадаптации у растений Цель: выявить ароморфозы и идиоадаптации у растений. Оборудование: гербарные растения, чучела хордовых (рыб, земноводных, птиц, пресмыкающихся, млекопитающих), коллекции насекомых, влажные препараты паразитических червей, мох, хвощ, папоротник...

Studopedia.info - Студопедия - 2014-2024 год . (0.01 сек.) русская версия | украинская версия