Студопедия — Данная мера неопределенности получила название энтропии
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Данная мера неопределенности получила название энтропии






Заметим, что под опытом X мы можем принимать информативный параметр сигнала. Поэтому, говоря об энтропии опыта со случайными исходами, мы с полным правом можем говорить и об энтропии сигнала как о мере его неопределенности до получения конкретной реализации сигнала.

Следовательно, мера К. Шеннона является обобщением меры Хартли на случай ансамбля с неравновероятными состояниями. Она, энтропия, позволяет учесть статистические свойства источника информации.

Понятие энтропии тесно связано с понятием количества информации. Под количеством информации обычно понимается мера снятой неопределенности в процессе получения сигнала адресатом.

Предположим, что априорно ситуация характеризовалась энтропией H1. После получения сигнала энтропия уменьшилась до H2. Тогда количество информации, полученное адресатом,

(3.6)

Пример 3.1. Сравнить неопределенность, приходящуюся на букву источника информации, Х (алфавита русского языка), характеризуемого ансамблем, представленным в табл. 3.1, с неопределенностью, которая была бы у того же источника при равновероятным использовании букв.

При одинаковых вероятностях появления всех 32 букв алфавита неопределенность, приходящаяся на одну букву, составляет

Буква Пробел о е, ё а и т н с р В л
Вероятность 0, 175 0.090 0, 072 0, 062 0, 062 0, 053 0, 053 0.045 0, 040 0, 038 0, 035
Буква к м д п у я ы з ь, ъ Б г
Вероятность 0, 028 0, 026 0, 025 0, 023 0.021 0, 018 0, 016 0, 016 0, 014 0, 014 0, 013
Буква ч й х ж ю ш ц щ э Ф  
Вероятность 0, 012 0, 010 0, 009 0, 007 0, 006 0, 006 0, 004 0, 003 0, 003 0, 002

таблица 3.1

Энтропию источника H1(X) для независимых букв (табл. 3.1), находим, используя формулу (3.5):

Пример 3.2. Приводятся значения энтропий Hi, приходится на одну букву русского и английского алфавитов с учетом различных корреляционных (статистических) связей в буквенных сочетаниях (H0, H1, H2, …, HN). Вероятность появления букв в английском алфавите приведены в таблице 3.2.

таблица 3.2

Буква Пробел e t o a n i r s h
Вероятность 0, 2 0, 105 0, 072 0, 0654 0, 063 0, 059 0, 055 0, 054 0, 052 0, 047
Буква d l c f u m p y w g
Вероятность 0, 035 0, 029 0, 023 0, 0225 0, 0225 0, 021 0, 0175 0, 012 0, 012 0, 011
Буква b v k x j q z  
Вероятность 0, 0105 0, 008 0, 003 0, 002 0, 001 0, 001 0, 001

Значения энтропии Hi, приходящихся на одну букву с учетом различных многобуквенных сочетаний (H2, H3, …, HN – энтропия на букву текста при учете вероятности появления двухбуквенных H2, трехбуквенных H3, …, HN сочетаний) приведены в таблице 3.3

таблица 3.3

Энтропия H0 H1 H2 H3 H5 H8
Русский текст Английский текст 5, 00 4, 75 4, 35 4, 03 3, 52 3, 32 3, 00 3, 10 2, 16 1, 86

Таким образом, энтропия приходящаяся на одну букву смыслового текста при учете многобуквенных сочетаний уменьшается. Это характеризует избыточность наиболее распространенных языков. Во многих случаях выгодно первоначальный алфавит источника представить при помощи другого алфавита путем кодирования.

 

3.2 Свойства энтропии [1, 3 и др.].

Рассмотрим основные свойства энтропии, обратив внимание на то, что сформулированные условия для меры неопределенности выполняются.

1. Энтропия является вещественной и неотрицательной величиной, так как для любого i(1≤ i≤ N) pi изменяется в интервале от 0 до 1, log(pi) отрицателен и, следовательно, -pilog(pi) положительна.

2. Энтропия – величина ограниченная. Для слагаемых –pilog(pi) в диапазоне 0< pi≤ 1 ограниченность очевидна. Остается определить предел, к которому стремится слагаемое –pilog(pi) при pi→ 0, поскольку -log(pi) при этом неограниченно возрастает:

Обозначив и воспользовавшись правилом Лопиталя, получим

3. Энтропия обращается в нуль лишь в том случае, если вероятность одного из состояний равна единице; тогда вероятности всех остальных состояний, естественно, равны нулю. Это положение соответствует случаю, когда состояние источника полностью определено.

4. Энтропия максимальна, когда все состояния источника равновероятны, что легко доказывается методом неопределенных множителей Лагранжа:

(3.7)

5. Энтропия источника x с двумя состояниями x1 и x2 изменяется от нуля до единицы, достигая максимума при равенстве их вероятностей:

График зависимости H(X) в функции p

(3.8)

приведены на рис. 3.1

Рис. 3.1. Зависимость энтропии H(X) от вероятности p.

При p< < (1-p) частная неопределенность, приходящаяся на состояние x1 велика, однако такие состояния источника весьма редки. Состояния x2 реализуются часто, но неопределенность, приходящаяся на такое состояние, очень мала. Поэтому энтропия, характеризующая среднюю неопределенность на одно состояние ансамбля, так же мала. Аналогичная ситуация наблюдается при p> > (1-p).

Отметим, что энтропия непрерывно зависит от вероятностей отдельных состояний, что непосредственно вытекает из непрерывности функции –plogp.

6. Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропий исходных источников.

Не теряя общности, ограничимся рассмотрением объединения, включающего два источника информации x и y понимают обобщенный источник информации (x, y), характеризующийся вероятностями p(xi, yj) всех возможных комбинаций состояний xi источника X и yj источника Y. Аналогично трактуется и объединение ансамблей.

В соответствии с определением энтропия объединения

(3.9)

здесь p(xi, yj) – вероятности совместной реализации состояний

и

В случае статистической независимости источников информации x и y запишем

тогда

Учитывая, что

и

получим

(3.10)

Соответственно для энтропии объединения нескольких независимых источников x, y, z имеем

(3.11)

В дальнейшем для придания общности получаемым результатам о неопределенности выбора будем говорить в основном применительно к математическим моделям источников информации в виде ансамблей.

7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля. При ее определении используют только вероятности состояний, полностью игнорируя их содержательную сторону.

8. Энтропия как мера неопределенности согласуется с экспериментальными данными, полученными при изучении психологических реакций человека, в частности реакции выбора. Установлено, что время безошибочной реакции на последовательность беспорядочно чередующихся равновероятных раздражителей (например, загорающихся лампочек) растет с увеличением их числа так же, как энтропия. Это характеризует неопределенность выбора одного раздражителя.

Замена равновероятных раздражителей неравновероятными приводит к снижению среднего времени реакции ровно настолько, насколько уменьшается энтропия.

 

3.3 Условная энтропия и ее свойства [1, 2 и др.].

При оценке меры неопределенности выбора исхода опыта часто необходимо учитывать статистические связи, которые в большинстве случаев имеют место как между состояниями двух или нескольких источников, объединенных в рамках одной системы, так и между состояниями, последовательно выбираемыми одним источником.

Определим энтропию объединения двух статистически связанных ансамблей X и Y. Объединение ансамблей характеризуется матрицей p(X, Y) вероятностей p(xi, yj) всех возможных комбинаций состояний xi(1≤ i≤ N) ансамбля X и состояний yj(1≤ j≤ k) ансамбля Y:

(3.12)

Суммируя столбы и строки матрицы (3.12), получим информацию об ансамблях X и Y исходных источников x и y:

При известных вероятностях p(xi, yj) появления пары (xi, yj) энтропия системы сигналов X, Y в соответствии с формулой (3.9) определяется выражением

(3.13)

Проанализируем это выражение. Согласно теореме умножения вероятностей,

(3.14)

(3.15)

Здесь p(yj) и p(xi) – вероятности появления элементов соответственно и ; p(yj|xi) – условная вероятность появления элемента при условии, что уже известен элемент ; p(xi|yj) – условная вероятность появления элемента при условии, что уже известен элемент .

Подставив в формулу (3.13) и (3.14), получим

Учитывая, что log p(yj)p(xi|yj)=log p(yj)+log p(xi|yj), последнее выражение перепишем в виде

Имея в виду, что , получим

Рассмотрим сумму . Согласно формуле (3.5) эта сумма представляет собой энтропию сигнала Y. Сумма представляет собой случайную величину, характеризующую неопределенность, приходящуюся на одно состояние ансамбля Y при условии, реализовалась конкретное состояние xi ансамбля X. Эта условная энтропия относительно элемента yj называется частной условной энтропией. Обозначим ее через H(X|yj). В результате получим

Сумма представляет собой усредненное значение частной условной энтропии H(X|yj) по всем возможным значениям сигнала Y и называется условной энтропией сигнала X относительно сигнала Y. Обозначив условную энтропию через H(X|Y), получим

(3.16)

Если в равенство (3.13) подставить выражение (3.15), а не (3.14), то после аналогичных преобразований получим

(3.17)

Формулы (3.16) и (3.17) позволяет сделать вывод, что энтропия объединения двух сигналов X и Y равна энтропии одного из этих сигналов плюс условная энтропия второго сигнала относительно первого.







Дата добавления: 2014-12-06; просмотров: 1526. Нарушение авторских прав; Мы поможем в написании вашей работы!



Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

ТЕОРЕТИЧЕСКАЯ МЕХАНИКА Статика является частью теоретической механики, изучающей условия, при ко­торых тело находится под действием заданной системы сил...

Теория усилителей. Схема Основная масса современных аналоговых и аналого-цифровых электронных устройств выполняется на специализированных микросхемах...

Логические цифровые микросхемы Более сложные элементы цифровой схемотехники (триггеры, мультиплексоры, декодеры и т.д.) не имеют...

Тема: Изучение фенотипов местных сортов растений Цель: расширить знания о задачах современной селекции. Оборудование:пакетики семян различных сортов томатов...

Тема: Составление цепи питания Цель: расширить знания о биотических факторах среды. Оборудование:гербарные растения...

В эволюции растений и животных. Цель: выявить ароморфозы и идиоадаптации у растений Цель: выявить ароморфозы и идиоадаптации у растений. Оборудование: гербарные растения, чучела хордовых (рыб, земноводных, птиц, пресмыкающихся, млекопитающих), коллекции насекомых, влажные препараты паразитических червей, мох, хвощ, папоротник...

Медицинская документация родильного дома Учетные формы родильного дома № 111/у Индивидуальная карта беременной и родильницы № 113/у Обменная карта родильного дома...

Основные разделы работы участкового врача-педиатра Ведущей фигурой в организации внебольничной помощи детям является участковый врач-педиатр детской городской поликлиники...

Ученые, внесшие большой вклад в развитие науки биологии Краткая история развития биологии. Чарльз Дарвин (1809 -1882)- основной труд « О происхождении видов путем естественного отбора или Сохранение благоприятствующих пород в борьбе за жизнь»...

Studopedia.info - Студопедия - 2014-2024 год . (0.011 сек.) русская версия | украинская версия