Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Энтропия системы





В технической диагностике, особенно при построении оптимальных диагностических процессов, широко используется теория информации, центральное место в которой занимает понятие энтропии системы, которая характеризует степень неопределенности системы.

Пусть рассматривается система А, которая может иметь n случайных состояний А12,…Аn с вероятностями Р(А1),Р(А2)…Р(Аn). Если одно из состояний системы обязательно реализуется, а два состояния одновременно невозможны (полная группа несовместных событий), то (1)

Степень неопределенности системы зависит от числа n возможных состояний. Так, при бросании игрального кубика их может быть шесть, при бросании монеты – только два. Степень неопределенности возрастает с увеличением числа n. Однако не только число возможных состояний определяет энтропию системы. Так, если система имеет шесть возможных состояний с вероятностями Р(А1)=0,95; Р(А2)=0,01; Р(А3)= 0,01; Р(А4)= 0,01; Р(А5)= 0,01; Р(А6)=0,01, то с большой достоверностью можно утверждать априори, что она находится в состоянии А1, и неопределенность такой системы невелика. Если же Р(А1)=1, а вероятности остальных состояний равны нулю, то система вовсе не обладает неопределенностью – энтропия такой системы равна нулю.

В теории информации энтропия системы А, имеющей n возможных состояний с вероятностью Р(А1),Р(А2)…Р(Аn) равна:

(2)

Известно, что при выполнении некоторых, достаточно общих требований (непрерывности, неубывании энтропии при возрастании числа состояний, аддитивности) определение энтропии по выражению (2) является единственным. Обозначение H(A) показывает, что энтропия относится к системе А, и ее обозначение не следует понимать как обозначение функциональной зависимости.

Так как вероятности состояний системы 0 ≤ Р(Аi) ≤ 1, то энтропия представляет существенно положительную величину.

В выражении (2) логарифм может быть взят при любом основании – изменение основания приводит только к появлению множителя, т.е. к изменению единицы измерения.

Исходя из соблюдения физической наглядности, целесообразно вычисление энтропии системы с помощью двоичных логарифмов, тогда: , (3)

Целесообразность использования двоичных (3) логарифмов легко оценить, вычисляя энтропию системы, имеющей два равновероятных состояния.

 

Таким образом, в качестве единицы энтропии (при выборе двоичных логарифмов) принимается степень неопределенности системы, имеющей два возможных, равновероятных состояния. Эта единица измерения называется двоичной единицей или битом.

Если принять при вычислении энтропии обычные десятичные логарифмы, то в качестве единицы использовалась бы неопределенность системы, имеющей 10 равновероятных состояний (десятичная единица).

Величина энтропии характеризует только вероятности состояний и их число, но не отражает таких существенных свойств, как относительная ценность (важность) состояний, их близость, что может иметь серьезное значение для оценки неопределенности системы. Однако в тех задачах, где существенны статистические свойства систем, использование энтропии как меры неопределенности вполне оправданно и целесообразно.

Может быть введено понятие «неопределенности» отдельного состояния системы:

(4)

Энтропия системы представляет собой среднее значение энтропий отдельных состояний:

(5)

Выражение (5) можно представить в виде:

, (6)

где знак < > – обозначение математического ожидания.

Оно представляет энтропию как математическое ожидание случайной величины:

Энтропия обладает определенными свойствами. Если система А имеет одно из возможных состояний Аi с вероятностью Р(Аi) = 1, то энтропия такой системы: H(A) = 0 (7)

Условие (7) для рассматриваемой системы очевидно также по логическим соображениям, т.к. в системе нет никакой неопределенности.

Если система, имеет n равновероятных состояний, то очевидно, что с увеличением числа состояний энтропия возрастает, но гораздо медленнее, чем число состояний.

Если система А имеет n возможных состояний, то энтропия будет максимальной в том случае, когда все состояния равновероятны.

Во многих случаях требуется рассматривать сложную систему, состоящую из нескольких отдельных систем. Пусть система А может иметь n групп состояний (А1,…Аn) с вероятностями Р(А1),… Р(Аn); соответственно система В имеет m групп состояний В1,…Вm с вероятностями Р(В1),…Р(Вm). Объединенная система С = АВ – определяется сочетанием состояний систем А и В.

 

Система АВ может находиться в одном из следующих m·n возможных состояний:

n – количество строк, m –количество столбцов.

Состояние АiBj означает, что проведено соединение систем А и В, приведенная матрица отображает возможные сочетания состояний. Для вычисления энтропии системы АВ следует составить сумму произведений вероятностей состояний на их логарифмы:

(8)

Преобразование уравнения (8) показывает, что для сложной системы, объединяющей две статистически независимые системы, общая энтропия равна сумме энтропий этих систем. Так как энтропия системы неотрицательная величина, то при объединении систем энтропия возрастает или остается неизменной.

или

H (AB) = H (A) + H (B)

Энтропия сложной системы, объединяющей две статистически зависимые системы равна сумме энтропий одной системы и условной энтропии другой системы относительно первой, это положение может быть представлено в виде выражения:

H (AB) = H (A) + H (B/A)

Условная энтропия характеризует статистическую связь систем А и В. Если такая связь отсутствует, т.е. P (B j/ A i) = P (B j), i = 1,2,3…n, то:

H (B/A i) = H (B/A) = H (B)

В этом случае условная энтропия системы совпадает с ее независимой энтропией.

Рассмотрим случай – наличие детерминированной связи состояний систем А и В. Это означает, что условная вероятность может иметь только два значения 1 или 0 для всех j =1…m, i =1… n.

Так как для обоих значений , то для систем с детерминированной связью H (B / A) = 0

В общем случае для произвольной связи систем условная энтропия лежит в пределах: 0 ≤ H (B / A) ≤ H (B).







Дата добавления: 2015-04-19; просмотров: 1972. Нарушение авторских прав; Мы поможем в написании вашей работы!




Аальтернативная стоимость. Кривая производственных возможностей В экономике Буридании есть 100 ед. труда с производительностью 4 м ткани или 2 кг мяса...


Вычисление основной дактилоскопической формулы Вычислением основной дактоформулы обычно занимается следователь. Для этого все десять пальцев разбиваются на пять пар...


Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...


Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Типовые ситуационные задачи. Задача 1.У больного А., 20 лет, с детства отмечается повышенное АД, уровень которого в настоящее время составляет 180-200/110-120 мм рт Задача 1.У больного А., 20 лет, с детства отмечается повышенное АД, уровень которого в настоящее время составляет 180-200/110-120 мм рт. ст. Влияние психоэмоциональных факторов отсутствует. Колебаний АД практически нет. Головной боли нет. Нормализовать...

Эндоскопическая диагностика язвенной болезни желудка, гастрита, опухоли Хронический гастрит - понятие клинико-анатомическое, характеризующееся определенными патоморфологическими изменениями слизистой оболочки желудка - неспецифическим воспалительным процессом...

Признаки классификации безопасности Можно выделить следующие признаки классификации безопасности. 1. По признаку масштабности принято различать следующие относительно самостоятельные геополитические уровни и виды безопасности. 1.1. Международная безопасность (глобальная и...

Схема рефлекторной дуги условного слюноотделительного рефлекса При неоднократном сочетании действия предупреждающего сигнала и безусловного пищевого раздражителя формируются...

Уравнение волны. Уравнение плоской гармонической волны. Волновое уравнение. Уравнение сферической волны Уравнением упругой волны называют функцию , которая определяет смещение любой частицы среды с координатами относительно своего положения равновесия в произвольный момент времени t...

Медицинская документация родильного дома Учетные формы родильного дома № 111/у Индивидуальная карта беременной и родильницы № 113/у Обменная карта родильного дома...

Studopedia.info - Студопедия - 2014-2025 год . (0.007 сек.) русская версия | украинская версия