Студопедия — Энтропия системы
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Энтропия системы






В технической диагностике, особенно при построении оптимальных диагностических процессов, широко используется теория информации, центральное место в которой занимает понятие энтропии системы, которая характеризует степень неопределенности системы.

Пусть рассматривается система А, которая может иметь n случайных состояний А12,…Аn с вероятностями Р(А1),Р(А2)…Р(Аn). Если одно из состояний системы обязательно реализуется, а два состояния одновременно невозможны (полная группа несовместных событий), то (1)

Степень неопределенности системы зависит от числа n возможных состояний. Так, при бросании игрального кубика их может быть шесть, при бросании монеты – только два. Степень неопределенности возрастает с увеличением числа n. Однако не только число возможных состояний определяет энтропию системы. Так, если система имеет шесть возможных состояний с вероятностями Р(А1)=0,95; Р(А2)=0,01; Р(А3)= 0,01; Р(А4)= 0,01; Р(А5)= 0,01; Р(А6)=0,01, то с большой достоверностью можно утверждать априори, что она находится в состоянии А1, и неопределенность такой системы невелика. Если же Р(А1)=1, а вероятности остальных состояний равны нулю, то система вовсе не обладает неопределенностью – энтропия такой системы равна нулю.

В теории информации энтропия системы А, имеющей n возможных состояний с вероятностью Р(А1),Р(А2)…Р(Аn) равна:

(2)

Известно, что при выполнении некоторых, достаточно общих требований (непрерывности, неубывании энтропии при возрастании числа состояний, аддитивности) определение энтропии по выражению (2) является единственным. Обозначение H(A) показывает, что энтропия относится к системе А, и ее обозначение не следует понимать как обозначение функциональной зависимости.

Так как вероятности состояний системы 0 ≤ Р(Аi) ≤ 1, то энтропия представляет существенно положительную величину.

В выражении (2) логарифм может быть взят при любом основании – изменение основания приводит только к появлению множителя, т.е. к изменению единицы измерения.

Исходя из соблюдения физической наглядности, целесообразно вычисление энтропии системы с помощью двоичных логарифмов, тогда: , (3)

Целесообразность использования двоичных (3) логарифмов легко оценить, вычисляя энтропию системы, имеющей два равновероятных состояния.

 

Таким образом, в качестве единицы энтропии (при выборе двоичных логарифмов) принимается степень неопределенности системы, имеющей два возможных, равновероятных состояния. Эта единица измерения называется двоичной единицей или битом.

Если принять при вычислении энтропии обычные десятичные логарифмы, то в качестве единицы использовалась бы неопределенность системы, имеющей 10 равновероятных состояний (десятичная единица).

Величина энтропии характеризует только вероятности состояний и их число, но не отражает таких существенных свойств, как относительная ценность (важность) состояний, их близость, что может иметь серьезное значение для оценки неопределенности системы. Однако в тех задачах, где существенны статистические свойства систем, использование энтропии как меры неопределенности вполне оправданно и целесообразно.

Может быть введено понятие «неопределенности» отдельного состояния системы:

(4)

Энтропия системы представляет собой среднее значение энтропий отдельных состояний:

(5)

Выражение (5) можно представить в виде:

, (6)

где знак < > – обозначение математического ожидания.

Оно представляет энтропию как математическое ожидание случайной величины:

Энтропия обладает определенными свойствами. Если система А имеет одно из возможных состояний Аi с вероятностью Р(Аi) = 1, то энтропия такой системы: H(A) = 0 (7)

Условие (7) для рассматриваемой системы очевидно также по логическим соображениям, т.к. в системе нет никакой неопределенности.

Если система, имеет n равновероятных состояний, то очевидно, что с увеличением числа состояний энтропия возрастает, но гораздо медленнее, чем число состояний.

Если система А имеет n возможных состояний, то энтропия будет максимальной в том случае, когда все состояния равновероятны.

Во многих случаях требуется рассматривать сложную систему, состоящую из нескольких отдельных систем. Пусть система А может иметь n групп состояний (А1,…Аn) с вероятностями Р(А1),… Р(Аn); соответственно система В имеет m групп состояний В1,…Вm с вероятностями Р(В1),…Р(Вm). Объединенная система С = АВ – определяется сочетанием состояний систем А и В.

 

Система АВ может находиться в одном из следующих m·n возможных состояний:

n – количество строк, m –количество столбцов.

Состояние АiBj означает, что проведено соединение систем А и В, приведенная матрица отображает возможные сочетания состояний. Для вычисления энтропии системы АВ следует составить сумму произведений вероятностей состояний на их логарифмы:

(8)

Преобразование уравнения (8) показывает, что для сложной системы, объединяющей две статистически независимые системы, общая энтропия равна сумме энтропий этих систем. Так как энтропия системы неотрицательная величина, то при объединении систем энтропия возрастает или остается неизменной.

или

H (AB) = H (A) + H (B)

Энтропия сложной системы, объединяющей две статистически зависимые системы равна сумме энтропий одной системы и условной энтропии другой системы относительно первой, это положение может быть представлено в виде выражения:

H (AB) = H (A) + H (B/A)

Условная энтропия характеризует статистическую связь систем А и В. Если такая связь отсутствует, т.е. P (B j/ A i) = P (B j), i = 1,2,3…n, то:

H (B/A i) = H (B/A) = H (B)

В этом случае условная энтропия системы совпадает с ее независимой энтропией.

Рассмотрим случай – наличие детерминированной связи состояний систем А и В. Это означает, что условная вероятность может иметь только два значения 1 или 0 для всех j =1…m, i =1… n.

Так как для обоих значений , то для систем с детерминированной связью H (B / A) = 0

В общем случае для произвольной связи систем условная энтропия лежит в пределах: 0 ≤ H (B / A) ≤ H (B).







Дата добавления: 2015-04-19; просмотров: 1862. Нарушение авторских прав; Мы поможем в написании вашей работы!



Аальтернативная стоимость. Кривая производственных возможностей В экономике Буридании есть 100 ед. труда с производительностью 4 м ткани или 2 кг мяса...

Вычисление основной дактилоскопической формулы Вычислением основной дактоформулы обычно занимается следователь. Для этого все десять пальцев разбиваются на пять пар...

Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...

Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Ученые, внесшие большой вклад в развитие науки биологии Краткая история развития биологии. Чарльз Дарвин (1809 -1882)- основной труд « О происхождении видов путем естественного отбора или Сохранение благоприятствующих пород в борьбе за жизнь»...

Этапы трансляции и их характеристика Трансляция (от лат. translatio — перевод) — процесс синтеза белка из аминокислот на матрице информационной (матричной) РНК (иРНК...

Условия, необходимые для появления жизни История жизни и история Земли неотделимы друг от друга, так как именно в процессах развития нашей планеты как космического тела закладывались определенные физические и химические условия, необходимые для появления и развития жизни...

Закон Гука при растяжении и сжатии   Напряжения и деформации при растяжении и сжатии связаны между собой зависимостью, которая называется законом Гука, по имени установившего этот закон английского физика Роберта Гука в 1678 году...

Характерные черты официально-делового стиля Наиболее характерными чертами официально-делового стиля являются: • лаконичность...

Этапы и алгоритм решения педагогической задачи Технология решения педагогической задачи, так же как и любая другая педагогическая технология должна соответствовать критериям концептуальности, системности, эффективности и воспроизводимости...

Studopedia.info - Студопедия - 2014-2024 год . (0.008 сек.) русская версия | украинская версия