Студопедия — Энтропия системы
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Энтропия системы






В технической диагностике, особенно при построении оптимальных диагностических процессов, широко используется теория информации, центральное место в которой занимает понятие энтропии системы, которая характеризует степень неопределенности системы.

Пусть рассматривается система А, которая может иметь n случайных состояний А12,…Аn с вероятностями Р(А1),Р(А2)…Р(Аn). Если одно из состояний системы обязательно реализуется, а два состояния одновременно невозможны (полная группа несовместных событий), то (1)

Степень неопределенности системы зависит от числа n возможных состояний. Так, при бросании игрального кубика их может быть шесть, при бросании монеты – только два. Степень неопределенности возрастает с увеличением числа n. Однако не только число возможных состояний определяет энтропию системы. Так, если система имеет шесть возможных состояний с вероятностями Р(А1)=0,95; Р(А2)=0,01; Р(А3)= 0,01; Р(А4)= 0,01; Р(А5)= 0,01; Р(А6)=0,01, то с большой достоверностью можно утверждать априори, что она находится в состоянии А1, и неопределенность такой системы невелика. Если же Р(А1)=1, а вероятности остальных состояний равны нулю, то система вовсе не обладает неопределенностью – энтропия такой системы равна нулю.

В теории информации энтропия системы А, имеющей n возможных состояний с вероятностью Р(А1),Р(А2)…Р(Аn) равна:

(2)

Известно, что при выполнении некоторых, достаточно общих требований (непрерывности, неубывании энтропии при возрастании числа состояний, аддитивности) определение энтропии по выражению (2) является единственным. Обозначение H(A) показывает, что энтропия относится к системе А, и ее обозначение не следует понимать как обозначение функциональной зависимости.

Так как вероятности состояний системы 0 ≤ Р(Аi) ≤ 1, то энтропия представляет существенно положительную величину.

В выражении (2) логарифм может быть взят при любом основании – изменение основания приводит только к появлению множителя, т.е. к изменению единицы измерения.

Исходя из соблюдения физической наглядности, целесообразно вычисление энтропии системы с помощью двоичных логарифмов, тогда: , (3)

Целесообразность использования двоичных (3) логарифмов легко оценить, вычисляя энтропию системы, имеющей два равновероятных состояния.

 

Таким образом, в качестве единицы энтропии (при выборе двоичных логарифмов) принимается степень неопределенности системы, имеющей два возможных, равновероятных состояния. Эта единица измерения называется двоичной единицей или битом.

Если принять при вычислении энтропии обычные десятичные логарифмы, то в качестве единицы использовалась бы неопределенность системы, имеющей 10 равновероятных состояний (десятичная единица).

Величина энтропии характеризует только вероятности состояний и их число, но не отражает таких существенных свойств, как относительная ценность (важность) состояний, их близость, что может иметь серьезное значение для оценки неопределенности системы. Однако в тех задачах, где существенны статистические свойства систем, использование энтропии как меры неопределенности вполне оправданно и целесообразно.

Может быть введено понятие «неопределенности» отдельного состояния системы:

(4)

Энтропия системы представляет собой среднее значение энтропий отдельных состояний:

(5)

Выражение (5) можно представить в виде:

, (6)

где знак < > – обозначение математического ожидания.

Оно представляет энтропию как математическое ожидание случайной величины:

Энтропия обладает определенными свойствами. Если система А имеет одно из возможных состояний Аi с вероятностью Р(Аi) = 1, то энтропия такой системы: H(A) = 0 (7)

Условие (7) для рассматриваемой системы очевидно также по логическим соображениям, т.к. в системе нет никакой неопределенности.

Если система, имеет n равновероятных состояний, то очевидно, что с увеличением числа состояний энтропия возрастает, но гораздо медленнее, чем число состояний.

Если система А имеет n возможных состояний, то энтропия будет максимальной в том случае, когда все состояния равновероятны.

Во многих случаях требуется рассматривать сложную систему, состоящую из нескольких отдельных систем. Пусть система А может иметь n групп состояний (А1,…Аn) с вероятностями Р(А1),… Р(Аn); соответственно система В имеет m групп состояний В1,…Вm с вероятностями Р(В1),…Р(Вm). Объединенная система С = АВ – определяется сочетанием состояний систем А и В.

 

Система АВ может находиться в одном из следующих m·n возможных состояний:

n – количество строк, m –количество столбцов.

Состояние АiBj означает, что проведено соединение систем А и В, приведенная матрица отображает возможные сочетания состояний. Для вычисления энтропии системы АВ следует составить сумму произведений вероятностей состояний на их логарифмы:

(8)

Преобразование уравнения (8) показывает, что для сложной системы, объединяющей две статистически независимые системы, общая энтропия равна сумме энтропий этих систем. Так как энтропия системы неотрицательная величина, то при объединении систем энтропия возрастает или остается неизменной.

или

H (AB) = H (A) + H (B)

Энтропия сложной системы, объединяющей две статистически зависимые системы равна сумме энтропий одной системы и условной энтропии другой системы относительно первой, это положение может быть представлено в виде выражения:

H (AB) = H (A) + H (B/A)

Условная энтропия характеризует статистическую связь систем А и В. Если такая связь отсутствует, т.е. P (B j/ A i) = P (B j), i = 1,2,3…n, то:

H (B/A i) = H (B/A) = H (B)

В этом случае условная энтропия системы совпадает с ее независимой энтропией.

Рассмотрим случай – наличие детерминированной связи состояний систем А и В. Это означает, что условная вероятность может иметь только два значения 1 или 0 для всех j =1…m, i =1… n.

Так как для обоих значений , то для систем с детерминированной связью H (B / A) = 0

В общем случае для произвольной связи систем условная энтропия лежит в пределах: 0 ≤ H (B / A) ≤ H (B).







Дата добавления: 2015-04-19; просмотров: 1860. Нарушение авторских прав; Мы поможем в написании вашей работы!



Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...

Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

Кран машиниста усл. № 394 – назначение и устройство Кран машиниста условный номер 394 предназначен для управления тормозами поезда...

Приложение Г: Особенности заполнение справки формы ву-45   После выполнения полного опробования тормозов, а так же после сокращенного, если предварительно на станции было произведено полное опробование тормозов состава от стационарной установки с автоматической регистрацией параметров или без...

Измерение следующих дефектов: ползун, выщербина, неравномерный прокат, равномерный прокат, кольцевая выработка, откол обода колеса, тонкий гребень, протёртость средней части оси Величину проката определяют с помощью вертикального движка 2 сухаря 3 шаблона 1 по кругу катания...

Основные разделы работы участкового врача-педиатра Ведущей фигурой в организации внебольничной помощи детям является участковый врач-педиатр детской городской поликлиники...

Ученые, внесшие большой вклад в развитие науки биологии Краткая история развития биологии. Чарльз Дарвин (1809 -1882)- основной труд « О происхождении видов путем естественного отбора или Сохранение благоприятствующих пород в борьбе за жизнь»...

Этапы трансляции и их характеристика Трансляция (от лат. translatio — перевод) — процесс синтеза белка из аминокислот на матрице информационной (матричной) РНК (иРНК...

Studopedia.info - Студопедия - 2014-2024 год . (0.01 сек.) русская версия | украинская версия