Студопедія
рос | укр

Головна сторінка Випадкова сторінка


КАТЕГОРІЇ:

АвтомобіліБіологіяБудівництвоВідпочинок і туризмГеографіяДім і садЕкологіяЕкономікаЕлектронікаІноземні мовиІнформатикаІншеІсторіяКультураЛітератураМатематикаМедицинаМеталлургіяМеханікаОсвітаОхорона праціПедагогікаПолітикаПравоПсихологіяРелігіяСоціологіяСпортФізикаФілософіяФінансиХімія






Приклад №5


Дата добавления: 2015-09-19; просмотров: 389



В разд. 2.3 отмечалось, что величина Н, определённая одинаково в (2.11) и в (2.36), также представляет энтропию источника или неопределенность его состояние, среднюю неожиданность или неопределённость сообщения. Рассмотрим подробнее сущность меры, которая оценивает среднее число описательных информаций D, определяемое в виде (2.20) и (2.35). Как видно из (2.17 – 2.20) при выводе выражения для D исключались одинаковые, а значит – избыточные информации, описывающие сообщения одного и того же класса. Поэтому по аналогии с тем как средняя неожиданность сообщений представляет степень неопределённости или энтропию, будем полагать, что среднее число описательных информации D или, что то же, средняя редкость одинаковых сообщений информационной цепи или их одинаковых описательных информации представляет степень разнообразия неоднородности, неповторяемости, нерегулярности сообщений или их описательных информаций.

В разд. 2.1 мы отмечали недостатки статистической меры информации (Шеннона), которая является обобщением аддитивной меры (Хартли) на случай неравновероятных сообщений. Как показано в разд. 2.2, разд. 2.3 и п. 2.4.3 применение этих мер ограничено изменением числа информации (типа «команд по выбору одного из двух равных множеств»), которые предназначены для идентификации случайного сообщения.

На практике возникает необходимость идентифицировать сообщения, имеющие различную физическую природу, например: выигрышный лотерейный билет на получение определённой суммы денег – среди всех типов выигрышных и проигрышных билетов, любимая мелодия – среди множества транслируемых по радио музыкальных произведений, символ буквы «а» – среди множества символов в тексте, значение измеряемой величины – среди множества всех возможных значений этой величины, кодовое слово «1 0 1 1 1» – среди некоторого множества двоичных комбинаций, например, хранящихся в запоминающем устройства ЦВМ, «лёгкие» или «трудные» билеты – среди множества экзаменационных билетов, отличающихся по степени сложности.

Сообщения разных классов в подобных множествах в общем случае представлены разными вероятностями, которые могут быть получены из опыта или других источников. В процессе идентификации такие сообщения воспринимаются приёмником как случайные – независимые или, в лучшем случае, статистически зависимые, т.е. как сообщения, которые не составляют закономерно упорядоченное множество.

В разд. 1.1 отмечалось, что информации и явления информирования имеет смысл рассматривать только в процессах управления. В разд. 2.4 установлено также, что в каждом процессе управления имеются сообщения и определяющие их описательные информации, но заметим, что не всегда требуется идентифицировать сообщения, а значит – подсчитывать число идентифицирующих информации. В большинстве случаев в процессах управления имеют место множества неслучайных, упорядоченных сообщений, связанных между собой совершенно определённым образом. Подобные абстрактные объекты, называемые в математике упорядоченными множествами или кортежами, не фиксируют принципиально разной роли информационных и кодовых цепей в процессах информирования и управления. Упорядоченными множествами, называемыми здесь информационными цепями, например, являются: текст состоящий из слов и букв (сообщений), графические зависимости, осциллограммы, последовательность звуков, представляющая речь человека, музыку и т.д., массив чисел, отображающий некоторый процесс и представленный в ЗУ ЦВМ последовательностью двоичных кодовых слов, а на бумаге печатающего устройства или экране дисплея – последовательностью символов, программа для ЦВМ, составленная из символов алгоритмического языка, сообщения или показания одного или нескольких датчиков или приборов, отображающие один и тот же или несколько взаимосвязанных процессов, математическое выражение, представляющее зависимости между его переменными (сообщениями).

Очевидно, что в этих случаях зачастую возникает необходимость в определении числа описательных информаций, которые связывают сообщения в некоторую конкретную информационную цепь. Это позволяет оценить возможности информационных систем, которые в процессе управления на разных этапах производят генерацию информационных цепей, их передачу, хранение и преобразование.

Ещё раз подчеркнём, что по известному числу D описательных информаций всегда можно определить число Н идентифицирующих информаций, но не всегда имеет смысл это делать. Например, в исторических событиях засвидетельствованных в книге очевидно, что имеются описательные информации, число которых бывает необходимо подсчитывать. Однако осуществлять идентификацию какого-либо исторического события не имеет смысла, так как они не могут появляться с некоторыми вероятностями, а существуют как факты.


<== предыдущая лекция | следующая лекция ==>
Приклад №4 | Приклад №1
1 | 2 | 3 | 4 | 5 | 6 | <== 7 ==> | 8 | 9 | 10 | 11 | 12 |
Studopedia.info - Студопедия - 2014-2024 год . (0.263 сек.) російська версія | українська версія

Генерация страницы за: 0.263 сек.
Поможем в написании
> Курсовые, контрольные, дипломные и другие работы со скидкой до 25%
3 569 лучших специалисов, готовы оказать помощь 24/7