Студопедия — Описательные информации и подсчет их числа в информационной цепи
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Описательные информации и подсчет их числа в информационной цепи






Описательная информация – это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания некоторого определённого сообщение в информационной цепи.

Исходная (реперная) информация – это описательная информация, необходимая для определения первого сообщения в информационной цепи.

Исходное сообщение – это сообщение, которое следует преобразовать с помощью исходной информации для получения первого сообщения в информационной цепи.

Для описания последнего сообщения в информационной цепи необходимо знать информацию, которая преобразует предпоследнее сообщение в последнее, а для описания предпоследнего сообщения, в свою очередь, необходима информация, которая преобразует предыдущее сообщение, и т.д. – любое последующее сообщение описывается на основе предыдущего. Для определения же самого первого сообщения информационной цепи необходима исходная информация, которой должно быть подвергнуто некоторое исходное сообщение, не принадлежащее к данной информационной цепи.

Так как исходное сообщение не играет роли в процессе управления, то его можно выбрать произвольным образом, но в соответствии с ним должна быть выбрана исходная информация. Например, для определения значений температуры в качестве исходной температуры берётся температура таяния льда, температура абсолютного нуля. В качестве исходной информации можно взять операционную информацию вида t 0 + Δ t 01 = t 1, где Δ t 01 = (t 1- t 0) параметр операции. За исходную высоту местности принимается уровень моря; за исходный электрический потенциал берётся потенциал земли и т.п.

Наиболее удобно выбирать исходное сообщение, совпадающим с первым сообщением информационной цепи, так как исходная информация при этой будет тривиальной. К такому случаю относятся формулировки: «дана точка на плоскости, относительно которой…», «дано начальное состояние системы, относительного которого…».

Выясним от чего зависит число описательных информаций [2].

Теорема 2.1. Число информации D, описывающих одно сообщение в информационной цепи, состоящей из n различных сообщений, равно числу этих сообщений.

Доказательство этой теоремы основано на том обстоятельстве, что для полного описания любого j -го сообщения информационной цепи, состоящей из n сообщений, необходимо связать это сообщение со всеми (n - 1) остальными сообщениями этой цепи с помощью такого же числа описательных информации и ещё одна – исходная информация – требуется для связи данного сообщения с исходным сообщением. Таким образом, D j = n. Но те же утверждения справедливы для любого сообщения информационной цепи, поэтому

D 1 = D 2 =... = D j =... = D n = D = n. (2.15)

Из теоремы 2.1 следует, что при полном описании одного из сообщений информационной цепи одновременно оказываются описаны и все остальные сообщения данной цепи. Так бывает, например, когда имеется система из n уравнений с n переменными, (n - 1) из которых заданы, и требуется определить оставшуюся.

Здесь важно уяснить, что описать сообщение – это значит указать его связи со всеми другими сообщениями данной информационной цепи, а также с исходным сообщением с помощью преобразований (описательных информации). Так невозможно описать, например, красный цвет не соотнося его с другими цветами (желтым, зелёным, синим и т.д.) спектра видимого излучения.

Теорема 2.2. Для описания одного сообщения информационной цепи, содержащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.

D 1 = D 2 =... = D j =... = D n = D = 2 (2.16)

Данная теорема доказывается тем, что для определения любого сообщения из n сообщений требуется (n - 1) – кратное применение одной и той же основной информации J и применения одной исходной информации J 01 (см. разд. 1.5).

Для дальнейших рассуждений необходимо определить следующие понятия.

Полная описательная информация – это информация, которая представлена наименьшим множеством описательных информации, необходимых для описания определённого сообщения в информационной цепи, т.е. полная информация содержится в наименьшем множестве преобразований, связывающих данное сообщение с исходным и всеми другими сообщениями информационной цепи.

Описательная информация множества сообщений информационной цепи – это информация, которая представлена наименьшим множеством полных описательных информации, необходимых для описания каждого из сообщений информационной цепи.

Редкость сообщения или описательной информации – это величина обратная частоте (в пределе – вероятности) встречаемости сообщения данного класса или описательной информации данного типа среди множества всех рассматриваемых сообщений или информации. Следовательно, чем меньше вероятность появления некоторого объекта, тем реже он встречается и наоборот.

Редкость будем обозначать в виде или , где n j – число одинаковых сообщений, составляющих j -й класс, n – общее число сообщений; и P j – соответственно частота (относительное число) и вероятность одинаковых сообщений j -го класса.

Теорема 2.3. Если в информационной цепи, состоящей из n сообщений, имеется m классов, состоящих соответственно из n а,, n b, …, n m одинаковых сообщений, то среднее число описательных информации можно определить следующим выражением

Докажем теорему. Считается данным, что в информационной цепи имеется:

n a сообщений a 1 = a 2 = a 3 = … = a,

n b сообщений b 1 = b 2 = b 3 = … = b,

…………………………………

n m сообщений m 1 = m 2 = m 3 = … = m,

причём n a + n b + …+ n m = n.

В соответствии с теоремой 2.1 число информаций, описывающих сообщение a 1, равно D a1 = n. Точно также для числа информаций, описывающих остальные сообщения этого же класса, имеем D a2 = n, D a3 = n и т.д. Вследствие одинаковости сообщений а 1 = а 2 = а 3 = … = аполные информации, описывающие каждое из этих сообщений, также одинаковы, поэтому для полной информации, описывающей одно из этих сообщений, информации, описывающие остальные сообщения этого класса, являются избыточными и должны быть исключены. При этом среднее число описательных информации, приходящееся на каждое из этих сообщений будет меньше общего числа сообщений данной информационной цепи во столько раз, сколько имеется одинаковых сообщений в данном классе, т.е. D а = n/n a. Так же определяются средние числа описательных информации, приходящихся на каждый из остальных классов, т.е.

, , …, . (2.17)

Среднее число описательных информации одного сообщения информационной цепи можно определить как среднее геометрическое средних чисел информации, описывающих сообщения для всех классов

 

(2.18)

или с учетом (2.17), получим

, (2.19)

или то же в компактном виде

, (2.20)

где j – номер класса, m – число классов.

Преобразуем уравнение (2.20) к виду

. (2.21)

Обозначив

(3.22)

где n q – среднее (геометрическое) число сообщений одного класса, и подставляя эту величину в знаменатель выражения (2.21), получим

. (2.23)

 

В частном случае, когда все сообщения информационной цепи различны, т.е. когда каждый класс представлен всего одним сообщением и

m = n, из (2. 20) имеем D = n, что совпадает с утверждением теоремы 2.1.

Заметим, что по определению величина D а = n/n a оценивает редкость встречаемости одинаковых сообщений класса «а» и среди всего множества n сообщений, составляющих информационную цепь. Если рассмотреть любую из полных описательных информации сообщений этого класса, то станет видно, что эта же величина, является редкостью тривиальных информации среди всего множества n информации, описывающих отдельное сообщение класса «а», а также, что она представляет, кроме того, редкость одинаковых полных информации, описывающих сообщения класса «а», среди множества n полных информации, описывающих все сообщения информационной цепи. Таким образом, величина D j = n/n j представляет одновременно редкости встречаемости следующих объектов: одинаковых сообщений j -го класса, тривиальных описательных информации, входящих в состав полной описательной информации отдельного сообщения j -го класса, одинаковых полных описательных информации сообщений j -го класса, образующих вместе с другими описательную информацию множества всех сообщений информационной цепи.

С учётом данных замечаний среднее число описательных информации D, определённое в виде (2.18 – 2.21) и (2.23), позволяет также оценить средниередкости одинаковых сообщений или тривиальных описательных информации, или одинаковых полных информации, описывающих сообщения одного класса.

 







Дата добавления: 2015-09-15; просмотров: 396. Нарушение авторских прав; Мы поможем в написании вашей работы!



Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

РЕВМАТИЧЕСКИЕ БОЛЕЗНИ Ревматические болезни(или диффузные болезни соединительно ткани(ДБСТ))— это группа заболеваний, характеризующихся первичным системным поражением соединительной ткани в связи с нарушением иммунного гомеостаза...

Решение Постоянные издержки (FC) не зависят от изменения объёма производства, существуют постоянно...

ТРАНСПОРТНАЯ ИММОБИЛИЗАЦИЯ   Под транспортной иммобилизацией понимают мероприятия, направленные на обеспечение покоя в поврежденном участке тела и близлежащих к нему суставах на период перевозки пострадавшего в лечебное учреждение...

ОПРЕДЕЛЕНИЕ ЦЕНТРА ТЯЖЕСТИ ПЛОСКОЙ ФИГУРЫ Сила, с которой тело притягивается к Земле, называется силой тяжести...

СПИД: морально-этические проблемы Среди тысяч заболеваний совершенно особое, даже исключительное, место занимает ВИЧ-инфекция...

Понятие массовых мероприятий, их виды Под массовыми мероприятиями следует понимать совокупность действий или явлений социальной жизни с участием большого количества граждан...

Studopedia.info - Студопедия - 2014-2024 год . (0.007 сек.) русская версия | украинская версия