Студопедія
рос | укр

Головна сторінка Випадкова сторінка


КАТЕГОРІЇ:

АвтомобіліБіологіяБудівництвоВідпочинок і туризмГеографіяДім і садЕкологіяЕкономікаЕлектронікаІноземні мовиІнформатикаІншеІсторіяКультураЛітератураМатематикаМедицинаМеталлургіяМеханікаОсвітаОхорона праціПедагогікаПолітикаПравоПсихологіяРелігіяСоціологіяСпортФізикаФілософіяФінансиХімія






Загальні правила розв’язування розрахункових задач


Дата добавления: 2015-09-19; просмотров: 450



Описательная информация – это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания некоторого определённого сообщение в информационной цепи.

Исходная (реперная) информация – это описательная информация, необходимая для определения первого сообщения в информационной цепи.

Исходное сообщение – это сообщение, которое следует преобразовать с помощью исходной информации для получения первого сообщения в информационной цепи.

Для описания последнего сообщения в информационной цепи необходимо знать информацию, которая преобразует предпоследнее сообщение в последнее, а для описания предпоследнего сообщения, в свою очередь, необходима информация, которая преобразует предыдущее сообщение, и т.д. – любое последующее сообщение описывается на основе предыдущего. Для определения же самого первого сообщения информационной цепи необходима исходная информация, которой должно быть подвергнуто некоторое исходное сообщение, не принадлежащее к данной информационной цепи.

Так как исходное сообщение не играет роли в процессе управления, то его можно выбрать произвольным образом, но в соответствии с ним должна быть выбрана исходная информация. Например, для определения значений температуры в качестве исходной температуры берётся температура таяния льда, температура абсолютного нуля. В качестве исходной информации можно взять операционную информацию вида t0+ Δt01 = t1, где Δt01 = (t1- t0) параметр операции. За исходную высоту местности принимается уровень моря; за исходный электрический потенциал берётся потенциал земли и т.п.

Наиболее удобно выбирать исходное сообщение, совпадающим с первым сообщением информационной цепи, так как исходная информация при этой будет тривиальной. К такому случаю относятся формулировки: «дана точка на плоскости, относительно которой…», «дано начальное состояние системы, относительного которого…».

Выясним от чего зависит число описательных информаций [2].

Теорема 2.1. Число информации D , описывающих одно сообщение в информационной цепи, состоящей из n различных сообщений, равно числу этих сообщений.

Доказательство этой теоремы основано на том обстоятельстве, что для полного описания любого j-го сообщения информационной цепи, состоящей из n сообщений, необходимо связать это сообщение со всеми (n - 1) остальными сообщениями этой цепи с помощью такого же числа описательных информации и ещё одна – исходная информация – требуется для связи данного сообщения с исходным сообщением. Таким образом, Dj = n. Но те же утверждения справедливы для любого сообщения информационной цепи, поэтому

D1 =D2 = . . . =Dj = . . . = Dn = D = n. (2.15)

Из теоремы 2.1 следует, что при полном описании одного из сообщений информационной цепи одновременно оказываются описаны и все остальные сообщения данной цепи. Так бывает, например, когда имеется система из n уравнений с n переменными, (n - 1) из которых заданы, и требуется определить оставшуюся.

Здесь важно уяснить, что описать сообщение – это значит указать его связи со всеми другими сообщениями данной информационной цепи, а также с исходным сообщением с помощью преобразований (описательных информации). Так невозможно описать, например, красный цвет не соотнося его с другими цветами (желтым, зелёным, синим и т.д.) спектра видимого излучения.

Теорема 2.2. Для описания одного сообщения информационной цепи, содержащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.

D1 =D2 = . . . =Dj = . . . = Dn = D = 2 (2.16)

Данная теорема доказывается тем, что для определения любого сообщения из n сообщений требуется (n - 1) – кратное применение одной и той же основной информации J и применения одной исходной информации J01(см. разд. 1.5).

Для дальнейших рассуждений необходимо определить следующие понятия.

Полная описательная информация – это информация, которая представлена наименьшим множеством описательных информации, необходимых для описания определённого сообщения в информационной цепи, т.е. полная информация содержится в наименьшем множестве преобразований, связывающих данное сообщение с исходным и всеми другими сообщениями информационной цепи.

Описательная информация множества сообщений информационной цепи – это информация, которая представлена наименьшим множеством полных описательных информации, необходимых для описания каждого из сообщений информационной цепи.

Редкость сообщения или описательной информации – это величина обратная частоте (в пределе – вероятности) встречаемости сообщения данного класса или описательной информации данного типа среди множества всех рассматриваемых сообщений или информации. Следовательно, чем меньше вероятность появления некоторого объекта, тем реже он встречается и наоборот.

Редкость будем обозначать в виде или , где nj – число одинаковых сообщений, составляющих j-й класс, n – общее число сообщений; и Pj– соответственно частота (относительное число) и вероятность одинаковых сообщений j-го класса.

Теорема 2.3. Если в информационной цепи, состоящей из n сообщений, имеется m классов, состоящих соответственно из nа,, nb, …, nm одинаковых сообщений, то среднее число описательных информации можно определить следующим выражением

Докажем теорему. Считается данным, что в информационной цепи имеется:

na сообщений a1 = a2 = a3 = … = a,

nbсообщений b1 = b2 = b3 = … = b,

…………………………………

nm сообщений m1 = m2 = m3 = … = m,

причём na + nb + …+ nm = n .

В соответствии с теоремой 2.1 число информаций, описывающих сообщение a1, равно Da1=n. Точно также для числа информаций, описывающих остальные сообщения этого же класса, имеем Da2 = n, Da3 = n и т.д. Вследствие одинаковости сообщений а1 = а2 = а3 = … = аполные информации, описывающие каждое из этих сообщений, также одинаковы, поэтому для полной информации, описывающей одно из этих сообщений, информации, описывающие остальные сообщения этого класса, являются избыточными и должны быть исключены. При этом среднее число описательных информации, приходящееся на каждое из этих сообщений будет меньше общего числа сообщений данной информационной цепи во столько раз, сколько имеется одинаковых сообщений в данном классе, т.е. Dа=n/na. Так же определяются средние числа описательных информации, приходящихся на каждый из остальных классов, т.е.

, , …, . (2.17)

Среднее число описательных информации одного сообщения информационной цепи можно определить как среднее геометрическое средних чисел информации, описывающих сообщения для всех классов

 

(2.18)

или с учетом (2.17), получим

, (2.19)

или то же в компактном виде

, (2.20)

где j – номер класса, m – число классов.

Преобразуем уравнение (2.20) к виду

. (2.21)

Обозначив

(3.22)

где nq – среднее (геометрическое) число сообщений одного класса, и подставляя эту величину в знаменатель выражения (2.21), получим

. (2.23)

 

В частном случае, когда все сообщения информационной цепи различны, т.е. когда каждый класс представлен всего одним сообщением и

m = n, из (2. 20) имеем D = n, что совпадает с утверждением теоремы 2.1.

Заметим, что по определению величина Dа = n/na оценивает редкость встречаемости одинаковых сообщений класса «а» и среди всего множества n сообщений, составляющих информационную цепь. Если рассмотреть любую из полных описательных информации сообщений этого класса, то станет видно, что эта же величина, является редкостью тривиальных информации среди всего множества n информации, описывающих отдельное сообщение класса «а», а также, что она представляет, кроме того, редкость одинаковых полных информации, описывающих сообщения класса «а», среди множества n полных информации, описывающих все сообщения информационной цепи. Таким образом, величина Dj = n/nj представляет одновременно редкости встречаемости следующих объектов: одинаковых сообщений j-го класса, тривиальных описательных информации, входящих в состав полной описательной информации отдельного сообщения j-го класса, одинаковых полных описательных информации сообщений j-го класса, образующих вместе с другими описательную информацию множества всех сообщений информационной цепи.

С учётом данных замечаний среднее число описательных информации D, определённое в виде (2.18 – 2.21) и (2.23), позволяет также оценить средниередкости одинаковых сообщений или тривиальных описательных информации, или одинаковых полных информации, описывающих сообщения одного класса.

 


<== предыдущая лекция | следующая лекция ==>
Методичні рекомендації по виконанню завдань практичної роботи | Приклад №4
1 | 2 | 3 | 4 | <== 5 ==> | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
Studopedia.info - Студопедия - 2014-2024 год . (0.217 сек.) російська версія | українська версія

Генерация страницы за: 0.217 сек.
Поможем в написании
> Курсовые, контрольные, дипломные и другие работы со скидкой до 25%
3 569 лучших специалисов, готовы оказать помощь 24/7