Головна сторінка Випадкова сторінка КАТЕГОРІЇ: АвтомобіліБіологіяБудівництвоВідпочинок і туризмГеографіяДім і садЕкологіяЕкономікаЕлектронікаІноземні мовиІнформатикаІншеІсторіяКультураЛітератураМатематикаМедицинаМеталлургіяМеханікаОсвітаОхорона праціПедагогікаПолітикаПравоПсихологіяРелігіяСоціологіяСпортФізикаФілософіяФінансиХімія |
Загальні правила розв’язування розрахункових задачДата добавления: 2015-09-19; просмотров: 450
Описательная информация – это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания некоторого определённого сообщение в информационной цепи. Исходная (реперная) информация – это описательная информация, необходимая для определения первого сообщения в информационной цепи. Исходное сообщение – это сообщение, которое следует преобразовать с помощью исходной информации для получения первого сообщения в информационной цепи. Для описания последнего сообщения в информационной цепи необходимо знать информацию, которая преобразует предпоследнее сообщение в последнее, а для описания предпоследнего сообщения, в свою очередь, необходима информация, которая преобразует предыдущее сообщение, и т.д. – любое последующее сообщение описывается на основе предыдущего. Для определения же самого первого сообщения информационной цепи необходима исходная информация, которой должно быть подвергнуто некоторое исходное сообщение, не принадлежащее к данной информационной цепи. Так как исходное сообщение не играет роли в процессе управления, то его можно выбрать произвольным образом, но в соответствии с ним должна быть выбрана исходная информация. Например, для определения значений температуры в качестве исходной температуры берётся температура таяния льда, температура абсолютного нуля. В качестве исходной информации можно взять операционную информацию вида t0+ Δt01 = t1, где Δt01 = (t1- t0) параметр операции. За исходную высоту местности принимается уровень моря; за исходный электрический потенциал берётся потенциал земли и т.п. Наиболее удобно выбирать исходное сообщение, совпадающим с первым сообщением информационной цепи, так как исходная информация при этой будет тривиальной. К такому случаю относятся формулировки: «дана точка на плоскости, относительно которой…», «дано начальное состояние системы, относительного которого…». Выясним от чего зависит число описательных информаций [2]. Теорема 2.1. Число информации D , описывающих одно сообщение в информационной цепи, состоящей из n различных сообщений, равно числу этих сообщений. Доказательство этой теоремы основано на том обстоятельстве, что для полного описания любого j-го сообщения информационной цепи, состоящей из n сообщений, необходимо связать это сообщение со всеми (n - 1) остальными сообщениями этой цепи с помощью такого же числа описательных информации и ещё одна – исходная информация – требуется для связи данного сообщения с исходным сообщением. Таким образом, Dj = n. Но те же утверждения справедливы для любого сообщения информационной цепи, поэтому D1 =D2 = . . . =Dj = . . . = Dn = D = n. (2.15) Из теоремы 2.1 следует, что при полном описании одного из сообщений информационной цепи одновременно оказываются описаны и все остальные сообщения данной цепи. Так бывает, например, когда имеется система из n уравнений с n переменными, (n - 1) из которых заданы, и требуется определить оставшуюся. Здесь важно уяснить, что описать сообщение – это значит указать его связи со всеми другими сообщениями данной информационной цепи, а также с исходным сообщением с помощью преобразований (описательных информации). Так невозможно описать, например, красный цвет не соотнося его с другими цветами (желтым, зелёным, синим и т.д.) спектра видимого излучения. Теорема 2.2. Для описания одного сообщения информационной цепи, содержащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е. D1 =D2 = . . . =Dj = . . . = Dn = D = 2 (2.16) Данная теорема доказывается тем, что для определения любого сообщения из n сообщений требуется (n - 1) – кратное применение одной и той же основной информации J и применения одной исходной информации J01(см. разд. 1.5). Для дальнейших рассуждений необходимо определить следующие понятия. Полная описательная информация – это информация, которая представлена наименьшим множеством описательных информации, необходимых для описания определённого сообщения в информационной цепи, т.е. полная информация содержится в наименьшем множестве преобразований, связывающих данное сообщение с исходным и всеми другими сообщениями информационной цепи. Описательная информация множества сообщений информационной цепи – это информация, которая представлена наименьшим множеством полных описательных информации, необходимых для описания каждого из сообщений информационной цепи. Редкость сообщения или описательной информации – это величина обратная частоте (в пределе – вероятности) встречаемости сообщения данного класса или описательной информации данного типа среди множества всех рассматриваемых сообщений или информации. Следовательно, чем меньше вероятность появления некоторого объекта, тем реже он встречается и наоборот. Редкость будем обозначать в виде или , где nj – число одинаковых сообщений, составляющих j-й класс, n – общее число сообщений; и Pj– соответственно частота (относительное число) и вероятность одинаковых сообщений j-го класса. Теорема 2.3. Если в информационной цепи, состоящей из n сообщений, имеется m классов, состоящих соответственно из nа,, nb, …, nm одинаковых сообщений, то среднее число описательных информации можно определить следующим выражением Докажем теорему. Считается данным, что в информационной цепи имеется: na сообщений a1 = a2 = a3 = … = a, nbсообщений b1 = b2 = b3 = … = b, ………………………………… nm сообщений m1 = m2 = m3 = … = m, причём na + nb + …+ nm = n . В соответствии с теоремой 2.1 число информаций, описывающих сообщение a1, равно Da1=n. Точно также для числа информаций, описывающих остальные сообщения этого же класса, имеем Da2 = n, Da3 = n и т.д. Вследствие одинаковости сообщений а1 = а2 = а3 = … = аполные информации, описывающие каждое из этих сообщений, также одинаковы, поэтому для полной информации, описывающей одно из этих сообщений, информации, описывающие остальные сообщения этого класса, являются избыточными и должны быть исключены. При этом среднее число описательных информации, приходящееся на каждое из этих сообщений будет меньше общего числа сообщений данной информационной цепи во столько раз, сколько имеется одинаковых сообщений в данном классе, т.е. Dа=n/na. Так же определяются средние числа описательных информации, приходящихся на каждый из остальных классов, т.е. , , …, . (2.17) Среднее число описательных информации одного сообщения информационной цепи можно определить как среднее геометрическое средних чисел информации, описывающих сообщения для всех классов
(2.18) или с учетом (2.17), получим , (2.19) или то же в компактном виде , (2.20) где j – номер класса, m – число классов. Преобразуем уравнение (2.20) к виду . (2.21) Обозначив (3.22) где nq – среднее (геометрическое) число сообщений одного класса, и подставляя эту величину в знаменатель выражения (2.21), получим . (2.23)
В частном случае, когда все сообщения информационной цепи различны, т.е. когда каждый класс представлен всего одним сообщением и m = n, из (2. 20) имеем D = n, что совпадает с утверждением теоремы 2.1. Заметим, что по определению величина Dа = n/na оценивает редкость встречаемости одинаковых сообщений класса «а» и среди всего множества n сообщений, составляющих информационную цепь. Если рассмотреть любую из полных описательных информации сообщений этого класса, то станет видно, что эта же величина, является редкостью тривиальных информации среди всего множества n информации, описывающих отдельное сообщение класса «а», а также, что она представляет, кроме того, редкость одинаковых полных информации, описывающих сообщения класса «а», среди множества n полных информации, описывающих все сообщения информационной цепи. Таким образом, величина Dj = n/nj представляет одновременно редкости встречаемости следующих объектов: одинаковых сообщений j-го класса, тривиальных описательных информации, входящих в состав полной описательной информации отдельного сообщения j-го класса, одинаковых полных описательных информации сообщений j-го класса, образующих вместе с другими описательную информацию множества всех сообщений информационной цепи. С учётом данных замечаний среднее число описательных информации D, определённое в виде (2.18 – 2.21) и (2.23), позволяет также оценить средниередкости одинаковых сообщений или тривиальных описательных информации, или одинаковых полных информации, описывающих сообщения одного класса.
|