ИНФОРМАЦИЯ КАК СТЕПЕНЬ НЕОПРЕДЕЛЕННОСТИ
Информация в общем случае передается словами разной длины. Количество информации определяется не по ее смысловой ценности, а по длине слова. Пусть из алфавита A = {a1; a2; …; am} формируются слова из n букв (x1; x2; …; xn), которые передаются по каналу сообщения. Ясно, что из m символов можно образовать N слов длиной в n букв: N=mn- это число перестановок с неограниченными повторениями. Пусть любое из них равновероятно, т.е. p = 1/N. Тогда неопределенность получения заданного слова растет с ростом N и тем больше информации должно содержаться в конкретном исходе. Число N является мерой информации. Эта мера не обладает свойствами аддитивности, что неудобно при конструировании формальных систем с поведением. Если перейти к логарифмической шкале отсчета, то свойство аддитивности выполняется (логарифмическая линеаризация): J = log N при N = mn имеем J = n*log m. Удельная информация, содержащаяся в одном символе. определяется как H = J/n = log m. Если m = 2, то каждый символ будет передаваться как система кодов в виде цепочки символов, состоящей из нулей и единиц. Каждый разряд несет log22 = ld2 = 1 одну единицу информации, называемую битом или двоичной единицей информации. При m = 10 единица информации называется дитом: 1 дит = lg10 = ld2x = 3.32 бит. Примеры 1. Для трафарета 5 ´ 7 определить число бит информации, содержащейся при высвечивании одного символа. Так как число ячеек 35, каждая из которых несет один бит информации, то получаем в сумме 35 бит информации. 2. Для телевизионного кадра имеем 625 строк, в строке 600 точек, в каждой точке 8 градаций черного; имеем: I = 625*600*ld8 = 625*600*3 = 1.125*106 бит. Если вероятности передачи сигналов произвольны, то переходим к формулам К. Шеннона. Информативность передачи одного символа определяется как математическое ожидание логарифмических составляющих: h = = M[log Pi] = SPi * log(1/Pi), т.е как среднее значение частных энтропий. Величина PiÎ [0, 1]. Чем меньше Pi, тем больше частная энтропия hi. При Pi=1 частная энтропия равна 0. О характере функции hi = f(Pi) = Pi * ld (1/Pi) можно судить по следующему дискретному ряду ее значений:
В случае бинарных сообщений из частных энтропий hi общая энтропия определяется из соотношения: H = h(p1) + h(p2) при p1 + p2 = 1, т.е. H = -p1*ld p1– (1-p1)*ld (1-p). Кривая H симметрична относительно точки p1 = 0.5.
Графики составляющих функций H приведены на рис. П.2.1. Упражнение 1. В табл. П.2.1. приведены данные xср, определяющие код последовательного эксперимента по учету посещения занятий студентом; xср определяет относительную степень посещаемости xсрÎ [0; 1]. Определить характер кривой H = f (xср). Предложить интерпретацию получаемого результата для данной задачи. 2. В табл. П.2.1 имеется оценка априорных знаний студента, определяемая по его зачетке: yср Î [3; 5]. Требуется нормировать значение yср на [0; 1] и оценить, подобно xср, характер изменения энтропийной меры в этом случае.
|