Семантический аспект понятия информации.
Семантический аспект – характеристика информации с точки зрения ее смысла. Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией. Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования. Семантический аспект – характеристика информации с точки зрения ее смысла. Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией. Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования. Семантический аспект передаёт смысловое содержание информации и соотносит её с ранее имевшейся информацией. Смысловые связи между словами и другими элементами языка отражает словарь. Он состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа (алфавит), позволяющего расположить слова в определённом порядке. При получении информации словарь может быть изменён, и степень этого изменения характеризует количество воспроизводимой информации. Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков.
Количество информации. Мера количества информации и ее свойства. Формула Хартли. 1. Количество информации – число, адекватно характеризующее величину разнообразия (набор состояний, альтернатив и т.д.) Мера информации – формула, критерий оценки количества информации. Мера информации обычно задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события 2. Измерение количества информации Формула Хартли (1928): H = log2 N H – количество информации
3. 1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив: истина ложь
Формула Шеннона для оценки количества информации и следствия из нее. Формула Шеннона (1948): H = - Sumn(рi log2 рi) H – среднее количество информации при многократном выборе H = - log2 р В двоичном коде каждый двоичный символ несет 1 бит информации. 1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив Кодовая таблица Unicode - используется 2 байта (16 бит) на каждый символ
Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов. Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах. Бит Единицей измерения количества информации является бит –это наименьшая (элементарная) единица. 1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо. Байт Байт – основная единица измерения количества информации. Байтом называется последовательность из 8 битов. 1 символ – это 1 байт. Производные единицы измерения количества информации 1 байт=8 битов 1 килобайт (Кб)=1024 байта =210 байтов 1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов 1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов 1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов приставка КИЛО в информатике – это не 1000, а 1024, то есть 210. 1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив Для представления текстовой информации достаточно 256 различных символов. N = 2I, 256 = 2I, 2^8 = 2I,I = 8 битов Для кодирования каждого знака требуется количество информации, равное 8 битам. Для представления текста в памяти компьютера необходимо представить его в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный двоичный код в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255) Для представления символов и соответствующих им кодов используется кодовая таблица. В качестве стандарта во всем мире принята таблица ASCII (American Standard Code for Information Interchange – Американский стандартный код для обмена информацией). Условно таблица разделена на части: от 0 до 32 коды соответствуют операциям; с 33 по 127 соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания; со 128 по 255 являются национальными. знаков В настоящее время существуют пять различных кодировок для русских букв (Windows, MS-DOS, КОИ-8, Mac, ISO), поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой. В последние годы широкое распространение получил новый международный стандарт кодирования текстовых символов Unicode, который отводит на каждый символ 2 байта (16 битов), что позволило закодировать многие алфавиты в одной таблице. N = 2I, N = 216, N = 65536
|