Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Семантический аспект понятия информации.





Семантический аспект – характеристика информации с точки зрения ее смысла.
Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний.

Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией.

Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования.

Семантический аспект – характеристика информации с точки зрения ее смысла.
Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний.

Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией.

Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования. Семантический аспект передаёт смысловое содержание информации и соотносит её с ранее имевшейся информацией. Смысловые связи между словами и другими элементами языка отражает словарь.

Он состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа (алфавит), позволяющего расположить слова в определённом порядке.

При получении информации словарь может быть изменён, и степень этого изменения характеризует количество воспроизводимой информации.

Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков.
Алфавит языка интерпретации сообщений – конечное множество входящих в него знаков, обычно задается их прямым перечислением.
Конечная последовательность знаков алфавита называется словом в алфавите.
Количество знаков в слове определяет длину слова.
Множество различных допустимых слов образует словарный запас (словарь) алфавита.
Любой алфавит имеет упорядоченный вид, знаки расположены последовательно в строгом порядке,
таким образом, в словаре обеспечивается упорядочивание всех слов по алфавиту.

 

Количество информации. Мера количества информации и ее свойства. Формула Хартли.

1. Количество информации – число, адекватно характеризующее величину разнообразия (набор состояний, альтернатив и т.д.)
в оцениваемой системе.

Мера информации – формула, критерий оценки количества информации.

Мера информации обычно задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события

2. Измерение количества информации

Формула Хартли (1928):

H = log2 N

H – количество информации
N – количество возможных равновероятных альтернатив

 

3. 1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив:

истина ложь
да нет
1 0

 

Формула Шеннона для оценки количества информации и следствия из нее.

Формула Шеннона (1948):

H = - Sumn(рi log2 рi)

H – среднее количество информации при многократном выборе
n – количество альтернатив
рi – вероятности альтернатив
i = 1….n

H = - log2 р
H – количество информации
при однократном выборе
р – вероятность выбранной альтернативы

В двоичном коде каждый двоичный символ несет 1 бит информации.
Кодовое слово длиной в H двоичных символов несет H бит информации
(при условии равной вероятности появления двоичных символов).
Общее количество разных кодовых слов
длиной H бит равно:
N = 2^H
H=8 N = 2^8 = 256
1 байт = 8 бит

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Кодовая таблица Unicode - используется 2 байта (16 бит) на каждый символ
Количество возможных символов равно 216, примерно 64000 символов

 

Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов.

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

Бит

Единицей измерения количества информации является бит –это наименьшая (элементарная) единица.

1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.

Байт

Байт – основная единица измерения количества информации.

Байтом называется последовательность из 8 битов. 1 символ – это 1 байт.

Производные единицы измерения количества информации

1 байт=8 битов

1 килобайт (Кб)=1024 байта =210 байтов

1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов

1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов

1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов

приставка КИЛО в информатике – это не 1000, а 1024, то есть 210.

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Для представления текстовой информации достаточно 256 различных символов. N = 2I, 256 = 2I, 2^8 = 2I,I = 8 битов Для кодирования каждого знака требуется количество информации, равное 8 битам. Для представления текста в памяти компьютера необходимо представить его в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный двоичный код в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255)

Для представления символов и соответствующих им кодов используется кодовая таблица. В качестве стандарта во всем мире принята таблица ASCII (American Standard Code for Information Interchange – Американский стандартный код для обмена информацией). Условно таблица разделена на части:

от 0 до 32 коды соответствуют операциям;

с 33 по 127 соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания;

со 128 по 255 являются национальными.

знаков В настоящее время существуют пять различных кодировок для русских букв (Windows, MS-DOS, КОИ-8, Mac, ISO), поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой. В последние годы широкое распространение получил новый международный стандарт кодирования текстовых символов Unicode, который отводит на каждый символ 2 байта (16 битов), что позволило закодировать многие алфавиты в одной таблице. N = 2I, N = 216, N = 65536







Дата добавления: 2015-12-04; просмотров: 480. Нарушение авторских прав; Мы поможем в написании вашей работы!




Картограммы и картодиаграммы Картограммы и картодиаграммы применяются для изображения географической характеристики изучаемых явлений...


Практические расчеты на срез и смятие При изучении темы обратите внимание на основные расчетные предпосылки и условности расчета...


Функция спроса населения на данный товар Функция спроса населения на данный товар: Qd=7-Р. Функция предложения: Qs= -5+2Р,где...


Аальтернативная стоимость. Кривая производственных возможностей В экономике Буридании есть 100 ед. труда с производительностью 4 м ткани или 2 кг мяса...

Экспертная оценка как метод психологического исследования Экспертная оценка – диагностический метод измерения, с помощью которого качественные особенности психических явлений получают свое числовое выражение в форме количественных оценок...

В теории государства и права выделяют два пути возникновения государства: восточный и западный Восточный путь возникновения государства представляет собой плавный переход, перерастание первобытного общества в государство...

Закон Гука при растяжении и сжатии   Напряжения и деформации при растяжении и сжатии связаны между собой зависимостью, которая называется законом Гука, по имени установившего этот закон английского физика Роберта Гука в 1678 году...

Йодометрия. Характеристика метода Метод йодометрии основан на ОВ-реакциях, связанных с превращением I2 в ионы I- и обратно...

Броматометрия и бромометрия Броматометрический метод основан на окислении вос­становителей броматом калия в кислой среде...

Метод Фольгарда (роданометрия или тиоцианатометрия) Метод Фольгарда основан на применении в качестве осадителя титрованного раствора, содержащего роданид-ионы SCN...

Studopedia.info - Студопедия - 2014-2025 год . (0.009 сек.) русская версия | украинская версия