Студопедия — Семантический аспект понятия информации.
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Семантический аспект понятия информации.






Семантический аспект – характеристика информации с точки зрения ее смысла.
Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний.

Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией.

Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования.

Семантический аспект – характеристика информации с точки зрения ее смысла.
Для разумного существа информация – нематериальный смысл, извлекаемый из сообщения на основе накопленных знаний.

Одно и то же сообщение может иметь различное представление, например, написано на разных языках. Переход от представления к значению (смыслу) сообщения называется интерпретацией.

Для осмысленного использования информации необходимо знание правил интерпретации сообщений - используемого языка или способа кодирования. Семантический аспект передаёт смысловое содержание информации и соотносит её с ранее имевшейся информацией. Смысловые связи между словами и другими элементами языка отражает словарь.

Он состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа (алфавит), позволяющего расположить слова в определённом порядке.

При получении информации словарь может быть изменён, и степень этого изменения характеризует количество воспроизводимой информации.

Обычно сообщения передаются и регистрируются с помощью некоторой последовательности символов - знаков.
Алфавит языка интерпретации сообщений – конечное множество входящих в него знаков, обычно задается их прямым перечислением.
Конечная последовательность знаков алфавита называется словом в алфавите.
Количество знаков в слове определяет длину слова.
Множество различных допустимых слов образует словарный запас (словарь) алфавита.
Любой алфавит имеет упорядоченный вид, знаки расположены последовательно в строгом порядке,
таким образом, в словаре обеспечивается упорядочивание всех слов по алфавиту.

 

Количество информации. Мера количества информации и ее свойства. Формула Хартли.

1. Количество информации – число, адекватно характеризующее величину разнообразия (набор состояний, альтернатив и т.д.)
в оцениваемой системе.

Мера информации – формула, критерий оценки количества информации.

Мера информации обычно задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события

2. Измерение количества информации

Формула Хартли (1928):

H = log2 N

H – количество информации
N – количество возможных равновероятных альтернатив

 

3. 1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив:

истина ложь
да нет
1 0

 

Формула Шеннона для оценки количества информации и следствия из нее.

Формула Шеннона (1948):

H = - Sumn(рi log2 рi)

H – среднее количество информации при многократном выборе
n – количество альтернатив
рi – вероятности альтернатив
i = 1….n

H = - log2 р
H – количество информации
при однократном выборе
р – вероятность выбранной альтернативы

В двоичном коде каждый двоичный символ несет 1 бит информации.
Кодовое слово длиной в H двоичных символов несет H бит информации
(при условии равной вероятности появления двоичных символов).
Общее количество разных кодовых слов
длиной H бит равно:
N = 2^H
H=8 N = 2^8 = 256
1 байт = 8 бит

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Кодовая таблица Unicode - используется 2 байта (16 бит) на каждый символ
Количество возможных символов равно 216, примерно 64000 символов

 

Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов.

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

Бит

Единицей измерения количества информации является бит –это наименьшая (элементарная) единица.

1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.

Байт

Байт – основная единица измерения количества информации.

Байтом называется последовательность из 8 битов. 1 символ – это 1 байт.

Производные единицы измерения количества информации

1 байт=8 битов

1 килобайт (Кб)=1024 байта =210 байтов

1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов

1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов

1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов

приставка КИЛО в информатике – это не 1000, а 1024, то есть 210.

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256 равновероятных альтернатив

Для представления текстовой информации достаточно 256 различных символов. N = 2I, 256 = 2I, 2^8 = 2I,I = 8 битов Для кодирования каждого знака требуется количество информации, равное 8 битам. Для представления текста в памяти компьютера необходимо представить его в двоичной знаковой системе. Каждому знаку необходимо поставить в соответствие уникальный двоичный код в интервале от 00000000 до 11111111 (в десятичном коде от 0 до 255)

Для представления символов и соответствующих им кодов используется кодовая таблица. В качестве стандарта во всем мире принята таблица ASCII (American Standard Code for Information Interchange – Американский стандартный код для обмена информацией). Условно таблица разделена на части:

от 0 до 32 коды соответствуют операциям;

с 33 по 127 соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания;

со 128 по 255 являются национальными.

знаков В настоящее время существуют пять различных кодировок для русских букв (Windows, MS-DOS, КОИ-8, Mac, ISO), поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой. В последние годы широкое распространение получил новый международный стандарт кодирования текстовых символов Unicode, который отводит на каждый символ 2 байта (16 битов), что позволило закодировать многие алфавиты в одной таблице. N = 2I, N = 216, N = 65536







Дата добавления: 2015-12-04; просмотров: 379. Нарушение авторских прав; Мы поможем в написании вашей работы!



Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...

Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

ПУНКЦИЯ И КАТЕТЕРИЗАЦИЯ ПОДКЛЮЧИЧНОЙ ВЕНЫ   Пункцию и катетеризацию подключичной вены обычно производит хирург или анестезиолог, иногда — специально обученный терапевт...

Ситуация 26. ПРОВЕРЕНО МИНЗДРАВОМ   Станислав Свердлов закончил российско-американский факультет менеджмента Томского государственного университета...

Различия в философии античности, средневековья и Возрождения ♦Венцом античной философии было: Единое Благо, Мировой Ум, Мировая Душа, Космос...

Разработка товарной и ценовой стратегии фирмы на российском рынке хлебопродуктов В начале 1994 г. английская фирма МОНО совместно с бельгийской ПЮРАТОС приняла решение о начале совместного проекта на российском рынке. Эти фирмы ведут деятельность в сопредельных сферах производства хлебопродуктов. МОНО – крупнейший в Великобритании...

ОПРЕДЕЛЕНИЕ ЦЕНТРА ТЯЖЕСТИ ПЛОСКОЙ ФИГУРЫ Сила, с которой тело притягивается к Земле, называется силой тяжести...

СПИД: морально-этические проблемы Среди тысяч заболеваний совершенно особое, даже исключительное, место занимает ВИЧ-инфекция...

Studopedia.info - Студопедия - 2014-2024 год . (0.012 сек.) русская версия | украинская версия