Студопедия — Информация, количество и качество
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Информация, количество и качество






 

Информация – один из популярных терминов в нашем лексиконе. В него вкладывается довольно широкий смысл, а его восприятие чаще всего интуитивно. Большой энциклопедический словарь (М., 1998) дает следующее определение информации: «Информация (от лат. informatio – разъяснения, изложение), первоначально – сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.), с середины 20 в. общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире…; – одно из основных понятий кибернетики.» Как видим, это определение отражает смысловой сдвиг в понимании термина информация, произошедший за последнюю половину века. Желая подчеркнуть особую, нематериальную сущность информации, Норберт Винер сказал: «Информация есть информация, не материя и не энергия». Информацию можно хранить, преобразовывать (обрабатывать) и передавать, у нее должен быть источник, материальный носитель, передатчик, канал связи и приемник.

В общении мы часто употребляем термин «данные» как синоним информации, однако между ними есть существенное различие. Данные – это величины, их отношения, словосочетания (тексты), преобразование и обработка которых позволяют извлечь ту или иную информацию (знание) о некотором предмете, явлении, процессе. Данные в этом аспек­те служат «сырьем» для получения информации.

Исследованием методов хранения, передачи и приема информации, а также оценки ее количества и качества занимается теория информации. Математические основы теории информации составляют теория кодиро­вания, теория случайных процессов, математическая статистика, теория вероятностей. Основоположниками теории информации являются Н. Винер, К. Шеннон, Р. Хартли, значительный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников и др.

Важнейшим понятием теории информации является количественная оценка информации. Эта оценка дает возможность изме­рить информационные потоки в информационных системах независимо от их природы и физической реализации. Один из подходов к оценке количества информации основан на следующих соображениях.

Предположим, что получателя информации интересует, в каком из N возможных состояний находится интересующий его объект. Если у полу­чателя нет никаких сведений о состоянии объекта, то количество требуе­мой для этого информации можно считать равным уменьшению неопре­деленности состояния объекта.

Эта мера в теории информации называется энтропией по аналогии с физикой, где энтропия характеризует степень неупорядоченности (хаотичности) физической системы. Неупорядоченность может быть ин­терпретирована в смысле того, насколько мало получателю информации известно о данной системе. Если наблюдатель выявил что-нибудь в фи­зической системе, ее энтропия для наблюдателя снизилась. В нашем слу­чае максимум энтропии соответствует отсутствию информации о состоя­нии объекта. Минимум энтропии (ноль) соответствует полной информа­ции о состоянии объекта.

Таким образом, энтропия и объем информации имеют противопо­ложные знаки. Если объект может находиться в двух равновероятных со­стояниях (N = 2), то говорят, что для снятия неопределенности о его со­стояниях требуется единица информации. Такая единица получила на­звание бит (binary digit-bit), т.е. бит информации сужает область выбора вдвое. Аналогично для N = 4 достаточно двух бит и т.д.

По формуле Шеннона, энтропия объекта, имеющего N возможных состояний, равна

где Рi вероятность нахождения объекта в i-м состоянии.

Если все N состояний объекта равновероятны, энтропия равна

При кодировании информации в той или иной позиционной системе счисления, число различных состояний, кодируемых n разрядами, равно

N=qn

где q – основание системы счисления;

n – число разрядов.

При передаче n-разрядного сообщения, записанного в системе с ос­нованием q, получателем будет воспринято количество информации, равное:

I = log N = nlog q – формула Хартли.

Если в качестве основания логарифма принять q, то I = n, т.е. коли­чество информации, воспринятой получателем (при его полном априор­ном незнании содержания сообщения), будет равно числу разрядов в со­общении (объему данных) I= n= VД, где VД – объем данных.

Если появление различных кодовых комбинаций в сообщении не равновероятно, то естественно, что I < VД.

Обратим внимание на другую сторону измерения количества ин­формации. Она связана с той или иной потребностью получателя информации, о которой отправитель сообщения может и не знать.

Всем известно, что некий оратор может говорить очень долго, например передать содержание нескольких десятков стра­ниц текста (десятки тысяч знаков), а неопределенность, снимаемая его сообщением, может составлять всего несколько бит.

Измерения только количества информации в наше время (лавинообразного нарастания ее потоков) уже недостаточно. Потребности управления, науки и техники требуют решения проблемы содержательности информации и ее ценности.

В одной из работ предлагается принять за меру ценности информации ее количество, необходимое для достижения поставленной цели.

Если до получения информации вероятность достижения цели ее получателем равнялась Р0, а после ее получения – Pi, то ценность информации можно определить как:

C=log (Pi/P0).

В других работах, кроме вероятностных характеристик неопределенности состояния объекта до и после получения информации, вводятся функции штрафов и потерь. Оценка информации производится по результатам их минимизации. Рассматривается и случай, когда ценность информации становится отрицательной (за счет дезинформации или неполноты информации). Ценность информации связывается с конкретной задачей, для которой она получается.

Попытки построить семантическую (смысловую) теорию ценности информации исходят еще от Н. Винера. Его идея состоит в том, что эффективность использования информации зависит от уровня знаний ее получателя. Если назвать совокупность знаний получателя о некотором предмете тезаурусом, то количество и ценность информации в некотором сообщении можно оценить степенью изменения тезауруса получателя под воздействием сообщения.

Зависимость количества информации Ic, включаемого пользователем в свой тезаурус после получения некоторого сообщения, от величины этого тезауруса Tn в момент получения сообщения можно представить графиком на рисунке.

Ic

Tn

Максимальное количество информации получатель приобретает (включает в свой тезаурус), обладая достаточно большим (развитым), но еще не полным тезаурусом. При ТП = 0 получатель не способен воспринимать информацию. При ТП = ТП полн., т.е. при полном знании о некотором объекте, получатель не нуждается в поступающей информации.

Качество информации определяется и другими показателями, обеспечивающими возможность ее эффек­тивного использования, вне зависимости от тезауруса получателя.

Среди таких показателей важнейшие:

- релевантность информации (от английского relevant – уместный, относящийся к делу) отражает соответствие сообщения поступившему запросу;

- репрезентативность информации (от французского representatif – представительный) означает правильность выбора частных показателей в целях отражения характеристик объекта в целом;

- полнота информации характеризует сообщение с точки зрения достаточности набора показателей для принятия решения;

- актуальность информации определяется степенью сохранения ее ценности на момент принятия решения;

- точность информации определяется ее адекватностью реальному состоянию некоторого объекта.

 







Дата добавления: 2015-09-19; просмотров: 361. Нарушение авторских прав; Мы поможем в написании вашей работы!



Шрифт зодчего Шрифт зодчего состоит из прописных (заглавных), строчных букв и цифр...

Картограммы и картодиаграммы Картограммы и картодиаграммы применяются для изображения географической характеристики изучаемых явлений...

Практические расчеты на срез и смятие При изучении темы обратите внимание на основные расчетные предпосылки и условности расчета...

Функция спроса населения на данный товар Функция спроса населения на данный товар: Qd=7-Р. Функция предложения: Qs= -5+2Р,где...

Определение трудоемкости работ и затрат машинного времени На основании ведомости объемов работ по объекту и норм времени ГЭСН составляется ведомость подсчёта трудоёмкости, затрат машинного времени, потребности в конструкциях, изделиях и материалах (табл...

Гидравлический расчёт трубопроводов Пример 3.4. Вентиляционная труба d=0,1м (100 мм) имеет длину l=100 м. Определить давление, которое должен развивать вентилятор, если расход воздуха, подаваемый по трубе, . Давление на выходе . Местных сопротивлений по пути не имеется. Температура...

Огоньки» в основной период В основной период смены могут проводиться три вида «огоньков»: «огонек-анализ», тематический «огонек» и «конфликтный» огонек...

ИГРЫ НА ТАКТИЛЬНОЕ ВЗАИМОДЕЙСТВИЕ Методические рекомендации по проведению игр на тактильное взаимодействие...

Реформы П.А.Столыпина Сегодня уже никто не сомневается в том, что экономическая политика П...

Виды нарушений опорно-двигательного аппарата у детей В общеупотребительном значении нарушение опорно-двигательного аппарата (ОДА) идентифицируется с нарушениями двигательных функций и определенными органическими поражениями (дефектами)...

Studopedia.info - Студопедия - 2014-2024 год . (0.009 сек.) русская версия | украинская версия