Студопедия — Информация, количество и качество
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Информация, количество и качество






 

Информация – один из популярных терминов в нашем лексиконе. В него вкладывается довольно широкий смысл, а его восприятие чаще всего интуитивно. Большой энциклопедический словарь (М., 1998) дает следующее определение информации: «Информация (от лат. informatio – разъяснения, изложение), первоначально – сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.), с середины 20 в. общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире…; – одно из основных понятий кибернетики.» Как видим, это определение отражает смысловой сдвиг в понимании термина информация, произошедший за последнюю половину века. Желая подчеркнуть особую, нематериальную сущность информации, Норберт Винер сказал: «Информация есть информация, не материя и не энергия». Информацию можно хранить, преобразовывать (обрабатывать) и передавать, у нее должен быть источник, материальный носитель, передатчик, канал связи и приемник.

В общении мы часто употребляем термин «данные» как синоним информации, однако между ними есть существенное различие. Данные – это величины, их отношения, словосочетания (тексты), преобразование и обработка которых позволяют извлечь ту или иную информацию (знание) о некотором предмете, явлении, процессе. Данные в этом аспек­те служат «сырьем» для получения информации.

Исследованием методов хранения, передачи и приема информации, а также оценки ее количества и качества занимается теория информации. Математические основы теории информации составляют теория кодиро­вания, теория случайных процессов, математическая статистика, теория вероятностей. Основоположниками теории информации являются Н. Винер, К. Шеннон, Р. Хартли, значительный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников и др.

Важнейшим понятием теории информации является количественная оценка информации. Эта оценка дает возможность изме­рить информационные потоки в информационных системах независимо от их природы и физической реализации. Один из подходов к оценке количества информации основан на следующих соображениях.

Предположим, что получателя информации интересует, в каком из N возможных состояний находится интересующий его объект. Если у полу­чателя нет никаких сведений о состоянии объекта, то количество требуе­мой для этого информации можно считать равным уменьшению неопре­деленности состояния объекта.

Эта мера в теории информации называется энтропией по аналогии с физикой, где энтропия характеризует степень неупорядоченности (хаотичности) физической системы. Неупорядоченность может быть ин­терпретирована в смысле того, насколько мало получателю информации известно о данной системе. Если наблюдатель выявил что-нибудь в фи­зической системе, ее энтропия для наблюдателя снизилась. В нашем слу­чае максимум энтропии соответствует отсутствию информации о состоя­нии объекта. Минимум энтропии (ноль) соответствует полной информа­ции о состоянии объекта.

Таким образом, энтропия и объем информации имеют противопо­ложные знаки. Если объект может находиться в двух равновероятных со­стояниях (N = 2), то говорят, что для снятия неопределенности о его со­стояниях требуется единица информации. Такая единица получила на­звание бит (binary digit-bit), т.е. бит информации сужает область выбора вдвое. Аналогично для N = 4 достаточно двух бит и т.д.

По формуле Шеннона, энтропия объекта, имеющего N возможных состояний, равна

где Рi вероятность нахождения объекта в i-м состоянии.

Если все N состояний объекта равновероятны, энтропия равна

При кодировании информации в той или иной позиционной системе счисления, число различных состояний, кодируемых n разрядами, равно

N=qn

где q – основание системы счисления;

n – число разрядов.

При передаче n-разрядного сообщения, записанного в системе с ос­нованием q, получателем будет воспринято количество информации, равное:

I = log N = nlog q – формула Хартли.

Если в качестве основания логарифма принять q, то I = n, т.е. коли­чество информации, воспринятой получателем (при его полном априор­ном незнании содержания сообщения), будет равно числу разрядов в со­общении (объему данных) I= n= VД, где VД – объем данных.

Если появление различных кодовых комбинаций в сообщении не равновероятно, то естественно, что I < VД.

Обратим внимание на другую сторону измерения количества ин­формации. Она связана с той или иной потребностью получателя информации, о которой отправитель сообщения может и не знать.

Всем известно, что некий оратор может говорить очень долго, например передать содержание нескольких десятков стра­ниц текста (десятки тысяч знаков), а неопределенность, снимаемая его сообщением, может составлять всего несколько бит.

Измерения только количества информации в наше время (лавинообразного нарастания ее потоков) уже недостаточно. Потребности управления, науки и техники требуют решения проблемы содержательности информации и ее ценности.

В одной из работ предлагается принять за меру ценности информации ее количество, необходимое для достижения поставленной цели.

Если до получения информации вероятность достижения цели ее получателем равнялась Р0, а после ее получения – Pi, то ценность информации можно определить как:

C=log (Pi/P0).

В других работах, кроме вероятностных характеристик неопределенности состояния объекта до и после получения информации, вводятся функции штрафов и потерь. Оценка информации производится по результатам их минимизации. Рассматривается и случай, когда ценность информации становится отрицательной (за счет дезинформации или неполноты информации). Ценность информации связывается с конкретной задачей, для которой она получается.

Попытки построить семантическую (смысловую) теорию ценности информации исходят еще от Н. Винера. Его идея состоит в том, что эффективность использования информации зависит от уровня знаний ее получателя. Если назвать совокупность знаний получателя о некотором предмете тезаурусом, то количество и ценность информации в некотором сообщении можно оценить степенью изменения тезауруса получателя под воздействием сообщения.

Зависимость количества информации Ic, включаемого пользователем в свой тезаурус после получения некоторого сообщения, от величины этого тезауруса Tn в момент получения сообщения можно представить графиком на рисунке.

Ic

Tn

Максимальное количество информации получатель приобретает (включает в свой тезаурус), обладая достаточно большим (развитым), но еще не полным тезаурусом. При ТП = 0 получатель не способен воспринимать информацию. При ТП = ТП полн., т.е. при полном знании о некотором объекте, получатель не нуждается в поступающей информации.

Качество информации определяется и другими показателями, обеспечивающими возможность ее эффек­тивного использования, вне зависимости от тезауруса получателя.

Среди таких показателей важнейшие:

- релевантность информации (от английского relevant – уместный, относящийся к делу) отражает соответствие сообщения поступившему запросу;

- репрезентативность информации (от французского representatif – представительный) означает правильность выбора частных показателей в целях отражения характеристик объекта в целом;

- полнота информации характеризует сообщение с точки зрения достаточности набора показателей для принятия решения;

- актуальность информации определяется степенью сохранения ее ценности на момент принятия решения;

- точность информации определяется ее адекватностью реальному состоянию некоторого объекта.

 







Дата добавления: 2015-09-19; просмотров: 363. Нарушение авторских прав; Мы поможем в написании вашей работы!



Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

ТЕОРЕТИЧЕСКАЯ МЕХАНИКА Статика является частью теоретической механики, изучающей условия, при ко­торых тело находится под действием заданной системы сил...

Теория усилителей. Схема Основная масса современных аналоговых и аналого-цифровых электронных устройств выполняется на специализированных микросхемах...

Логические цифровые микросхемы Более сложные элементы цифровой схемотехники (триггеры, мультиплексоры, декодеры и т.д.) не имеют...

ОЧАГОВЫЕ ТЕНИ В ЛЕГКОМ Очаговыми легочными инфильтратами проявляют себя различные по этиологии заболевания, в основе которых лежит бронхо-нодулярный процесс, который при рентгенологическом исследовании дает очагового характера тень, размерами не более 1 см в диаметре...

Примеры решения типовых задач. Пример 1.Степень диссоциации уксусной кислоты в 0,1 М растворе равна 1,32∙10-2   Пример 1.Степень диссоциации уксусной кислоты в 0,1 М растворе равна 1,32∙10-2. Найдите константу диссоциации кислоты и значение рК. Решение. Подставим данные задачи в уравнение закона разбавления К = a2См/(1 –a) =...

Экспертная оценка как метод психологического исследования Экспертная оценка – диагностический метод измерения, с помощью которого качественные особенности психических явлений получают свое числовое выражение в форме количественных оценок...

Методы прогнозирования национальной экономики, их особенности, классификация В настоящее время по оценке специалистов насчитывается свыше 150 различных методов прогнозирования, но на практике, в качестве основных используется около 20 методов...

Методы анализа финансово-хозяйственной деятельности предприятия   Содержанием анализа финансово-хозяйственной деятельности предприятия является глубокое и всестороннее изучение экономической информации о функционировании анализируемого субъекта хозяйствования с целью принятия оптимальных управленческих...

Образование соседних чисел Фрагмент: Программная задача: показать образование числа 4 и числа 3 друг из друга...

Studopedia.info - Студопедия - 2014-2024 год . (0.01 сек.) русская версия | украинская версия