Информация.
Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация". Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям. Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя. Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п. Существуют несколько концепций (теорий) информации. Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. – формула Шеннона, где I – количество информации, N – количество возможных событий Pi – вероятность возможного события. Если события равновероятны, можно использовать обобщенную формулу Шеннона – формула Хартли. Определить понятие количества информации сложно. В конце 40-х годов XX века (1948 г) один из основоположников кибернетики американский ученый Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к объемному подходу. Бит – это минимальная единица представлений информации, принимающая только два значения: 0 или 1. 1 – есть информация; 0 – нет информации. Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, т.е. – выражение данных одного типа через данные другого типа. Например, для измерения длины в качестве эталона выбран метр, массы – килограмм и т.д. Своя система существует в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами (бит). Каждая цифра машинного двоичного кода несет количество информации, равное одному биту. 1 байт=23 бит=8 бит 1 Кбайт=210байт=1024 байта 1 М байт=210Кбайт=220байт 1 Гбайт=210Мбайт=220Кбайт =230байт 1 Тбайт=210Гбайт=220Мбайт=230Кбайт=240байт 1 Пбайт=210Тбайт=220Гбайт=230Мбайт=240Кбайт=250байт Существует формула, которая связывает между собой количество возможных событий N и количество информации I: Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым, внесшим значительный вклад в развитие кибернетики в СССР (несмотря на ее конфликтность с существующей тогда доктриной(марксистско-ленинистской) и была признанна лженаукой, так как имела философский корни). Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев. В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности: · в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами; · в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов; · в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность; · в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы; · в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...
Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.
|