Методические рекомендации по изучению темы
Ж. так и объективной сложностью поиска корректного определения ■[научной точки зрения. И Если в центр содержания курса информатики ставить инфор-Ирцию (а не алгоритм, ЭВМ и пр.), если рассматривать это понятие как системообразующее для всего предмета, то обойти на уроках вопрос об определении информации нельзя. Бесспорно то, что нельзя дать единого, универсального определения информации. Но в науке и в практике известны различные подходы к инфор-мации, и в рамках каждого из них дается определение этого понятий (см., например, посвященные этому вопросу статьи в журнале |*Информатика и образование» С.А.Бешенкова и др. [2]). Уче-ники должны знать, что в зависимости от контекста, в котором используется термин «информация», он может нести разный ■ш учебнике И. Г. Семакина и др. [26] раскрываются два подхода к понятию информации. Первый можно назвать субъективным поЬ-хоШм, при котором информация рассматривается с точки зрения ее §Ьли в жизни и деятельности человека. С этой позиции инфор-маШя — это знания, сведения, которыми обладает человек, кото-рьдаон получает из окружающего мира. ■Второй подход можно назвать кибернетическим, поскольку развита» он получил в кибернетике. Именно этот подход позволяет соагавать машины, работающие с информацией. С этой точки зре- нн%'информация — это содержание последовательностей символов (ситалов) из некоторого алфавита. В таком случае все виды информационных процессов (хранение, передача, обработка) сводятся к действиям над символами, что и происходит в технических информационных системах. к. Методические рекомендации по изучению темы ■EkL ■ргаучаемые вопросы: КрЧем является информация для человека. ■№■ Декларативные и процедурные знания (информация). ■^Кибернетический подход к информации. ИрРоль органов чувств человека в процессе восприятия им ин-форнйации. Необъективный подход. При раскрытии понятия «информация», - точки зрения субъективного (бытового, человеческого) подхода, следует отталкиваться от интуитивных представлений об информации, имеющихся у детей. Целесообразно вести беседу в форме Диалога, задавая ученикам вопросы, на которые они в состоянии ответить. Не следует сразу требовать от них определения информации, но подвести их к этому определению с помощью понятных вопросов вполне возможно. Вопросы, например, можно зада-вать в Следующем порядке. И^асскажите, откуда вы получаете информацию? Наверняка услышите в ответ: — Из книг, из радио и телепередач. Дальше попросите учеников привести примеры какой-нибудь информации, которую они получили сегодня. Например, кто-нибудь ответит: — Утром по радио я слышал прогноз погоды. Ухватившись за такой ответ, учитель подводит учеников к окончательному выводу: — Значит, вначале ты не знал, какая будет погода, а после прослушивания радио стал знать! Следовательно, получив информацию, ты получил новые знания} Таким образом, учитель вместе с учениками приходит к определению: информация для человека — это знания, которые он получает из различных источников. Далее на многочисленных известных детям примерах следует закрепить это определение. Приняв определение информации как знания людей, неизбежно приходишь к выводу, что информация — это содержимое нашей памяти, ибо человеческая память и есть средство хранения знаний. Разумно назвать такую информацию внутренней, оперативной информацией, которой обладает человек. Однако люди хранят информацию не только в собственной памяти, но и в записях на бумаге, на магнитных носителях и пр. Такую информацию можно назвать внешней (по отношению к человеку). Чтобы человек мог ей воспользоваться (например, приготовить блюдо по кулинарному рецепту), он должен сначала ее прочитать, т.е. обратить во внутреннюю форму, а затем уже производить какие-то действия. Вопрос о классификации знаний (а стало быть, информации) очень сложный. В науке существуют различные подходы к нему. Особенно много занимаются этим вопросом специалисты в области искусственного интеллекта. В рамках базового курса достаточно ограничиться делением знаний на декларативные и процедурные. Описание декларативных знаний можно начинать со слов: «Я знаю, что...». Описание процедурных знаний — со слов: «Я знаю, как...». Нетрудно дать примеры на оба типа знаний и предложить детям придумать свои примеры. Учитель должен хорошо понимать пропедевтическое значение обсуждения данных вопросов для будущего знакомства учеников с устройством и работой компьютера. У компьютера, подобно человеку, есть внутренняя — оперативная память и внешняя — долговременная память. Деление знаний на декларативные и процедурные в дальнейшем следует увязать с делением компьютерной информации на данные — декларативная информация, и программы — процедурная информация. Использование дидактического приема аналогии между информационной функцией человека и компьютером позволит ученикам лучше понять суть устройства и работы ЭВМ. I Исходя из позиции «информация для человека— это знания», 1 учитель сообщает ученикам, что и запахи, и вкусы, и тактильные i (осязательные) ощущения тоже несут информацию человеку. Обо-I снование этому очень простое: раз мы помним знакомые запахи и I вкусы, узнаем на ощупь знакомые предметы, значит эти ощуще-I ния хранятся в нашей памяти, а стало быть, являются информа-кцией. Отсюда вывод: с помощью всех своих органов чувств чело-1век получает информацию из внешнего мира. I Кибернетический подход. Между информатикой и кибернетикой ■существует тесная связь. Основал кибернетику в конце 1940-х гг. ■американский ученый Норберт Винер. Можно сказать, что кибер-■нетика породила современную информатику, выполнила роль ■рдного из ее источников. Сейчас кибернетика входит в информа-рику как составная часть. В; Кибернетика имеет дело со сложными системами: машинами, ркивыми организмами, общественными системами. Но она не стремится разобраться в их внутреннем механизме. Кибернетику ин-■ересуют процессы взаимодействия между такими системами или [их компонентами. Рассматривая такие взаимодействия как промессы управления, кибернетику определяют как науку об общих Щвойствах процессов управления в живых и неживых системах. Щ Для описания сложных систем в кибернетике используется модель «черного ящика». Термины «черный ящик» и «кибернети-Вкская система» можно использовать как синонимы. Главные ха-Щактеристики «черного ящика» — это входная и выходная информа-Нря. И если два таких черных ящика взаимодействуют между со-ВЬй, то делают они это только путем обмена информацией. В' Информация между кибернетическими системами передается в щрде некоторых последовательностей сигналов. Выходные сигналы Нних участников обмена являются входными для других. И Информационные обмены происходят везде и всюду: между ИЬдьми, между животными, между работающими совместно тех-Нрескими устройствами, между людьми и техническими устрой-НЬами, между различными частями сложных устройств, между Нличными органами человека или животного и т. п. Во всех этих Яррчаях информация передается в виде последовательностей сиг-■нов разной природы: акустических, световых, графических, Нрстрических и др. ВС точки зрения кибернетики, информацией является содержа-И р передаваемых сигнальных последовательностей. В частности, Др ой текст на каком-то языке есть последовательность букв (в Нрьменной форме) или звуков (в устной форме), которые мож-Иррассматривать как графические или акустические сигналы. ■Передача сигналов требует определенных материальных и энергетических затрат. Например, при использовании электрической связи нужны провода и источники электроэнергии. Од-нако содержание сигналов не зависит от затрат вещества ют энергии. В последовательностях сигналов закодированы опредш ленные смысловые символы, в которых и заключается их содещ жание. Эти символы могут быть буквами текста на каком-то языи (например, в азбуке Морзе: «. —* обозначает букву «А») или щн лыми понятиями (например, красный сигнал светофора обознзи чает «стоять!»). М I 7.2. Подходы к измерению информации 1 Подходы к раскрытию темы в учебной литературе Проблема измерения информации напрямую связана с про| блемой определения информации, поскольку сначала надо ужи нить, ЧТО собираемся измерять, а потом уже — КАК это делати какие единицы использовать. Если опираться на расплывчатом интуитивное представление ученика об информации, то невоя можно дать сколько-нибудь логичное определение количеств! информации, ввести единицы ее измерения. Характерным приемом для ряда учебников является следую! щий: обсуждая вопрос об измерении информации, тут же пере* ходят к описанию компьютерного представления информации Я форме двоичного кода. Затем дается утверждение о том, что колия чество информации равно количеству двоичных цифр (битов) Я таком коде. Вот цитата из учебника [16]: «В современной вычисли тельной технике информация чаще всего кодируется с помощь» последовательностей сигналов всего двух видов: намагничено или нЦ намагничено, включено или выключено, высокое или низкое ная пряжение и т.д. Принято обозначать одно состояние цифрой О, щ другое — цифрой 1. Такое кодирование называется двоичным кодия рованием, а цифры 0 и 1 называются битами (от англ. Bit — binarm digit — двоичная цифра)». В следующем параграфе сказано: «А как уза нать количество информации в сообщении, в каких единицах эти информацию измерять? Для двоичных сообщений в качестве таком числовой меры используется количество бит в сообщении. Это коли! чество называется информационным объемом сообщения». В учебнике [5] написано: «Чтобы стандартизировать измерение количества информации, договорились за единицу количества информации принять сообщение, состоящее из одного символа двухсимвольного алфавита. Использование для измерения коли -4 чества информации алфавитов с другим числом символов можно! уподобить переходу к более крупным единицам измерения». В этом же учебнике содержатся рассуждения и о другом подходе к предЛ ставлению о количестве информации — содержательном, семантическом: «Количество информации, получаемой из сообщения! зависит от имеющихся предварительных знаний». Вопрос об измерении информации необходимо раскрывать в контексте рассматриваемого подхода к определению информации. Здесь обязательно должна присутствовать логическая последовательность, пусть даже она приводит в тупик. В учебнике [26] последовательно прослеживаются два подхода к измерению информации: с точки зрения содержательной и кибернетической концепций. Методические рекомендации по изучению темы Содержательный подход к измерению информации Изучаемые вопросы: ♦ От чего зависит информативность сообщения, принимаемого человеком. ♦ Единица измерения информации. ♦ Количество информации в сообщении об одном из Нравно-вероятных событий. С позиции содержательного подхода просматривается следующая цепочка понятий: информация — сообщение — информативность сообщения — единица измерения информации — информационный объем сообщения. Исходная посылка: информация — это знания людей. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т.д. Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет, знания человека, т. е. несет для него информацию. Для разных люд^й одно и то же сообщение, с точки зрения его информативности, может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения. Нельзя отождествлять понятия «информация» и «информативность сообщения». Следующий пример иллюстрирует различие понятий. Вопрос: «Содержит ли информацию вузовский учебник по высшей математике с точки зрения первоклассника?». Ответ: «Да, содержит с любой точки зрения! Потому что в учебнике заключены знания людей: авторов учебника, создателей математического аппарата (Ньютона, Лейбница и др.), современных математиков». Эта истина — абсолютна. Другой вопрос: «Будет ли информативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первокласс- ник с помощью этого учебника пополнить собственные знания?» Очевидно, что ответ отрицательный. Читая учебник, т.е. получая сообщения, первоклассник ничего не^ поймет, а стало быть, не обратит его в собственные знания. При объяснении этой темы можно предложить'ученикам поийИ рать в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, на которые они молча записывают ответы нИ бумагу. Если ученик не знает ответа, он ставит знак вопроса. ПослИ этого учитель дает правильные ответы на свои вопросы, а ученикйЯ записав ответы учителя, отмечают, какие из них оказались для них информативными (+), какие — нет (-). При этом для сообщений, отмеченных минусом, нужно указать причину отсутствия информаЯ ции: не новое (это я знаю), непонятное. Например, список вопросов и ответы одного из учеников могут быть следующими. Вопоос Ответ Информа- Причина Я Вопрос ответ тивность неинформа-Я У"™™ У*6™™ ___________________ сообщения тивности 1 1.Какой Столица Столица Франции — — Неновое Щ город Франции — Париж является Париж Щ столицей Щ Франции 2.Что? Коллоидная химия — Непонятное Щ изучает изучает дисперсионные коллоид- состояния систем, обла- > ная дающих высокой сте- химия пенью раздробленности 3.Какую? Эйфелева башня имеет + высоту и высоту 300 метров и вес вес имеет 9000 тонн. щ Эйфелева башня? ________II ---------------.------------- Введение понятия «информативность сообщения» является перjB вым подходом к изучению вопроса об измерении информации щЛ рамках содержательной концепции. Если сообщение неинформатившт для человека, то количество информации в нем, с точки зрения это-т го человека, равно нулю. Количество информации в информативному сообщении больше нуля. Для определения количества информации нужно ввести еди-Я ницу измерения информации. В рамках содержательного подхода J такая единица должна быть мерой пополнения знаний субъекта;! иначе можно еще сказать так: мерой уменьшения степени его не-1 знания. В учебнике [26] дано следующее определение единицы! информации: «Сообщение, уменьшающее неопределенность зна-1 ний в 2 раза, несет 1 бит информации». Немного дальше приво-1 дится определение для частного случая: «Сообщение о том, что! произошло одно событие из двух равновероятных, несет 1 бит информации». Определение бита— единицы измерения информации может оказаться сложным для понимания учениками. В этом определении содержится незнакомое детям понятие «неопределенность знаний». Прежде всего нужно раскрыть его. Учитель должен хорошо понимать, что речь идет об очень частном случае: о сообщении, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий. Например, о результате бросания монеты, игрового кубика, вытаскивания экзаменационного билета и т. п. Неопределенность знания о результате некоторого события — это число возможных вариантов результата: для монеты — 2, для кубика — 6, для билетов — 30 (если на столе лежало 30 билетов). Еще одной сложностью является понятие равновероятности. Здесь следует воспользоваться интуитивным представлением детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадения орла и решки — равновероятны; выпадения каждой из шести граней кубика — равновероятны. Полезно привести примеры и неравновероятных событий. Например, в сообщении о погоде в зависимости от сезона сведения о том, что будет дождь или снег могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой — о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными. Понятие «более вероятное событие» можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача понимания учениками строгого определения вероятности, умения вычислять вероятность. Но представление о равнойероятных и неравновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и неравновероятных событий. При наличии учебного времени полезно обсудить с учениками понятия «достоверное событие» — событие, которое обязательно происходит, и «невозможное событие». От этих понятий можно оттолкнуться, чтобы ввести интуитивное представление о мере вероятности. Достаточно сообщить, что вероятность достоверного события равна 1, а невозможного — 0. Это крайние значения. Значит, во всех других «промежуточных» случаях значение вероятности лежит между нулем и единицей. В частности, вероятность каждого из двух равновероятных событий равна —. При углубленном варианте изучения базового курса можно использовать материал, приведенный в подразделе 1.1 «Вероятность и информация» второй части учебника [26]. Я Возвращаясь к вопросу об измерении количества информя ции, заключенной в сообщении об одном из N равновероятная событий, предлагаем следующую логическую цепочку раскрья тия темы. Объяснение удобно начать с частного определения бита каЯ меры информации в сообщении об одном из двух равновероятный событий. Обсуждая традиционный пример с монетой (орел — реиД ка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два разя перед подбрасыванием монеты было два равновероятных варианта, после получения сообщения о результате остался один единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопрвЯ деленности знаний в два раза передается 1 бит информации, Я Примеры, приведенные в учебнике, учитель может дополните другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приЯ ходит к обобщенной формуле: 2' = N. Здесь N — число вариантов равновероятных событий (неопределенность знаний), а / — колиЯ чество информации в сообщении о том, что произошло одно из Я событий. Если N — известно, а / является неизвестной величиной, тя данная формула превращается в показательное уравнение. Кая известно, показательное уравнение решается с помощью функЯ ции логарифма: / = log2N. Здесь учителю предоставляются два воэЯ можных пути: либо с опережением уроков математики объяснить™ что такое логарифм, либо «не связываться» с логарифмами. ВЯ втором варианте следует рассмотреть с учениками решение уравЯ нения для частных случаев, когда Necib целая степень двойки: 2Я 4, 8, 16, 32 и т.д. Объяснение происходит по схеме: Если N = 2 = 21, то уравнение принимает вид: 2' = 21, отсюдя 1 = 1. Щ Если N = 4 = 22, то уравнение принимает вид: 2' = 22, отсюдя 1=2. Если N = 8 = 23, то уравнение принимает вид: 2' = 23, отсюдя / = 3 и т.д. В общем случае, если N = 2к, где к — целое число, то уравнения принимает вид 2' = 2* и, следовательно, / = к. Ученикам полезней запомнить ряд целых степеней двойки хотя бы до 210 — 1024. С этиЯ ми величинами им предстоит еще встретиться в других разделах. Щ Для тех значений N, которые не являются целыми степенямпЯ двойки, решение уравнения 2' = N можно получать из приведении ной в учебнике [26] таблицы в §2. Совсем не обязательно говорит» ученикам, что это таблица логарифмов по основанию 2. Напри-Л мер, желая определить, сколько же бит информации несет сооб-Я щение о результате бросания шестигранного кубика, нужно ре-Я Я шать уравнение: 2' = 6. Поскольку 22<6<23, то следует пояснить ученикам, что 2</<3. Заглянув в таблицу, узнаем (с точностью до пяти знаков после запятой), что / = 2,58496 бит. Рассмотренные примеры исчерпывают возможности содержательного подхода в решении проблемы измерения информации. Очевидно, что предложенный метод применим только в очень частных случаях. Попробуйте с содержательной точки зрения подсчитать количество информации, полученной в результате прочтения нового для вас параграфа в учебнике! Сделать это невозможно, хотя фактом является то, что информация получена. В этом и проявляется тот «тупик» данного подхода, о котором говорилось выше. Кибернетический (алфавитный) подход к измерению информации Изучаемые вопросы: ♦ Что такое алфавит, мощность алфавита. ♦ Что такое информационный вес символа в алфавите. ♦ Как измерить информационный объем текста с алфавитной точки зрения. ♦ Что такое байт, килобайт, мегабайт, гигабайт. ♦ Скорость информационного потока и пропускная способность канала. Рассматриваемый в этой теме подход к измерению информации является альтернативным к содержательному подходу, обсуждавшемуся ранее. Здесь речь идет об измерении количества информации в тексте (символьном сообщении), составленном из символов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, т.е. не зависящим от воспринимающего его субъекта., Алфавитный подход — это единственный способ измерения информации, который может применяться по отношению к информации, циркулирующей в информационной технике, в компьютерах. Опорным в этой теме является понятие алфавита. Алфавит — это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита (термин взят из математической теории множеств). В основном содержании базового курса алфавитный подход рассматривается лишь с позиции равновероятного приближения. Это значит, что допускается предположение о том, что вероятности появления всех символов алфавита в любой позиции в тексте одинаковы. Разумеется, это не соответствует реальности и является упрощающим предположением. В рассматриваемом приближении количество информации, которое несет в тексте каждый символ (/), вычисляется из урав- нения Хартли: 2' = N, где N— мощность алфавита. Величину» можно назвать информационным весом символа. Отсюда следуеЯ что количество информации во всем тексте (/), состоящем из щ символов, равно произведению информационного веса символ на К: I = i х К. Эту величину можно назвать информационный объемом текста. Такой подход к измерению информации еще ная зывают объемным подходом. Полезно обсудить с учениками следующий вопрос: какова мин нимальная мощность алфавита, с помощью которого можно зая писывать (кодировать) информацию? Этот вопрос напрямую свяЦ зан с заданием № 3 к § 3 учебника [11], которое звучит так: «ДоЯ кажите, что исходя из алфавитного подхода, сообщение любов длины, использующее односимвольный алфавит, содержит нул&Я вую информацию». Щ Предположим, что используемый алфавит состоит всего иМ одного символа, например «1». Интуитивно понятно, что сообЦ щить что-либо с помощью единственного символа невозможно!! Но это же доказывается строго с точки зрения алфавитного под-9 хода. Информационный вес символа в таком алфавите находится из уравнения: 2' = 1. Но поскольку 1 = 2°, то отсюда следует, чт<Я / = 0 бит. Полученный вывод можно проиллюстрировать следую-1 щим образным примером. Представьте себе толстую книгу в| 1000 страниц, на всех страницах которой написаны одни едини-! цы (единственный символ используемого алфавита). Сколько ин-1 формации в ней содержится? Ответ: нисколько, ноль. Причем та-§ кой ответ получается с любой позиции, как с содержательной,! так и с алфавитной. Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом.% Информационный вес символа в двоичном алфавите легко опре-1 делить. Поскольку 2' = 2, то / = 1 бит. Итак, один символ двоичногОЩ алфавита несет 1 бит информации. С этим обстоятельством ученики снова встретятся, когда будут знакомиться с алфавитом внутреннего языка компьютера — языка двоичного кодирования. Бит — основная единица измерения информации. Кроме нее используются и другие единицы. Следует обратить внимание учеников на то, что в любой метрической системе существуют еди- 1 ницы основные (эталонные) и производные от них. Например, 1 основная физическая единица длины — метр. Но существуют мил- 3 лиметр, сантиметр, километр. Расстояния разного размера удобно 1 выражать через разные единицы. Так же обстоит дело и с измере- 1 нием информации. 1 бит — это исходная единица. Следующая по | величине единица — байт. Байт вводится как информационный | вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 1 байт = 8 бит. Мы снова встречаемся с темой, которая является | своеобразной пропедевтикой к будущему изучению компьютера. 1 Уже в рамках данной темы можно сообщить ученикам, что компьютер для внешнего представления текстов и другой символьной информации использует алфавит мощностью 256 (ъо внутреннем представлении любая информация в компьютере кодируется в двоичном алфавите). Фактически, для выражения объема компьютерной информации в качестве основной единицы используется байт. Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт — нужно обратить их внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных вычислениях используют коэффициент 1000. В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов. Теоретический и практический материал на эту тему можно найти в пособии [8] в подразделе 1.4. Примеры решения задач Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2' = N. Возможны два варианта условия задачи: 1) дано N, найти /; 2) дано /, найти N. В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения 21 = N, приведенную в [25] и [8], в которой рассматриваются значения Not 1 до 64. Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события». Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик? Решение. При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 — числу карт в колоде. Если / — количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение: 2' = 32. Поскольку 32 = 25, то, следовательно, / = 5 бит. На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как| красных и черных карт одинаковое количество). Сколько информации несет сообщение о том, что из колоды^ карт достали карту бубновой масти? (2 бита, так как всего в коло-| де 4 масти и количество карт в них равные). Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сооб-S щение о результатах какой из лотерей несет больше информации?^ Решение. У этой задачи есть «подводный камень», на который! может натолкнуться учитель. Первый путь решения тривиальный: < вытаскивание любого номера из лотерейного барабана — события равновероятные. Поэтому в первой лотерее количество информации! в сообщении об одном номере равно 5 бит (25 = 32), а во второй —| 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет! 5 х4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6x5 =1 = 30 бит. Следовательно, сообщение о результатах второй лотереи! несет больше информации, чем о результатах первой. Но возможен и другой путь рассуждения. Представьте себе, что! вы наблюдаете за розыгрышем лотереи. Выбор первого шара произ-| водится из 32 шаров в барабане. Результат несет 5 бит информации. 1 Но 2-й шар будет выбираться уже из 31 номера, 3-й — из 30 номе-1 ров, 4-й — из 29. Значит, количество информации, которое несет! 2-й номер, находится из уравнения: 2' = 31. Используя таблицу! решения этого уравнения, находим: i = 4,95420 бит. Для 3-го но 1 мера: 2' = 30; / = 4,90689 бит. Для 4-го номера: 2' = 29; / =1 = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 =1 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на! окончательном выводе такие подсчеты не отразятся. Можно было 1 вообще, ничего не вычисляя, сразу ответить, что второе сообще-1 ние несет больше информации, чем первое. Но здесь интересен! сам путь вычислений с учетом «выбывания участников». Последовательность событий в этом случае не является независи-Щ мой друг от друга (кроме первого). Это, как мы увидели, отражаетсяI в различии информативности сообщений о каждом из них. Первый | (тривиальный) вариант решения задачи получен в предположении! независимости событий и является в таком случае неточным. В условиях задач по теме «Измерение информации. Алфавитный 1 подход» связываются между собой следующие величины: мощность I символьного, алфавита — N; информационный вес символа — /; число | символов в тексте (объем текста) — К; количество информации, заключенной в тексте (информационный объем текста) — /. Кроме! того, при решении задач требуется знать связь между различными \ единицами информации: бит, байт, килобайт, мегабайт, гигабайт. ' Задачи, соответствующие уровню минимального содержания 1 базового курса, рассматривают лишь приближение равновероят- j ного алфавита, т.е. допущение того, что появление любого сим- j вола в любой позиции текста — равновероятно. В задачах для уг- | лубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр — вероятность символа (р). Пример 3. Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах? Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа: /=£•/. Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (/). Найдем ц для первого алфавита и /2 для второго алфавита: 2'1 = 32, отсюда /\ = 5 бит; 2'2 = 64, отсюда /2 = 6 бит. Следовательно, информационные объемы первого и второго текстов будут равны: /, = *-5бит, /2 =Х6бит. Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза. Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение? Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз — на 8: / = 1/512 • 1024 • 1024 • 8 = 16384 бит. Поскольку такой объем информации несут 10J4 символа (К), то на один символ приходится: i = I/K = 16384/1024 = 16 бит. Отсюда следует, что размер (мощность) использованного алфавита равен 216 = 65 536 символов. Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символьной информации в компьютере (кодировка Unicode).
|