Студопедия — Методические рекомендации по изучению темы
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Методические рекомендации по изучению темы






Рух Включає Означає
товарів Товари взагалі (gene­ral goods) Більшість транспортабельних товарів, що продаються нерезидентам або купу­ються у них, право власності на які переходить від однієї 10 до іншої
    Товари для обробки (goods for processing) Експорт або імпорт товарів для пере­робки на території іншої країни з наступним реімпортом або реекспор­том у першу країну
    Ремонт товарів (repa­irs of goods) Роботи з ремонту кораблів, літаків та інших рухомих об'єктів резидента, проведені нерезидентами
    Товари, куплені в порту перевізниками (goods procured in ports by carriers) Товари матеріально-технічного поста­чання (пальне, продукти та ін.), куп­лені або продані в порту перевізни-кові-нерезиденту (судну, літаку)
    Немонетарне золото (non-monetary gold) Будь-які золоті вироби, що не є дер­жавними резервами
послуг Транспорт (transpor­tation) Міжнародне перевезення вантажів і па­сажирів усіма видами транспорту і на­дання відповідних послуг
    Поїздки (travel) Товари і послуги, придбані нерези­дентами для службових і особистих цілей під час поїздок за кордон три­валістю до 1 року (туризм)
    Інші (other) Інші послуги, надані нерезидентам (зв'я­зок, страхування, будівництво та ін.)
доходу Заробітну плату зай­нятих (compensation of employees) Заробітна плата, виплачувана нере­зидентам
    Прибуток на інвести­ції (investment income) Прибутки і платежі за іноземними активами і пасивами
поточних трансфертів Уряд (general govern­ment) Міжурядові платежі, дарунки, внес­ки в міжнародні організації
    Інші галузі (other sec­tors) Платежі між резидентами і нерезиден­тами й неурядовими організаціями
капіталу Капітальні трансфер­ти (capital transfers) Передача права власності на основні фонди і безоплатне списання зобов'я­зань кредиторам
    Прямі інвестиції (di­rect investments) Придбання резидентом тривалого інте­ресу в підприємстві-нерезиденті, вклю­чаючи всі наступні угоди між ними
    Портфельні інвестиції (portfolio investments) Угоди з цінними паперами і борго­вими зобов'язаннями
    Інші інвестиції (other investments) Торгові кредити, позики, включаючи позики МВФ, депозити
    Резервні активи (re­serve assets) Угоди з активами, що використовують­ся для балансування платіжного балан­су (монетарне золото, СДР, резервна по­зиція в МВФ, іноземна валюта)

 

Ж.

так и объективной сложностью поиска корректного определения ■[научной точки зрения.

И Если в центр содержания курса информатики ставить инфор-Ирцию (а не алгоритм, ЭВМ и пр.), если рассматривать это поня­тие как системообразующее для всего предмета, то обойти на уроках вопрос об определении информации нельзя. Бесспорно то, что нельзя дать единого, универсального определения информации. Но в науке и в практике известны различные подходы к инфор-мации, и в рамках каждого из них дается определение этого поня­тий (см., например, посвященные этому вопросу статьи в журна­ле |*Информатика и образование» С.А.Бешенкова и др. [2]). Уче-ники должны знать, что в зависимости от контекста, в котором используется термин «информация», он может нести разный

■ш учебнике И. Г. Семакина и др. [26] раскрываются два подхода к понятию информации. Первый можно назвать субъективным поЬ-хоШм, при котором информация рассматривается с точки зрения ее §Ьли в жизни и деятельности человека. С этой позиции инфор-маШяэто знания, сведения, которыми обладает человек, кото-рьдаон получает из окружающего мира.

■Второй подход можно назвать кибернетическим, поскольку раз­вита» он получил в кибернетике. Именно этот подход позволяет соагавать машины, работающие с информацией. С этой точки зре- нн%'информацияэто содержание последовательностей символов (ситалов) из некоторого алфавита. В таком случае все виды ин­формационных процессов (хранение, передача, обработка) сво­дятся к действиям над символами, что и происходит в техничес­ких информационных системах.

к.

Методические рекомендации по изучению темы

■EkL

■ргаучаемые вопросы:

КрЧем является информация для человека.

■№■ Декларативные и процедурные знания (информация).

■^Кибернетический подход к информации.

ИрРоль органов чувств человека в процессе восприятия им ин-форнйации.

Необъективный подход. При раскрытии понятия «информация», - точки зрения субъективного (бытового, человеческого) подхо­да, следует отталкиваться от интуитивных представлений об ин­формации, имеющихся у детей. Целесообразно вести беседу в форме Диалога, задавая ученикам вопросы, на которые они в состоянии ответить. Не следует сразу требовать от них определения инфор­мации, но подвести их к этому определению с помощью понят­ных вопросов вполне возможно. Вопросы, например, можно зада-вать в Следующем порядке. И^асскажите, откуда вы получаете информацию?

Наверняка услышите в ответ:

— Из книг, из радио и телепередач.

Дальше попросите учеников привести примеры какой-нибудь информации, которую они получили сегодня. Например, кто-ни­будь ответит:

— Утром по радио я слышал прогноз погоды. Ухватившись за такой ответ, учитель подводит учеников к окон­чательному выводу:

— Значит, вначале ты не знал, какая будет погода, а после прослушивания радио стал знать! Следовательно, получив инфор­мацию, ты получил новые знания}

Таким образом, учитель вместе с учениками приходит к опре­делению: информация для человека — это знания, которые он полу­чает из различных источников. Далее на многочисленных извест­ных детям примерах следует закрепить это определение.

Приняв определение информации как знания людей, неизбежно приходишь к выводу, что информация — это содержимое нашей памяти, ибо человеческая память и есть средство хранения зна­ний. Разумно назвать такую информацию внутренней, оператив­ной информацией, которой обладает человек. Однако люди хра­нят информацию не только в собственной памяти, но и в записях на бумаге, на магнитных носителях и пр. Такую информацию можно назвать внешней (по отношению к человеку). Чтобы человек мог ей воспользоваться (например, приготовить блюдо по кулинар­ному рецепту), он должен сначала ее прочитать, т.е. обратить во внутреннюю форму, а затем уже производить какие-то действия.

Вопрос о классификации знаний (а стало быть, информации) очень сложный. В науке существуют различные подходы к нему. Особенно много занимаются этим вопросом специалисты в обла­сти искусственного интеллекта. В рамках базового курса достаточ­но ограничиться делением знаний на декларативные и процедур­ные. Описание декларативных знаний можно начинать со слов: «Я знаю, что...». Описание процедурных знаний — со слов: «Я знаю, как...». Нетрудно дать примеры на оба типа знаний и предложить детям придумать свои примеры.

Учитель должен хорошо понимать пропедевтическое значение обсуждения данных вопросов для будущего знакомства учеников с устройством и работой компьютера. У компьютера, подобно че­ловеку, есть внутренняя — оперативная память и внешняя — дол­говременная память. Деление знаний на декларативные и проце­дурные в дальнейшем следует увязать с делением компьютерной информации на данные — декларативная информация, и про­граммы — процедурная информация. Использование дидактичес­кого приема аналогии между информационной функцией челове­ка и компьютером позволит ученикам лучше понять суть устрой­ства и работы ЭВМ.

I Исходя из позиции «информация для человека— это знания», 1 учитель сообщает ученикам, что и запахи, и вкусы, и тактильные i (осязательные) ощущения тоже несут информацию человеку. Обо-I снование этому очень простое: раз мы помним знакомые запахи и I вкусы, узнаем на ощупь знакомые предметы, значит эти ощуще-I ния хранятся в нашей памяти, а стало быть, являются информа-кцией. Отсюда вывод: с помощью всех своих органов чувств чело-1век получает информацию из внешнего мира. I Кибернетический подход. Между информатикой и кибернетикой ■существует тесная связь. Основал кибернетику в конце 1940-х гг. ■американский ученый Норберт Винер. Можно сказать, что кибер-■нетика породила современную информатику, выполнила роль ■рдного из ее источников. Сейчас кибернетика входит в информа-рику как составная часть.

В; Кибернетика имеет дело со сложными системами: машинами, ркивыми организмами, общественными системами. Но она не стре­мится разобраться в их внутреннем механизме. Кибернетику ин-■ересуют процессы взаимодействия между такими системами или [их компонентами. Рассматривая такие взаимодействия как про­мессы управления, кибернетику определяют как науку об общих Щвойствах процессов управления в живых и неживых системах. Щ Для описания сложных систем в кибернетике используется модель «черного ящика». Термины «черный ящик» и «кибернети-Вкская система» можно использовать как синонимы. Главные ха-Щактеристики «черного ящика»это входная и выходная информа-Нря. И если два таких черных ящика взаимодействуют между со-ВЬй, то делают они это только путем обмена информацией. В' Информация между кибернетическими системами передается в щрде некоторых последовательностей сигналов. Выходные сигналы Нних участников обмена являются входными для других. И Информационные обмены происходят везде и всюду: между ИЬдьми, между животными, между работающими совместно тех-Нрескими устройствами, между людьми и техническими устрой-НЬами, между различными частями сложных устройств, между Нличными органами человека или животного и т. п. Во всех этих Яррчаях информация передается в виде последовательностей сиг-■нов разной природы: акустических, световых, графических, Нрстрических и др.

ВС точки зрения кибернетики, информацией является содержа-И р передаваемых сигнальных последовательностей. В частности, Др ой текст на каком-то языке есть последовательность букв (в Нрьменной форме) или звуков (в устной форме), которые мож-Иррассматривать как графические или акустические сигналы. ■Передача сигналов требует определенных материальных и энергетических затрат. Например, при использовании электри­ческой связи нужны провода и источники электроэнергии. Од-нако содержание сигналов не зависит от затрат вещества ют энергии. В последовательностях сигналов закодированы опредш ленные смысловые символы, в которых и заключается их содещ жание. Эти символы могут быть буквами текста на каком-то языи (например, в азбуке Морзе: «. —* обозначает букву «А») или щн лыми понятиями (например, красный сигнал светофора обознзи чает «стоять!»). М

I

7.2. Подходы к измерению информации

1 Подходы к раскрытию темы в учебной литературе

Проблема измерения информации напрямую связана с про| блемой определения информации, поскольку сначала надо ужи нить, ЧТО собираемся измерять, а потом уже — КАК это делати какие единицы использовать. Если опираться на расплывчатом интуитивное представление ученика об информации, то невоя можно дать сколько-нибудь логичное определение количеств! информации, ввести единицы ее измерения.

Характерным приемом для ряда учебников является следую! щий: обсуждая вопрос об измерении информации, тут же пере* ходят к описанию компьютерного представления информации Я форме двоичного кода. Затем дается утверждение о том, что колия чество информации равно количеству двоичных цифр (битов) Я таком коде. Вот цитата из учебника [16]: «В современной вычисли тельной технике информация чаще всего кодируется с помощь» последовательностей сигналов всего двух видов: намагничено или нЦ намагничено, включено или выключено, высокое или низкое ная пряжение и т.д. Принято обозначать одно состояние цифрой О, щ другое — цифрой 1. Такое кодирование называется двоичным кодия рованием, а цифры 0 и 1 называются битами (от англ. Bit — binarm digit — двоичная цифра)». В следующем параграфе сказано: «А как уза нать количество информации в сообщении, в каких единицах эти информацию измерять? Для двоичных сообщений в качестве таком числовой меры используется количество бит в сообщении. Это коли! чество называется информационным объемом сообщения».

В учебнике [5] написано: «Чтобы стандартизировать измерение количества информации, договорились за единицу количества информации принять сообщение, состоящее из одного символа двухсимвольного алфавита. Использование для измерения коли -4 чества информации алфавитов с другим числом символов можно! уподобить переходу к более крупным единицам измерения». В этом же учебнике содержатся рассуждения и о другом подходе к предЛ ставлению о количестве информации — содержательном, семан­тическом: «Количество информации, получаемой из сообщения! зависит от имеющихся предварительных знаний».

Вопрос об измерении информации необходимо раскрывать в контексте рассматриваемого подхода к определению информации. Здесь обязательно должна присутствовать логическая последова­тельность, пусть даже она приводит в тупик.

В учебнике [26] последовательно прослеживаются два подхода к измерению информации: с точки зрения содержательной и ки­бернетической концепций.

Методические рекомендации по изучению темы

Содержательный подход к измерению информации

Изучаемые вопросы:

♦ От чего зависит информативность сообщения, принимаемо­го человеком.

♦ Единица измерения информации.

♦ Количество информации в сообщении об одном из Нравно-вероятных событий.

С позиции содержательного подхода просматривается следую­щая цепочка понятий: информация — сообщение — информатив­ность сообщения — единица измерения информации — информацион­ный объем сообщения.

Исходная посылка: информация — это знания людей. Следую­щий вопрос: что такое сообщение? Сообщение — это информаци­онный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринима­емые нами зрительные образы (фильм по телевизору, сигнал све­тофора), и текст книги, которую мы читаем и т.д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: инфор­мативным назовем сообщение, которое пополняет, знания человека, т. е. несет для него информацию. Для разных люд^й одно и то же сообщение, с точки зрения его информативности, может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это со­общение неинформативно. Информативно то сообщение, кото­рое содержит новые и понятные сведения.

Нельзя отождествлять понятия «информация» и «информатив­ность сообщения». Следующий пример иллюстрирует различие понятий. Вопрос: «Содержит ли информацию вузовский учебник по высшей математике с точки зрения первоклассника?». Ответ: «Да, содержит с любой точки зрения! Потому что в учебнике зак­лючены знания людей: авторов учебника, создателей математи­ческого аппарата (Ньютона, Лейбница и др.), современных мате­матиков». Эта истина — абсолютна. Другой вопрос: «Будет ли ин­формативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первокласс-

ник с помощью этого учебника пополнить собственные знания?» Очевидно, что ответ отрицательный. Читая учебник, т.е. получая сообщения, первоклассник ничего не^ поймет, а стало быть, не обратит его в собственные знания.

При объяснении этой темы можно предложить'ученикам поийИ рать в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, на которые они молча записывают ответы нИ бумагу. Если ученик не знает ответа, он ставит знак вопроса. ПослИ этого учитель дает правильные ответы на свои вопросы, а ученикйЯ записав ответы учителя, отмечают, какие из них оказались для них информативными (+), какие — нет (-). При этом для сообщений, отмеченных минусом, нужно указать причину отсутствия информаЯ ции: не новое (это я знаю), непонятное. Например, список вопросов и ответы одного из учеников могут быть следующими.

Вопоос Ответ Информа- Причина Я

Вопрос ответ тивность неинформа-Я

У"™™ У*6™™ ___________________ сообщения тивности 1

1.Какой Столица Столица Франции — — Неновое Щ

город Франции — Париж

является Париж Щ

столицей Щ

Франции

2.Что? Коллоидная химия — Непонятное Щ

изучает изучает дисперсионные

коллоид- состояния систем, обла- >

ная дающих высокой сте-

химия пенью раздробленности

3.Какую? Эйфелева башня имеет +

высоту и высоту 300 метров и вес

вес имеет 9000 тонн. щ

Эйфелева

башня? ________II

---------------.-------------

Введение понятия «информативность сообщения» является перjB вым подходом к изучению вопроса об измерении информации щЛ рамках содержательной концепции. Если сообщение неинформатившт для человека, то количество информации в нем, с точки зрения это-т го человека, равно нулю. Количество информации в информативному сообщении больше нуля.

Для определения количества информации нужно ввести еди-Я ницу измерения информации. В рамках содержательного подхода J такая единица должна быть мерой пополнения знаний субъекта;! иначе можно еще сказать так: мерой уменьшения степени его не-1 знания. В учебнике [26] дано следующее определение единицы! информации: «Сообщение, уменьшающее неопределенность зна-1 ний в 2 раза, несет 1 бит информации». Немного дальше приво-1 дится определение для частного случая: «Сообщение о том, что!

произошло одно событие из двух равновероятных, несет 1 бит информации».

Определение бита— единицы измерения информации может оказаться сложным для понимания учениками. В этом определе­нии содержится незнакомое детям понятие «неопределенность знаний». Прежде всего нужно раскрыть его. Учитель должен хоро­шо понимать, что речь идет об очень частном случае: о сообще­нии, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий. Например, о ре­зультате бросания монеты, игрового кубика, вытаскивания экза­менационного билета и т. п. Неопределенность знания о результа­те некоторого события — это число возможных вариантов резуль­тата: для монеты — 2, для кубика — 6, для билетов — 30 (если на столе лежало 30 билетов).

Еще одной сложностью является понятие равновероятности. Здесь следует воспользоваться интуитивным представлением де­тей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадения орла и решки — равновероятны; выпадения каждой из шести граней кубика — равновероятны. Полезно при­вести примеры и неравновероятных событий. Например, в сообще­нии о погоде в зависимости от сезона сведения о том, что будет дождь или снег могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой — о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероят­ными. Понятие «более вероятное событие» можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача пони­мания учениками строгого определения вероятности, умения вы­числять вероятность. Но представление о равнойероятных и не­равновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и нерав­новероятных событий.

При наличии учебного времени полезно обсудить с учениками понятия «достоверное событие» — событие, которое обязательно происходит, и «невозможное событие». От этих понятий можно оттолкнуться, чтобы ввести интуитивное представление о мере вероятности. Достаточно сообщить, что вероятность достоверного события равна 1, а невозможного — 0. Это крайние значения. Зна­чит, во всех других «промежуточных» случаях значение вероят­ности лежит между нулем и единицей. В частности, вероятность

каждого из двух равновероятных событий равна —. При углублен­ном варианте изучения базового курса можно использовать мате­риал, приведенный в подразделе 1.1 «Вероятность и информа­ция» второй части учебника [26].

Я

Возвращаясь к вопросу об измерении количества информя ции, заключенной в сообщении об одном из N равновероятная событий, предлагаем следующую логическую цепочку раскрья тия темы.

Объяснение удобно начать с частного определения бита каЯ меры информации в сообщении об одном из двух равновероятный событий. Обсуждая традиционный пример с монетой (орел — реиД ка), следует отметить, что получение сообщения о результате бро­сания монеты уменьшило неопределенность знаний в два разя перед подбрасыванием монеты было два равновероятных вариан­та, после получения сообщения о результате остался один един­ственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопрвЯ деленности знаний в два раза передается 1 бит информации, Я

Примеры, приведенные в учебнике, учитель может дополните другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приЯ ходит к обобщенной формуле: 2' = N. Здесь N — число вариантов равновероятных событий (неопределенность знаний), а / — колиЯ чество информации в сообщении о том, что произошло одно из Я событий.

Если N — известно, а / является неизвестной величиной, тя данная формула превращается в показательное уравнение. Кая известно, показательное уравнение решается с помощью функЯ ции логарифма: / = log2N. Здесь учителю предоставляются два воэЯ можных пути: либо с опережением уроков математики объяснить™ что такое логарифм, либо «не связываться» с логарифмами. ВЯ втором варианте следует рассмотреть с учениками решение уравЯ нения для частных случаев, когда Necib целая степень двойки: 2Я 4, 8, 16, 32 и т.д. Объяснение происходит по схеме:

Если N = 2 = 21, то уравнение принимает вид: 2' = 21, отсюдя 1 = 1. Щ

Если N = 4 = 22, то уравнение принимает вид: 2' = 22, отсюдя 1=2.

Если N = 8 = 23, то уравнение принимает вид: 2' = 23, отсюдя / = 3 и т.д.

В общем случае, если N = 2к, где к — целое число, то уравнения принимает вид 2' = 2* и, следовательно, / = к. Ученикам полезней запомнить ряд целых степеней двойки хотя бы до 210 — 1024. С этиЯ ми величинами им предстоит еще встретиться в других разделах. Щ

Для тех значений N, которые не являются целыми степенямпЯ двойки, решение уравнения 2' = N можно получать из приведении ной в учебнике [26] таблицы в §2. Совсем не обязательно говорит» ученикам, что это таблица логарифмов по основанию 2. Напри-Л мер, желая определить, сколько же бит информации несет сооб-Я щение о результате бросания шестигранного кубика, нужно ре-Я

Я

шать уравнение: 2' = 6. Поскольку 22<6<23, то следует пояснить ученикам, что 2</<3. Заглянув в таблицу, узнаем (с точностью до пяти знаков после запятой), что / = 2,58496 бит.

Рассмотренные примеры исчерпывают возможности содержа­тельного подхода в решении проблемы измерения информации. Очевидно, что предложенный метод применим только в очень частных случаях. Попробуйте с содержательной точки зрения под­считать количество информации, полученной в результате про­чтения нового для вас параграфа в учебнике! Сделать это невоз­можно, хотя фактом является то, что информация получена. В этом и проявляется тот «тупик» данного подхода, о котором говори­лось выше.

Кибернетический (алфавитный) подход к измерению информации

Изучаемые вопросы:

♦ Что такое алфавит, мощность алфавита.

♦ Что такое информационный вес символа в алфавите.

♦ Как измерить информационный объем текста с алфавитной точки зрения.

♦ Что такое байт, килобайт, мегабайт, гигабайт.

♦ Скорость информационного потока и пропускная способ­ность канала.

Рассматриваемый в этой теме подход к измерению информа­ции является альтернативным к содержательному подходу, об­суждавшемуся ранее. Здесь речь идет об измерении количества ин­формации в тексте (символьном сообщении), составленном из сим­волов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, т.е. не зависящим от воспринимающего его субъекта.,

Алфавитный подход — это единственный способ измерения информации, который может применяться по отношению к ин­формации, циркулирующей в информационной технике, в ком­пьютерах.

Опорным в этой теме является понятие алфавита. Алфавит — это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита (термин взят из математической теории множеств). В основном содержании базового курса алфавитный подход рассмат­ривается лишь с позиции равновероятного приближения. Это зна­чит, что допускается предположение о том, что вероятности по­явления всех символов алфавита в любой позиции в тексте одина­ковы. Разумеется, это не соответствует реальности и является упрощающим предположением.

В рассматриваемом приближении количество информации, которое несет в тексте каждый символ (/), вычисляется из урав-

нения Хартли: 2' = N, где N— мощность алфавита. Величину» можно назвать информационным весом символа. Отсюда следуеЯ что количество информации во всем тексте (/), состоящем из щ символов, равно произведению информационного веса символ на К: I = i х К. Эту величину можно назвать информационный объемом текста. Такой подход к измерению информации еще ная зывают объемным подходом.

Полезно обсудить с учениками следующий вопрос: какова мин нимальная мощность алфавита, с помощью которого можно зая писывать (кодировать) информацию? Этот вопрос напрямую свяЦ зан с заданием № 3 к § 3 учебника [11], которое звучит так: «ДоЯ кажите, что исходя из алфавитного подхода, сообщение любов длины, использующее односимвольный алфавит, содержит нул&Я вую информацию». Щ

Предположим, что используемый алфавит состоит всего иМ одного символа, например «1». Интуитивно понятно, что сообЦ щить что-либо с помощью единственного символа невозможно!! Но это же доказывается строго с точки зрения алфавитного под-9 хода. Информационный вес символа в таком алфавите находится из уравнения: 2' = 1. Но поскольку 1 = 2°, то отсюда следует, чт<Я / = 0 бит. Полученный вывод можно проиллюстрировать следую-1 щим образным примером. Представьте себе толстую книгу в| 1000 страниц, на всех страницах которой написаны одни едини-! цы (единственный символ используемого алфавита). Сколько ин-1 формации в ней содержится? Ответ: нисколько, ноль. Причем та-§ кой ответ получается с любой позиции, как с содержательной,! так и с алфавитной.

Минимальная мощность алфавита, пригодного для передачи ин­формации, равна 2. Такой алфавит называется двоичным алфавитом.% Информационный вес символа в двоичном алфавите легко опре-1 делить. Поскольку 2' = 2, то / = 1 бит. Итак, один символ двоичногОЩ алфавита несет 1 бит информации. С этим обстоятельством учени­ки снова встретятся, когда будут знакомиться с алфавитом внут­реннего языка компьютера — языка двоичного кодирования.

Бит — основная единица измерения информации. Кроме нее используются и другие единицы. Следует обратить внимание уче­ников на то, что в любой метрической системе существуют еди- 1 ницы основные (эталонные) и производные от них. Например, 1 основная физическая единица длины — метр. Но существуют мил- 3 лиметр, сантиметр, километр. Расстояния разного размера удобно 1 выражать через разные единицы. Так же обстоит дело и с измере- 1 нием информации. 1 бит — это исходная единица. Следующая по | величине единица — байт. Байт вводится как информационный | вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 1 байт = 8 бит. Мы снова встречаемся с темой, которая является | своеобразной пропедевтикой к будущему изучению компьютера. 1

Уже в рамках данной темы можно сообщить ученикам, что компь­ютер для внешнего представления текстов и другой символьной ин­формации использует алфавит мощностью 256 (ъо внутреннем пред­ставлении любая информация в компьютере кодируется в двоич­ном алфавите). Фактически, для выражения объема компьютерной информации в качестве основной единицы используется байт.

Представляя ученикам более крупные единицы: килобайт, мега­байт, гигабайт — нужно обратить их внимание на то, что мы при­выкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных вычислениях ис­пользуют коэффициент 1000.

В рамках углубленного курса учитель может изложить алфавит­ный подход в более адекватном варианте, без допущения равно­вероятности символов. Теоретический и практический материал на эту тему можно найти в пособии [8] в подразделе 1.4.

Примеры решения задач

Задачи по теме «Измерение информации. Содержательный под­ход» связаны с использованием уравнения 2' = N. Возможны два варианта условия задачи: 1) дано N, найти /; 2) дано /, найти N.

В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говори­лось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу реше­ния уравнения 21 = N, приведенную в [25] и [8], в которой рас­сматриваются значения Not 1 до 64.

Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обо­сновывать, используя термин «равновероятные события».

Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение. При случайном вытаскивании карт из перемешан­ной колоды ни одна из карт не имеет преимущества быть выбран­ной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вы­таскивания карты равна 32 — числу карт в колоде. Если / — коли­чество информации в сообщении о результате вытаскивания од­ной карты (дамы пик), то имеем уравнение:

2' = 32.

Поскольку 32 = 25, то, следовательно, / = 5 бит.

На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том,

что из колоды карт достали карту красной масти? (1 бит, так как| красных и черных карт одинаковое количество).

Сколько информации несет сообщение о том, что из колоды^ карт достали карту бубновой масти? (2 бита, так как всего в коло-| де 4 масти и количество карт в них равные).

Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сооб-S щение о результатах какой из лотерей несет больше информации?^

Решение. У этой задачи есть «подводный камень», на который! может натолкнуться учитель. Первый путь решения тривиальный: < вытаскивание любого номера из лотерейного барабана — события равновероятные. Поэтому в первой лотерее количество информации! в сообщении об одном номере равно 5 бит (25 = 32), а во второй —| 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет! 5 х4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6x5 =1 = 30 бит. Следовательно, сообщение о результатах второй лотереи! несет больше информации, чем о результатах первой.

Но возможен и другой путь рассуждения. Представьте себе, что! вы наблюдаете за розыгрышем лотереи. Выбор первого шара произ-| водится из 32 шаров в барабане. Результат несет 5 бит информации. 1 Но 2-й шар будет выбираться уже из 31 номера, 3-й — из 30 номе-1 ров, 4-й — из 29. Значит, количество информации, которое несет! 2-й номер, находится из уравнения: 2' = 31. Используя таблицу! решения этого уравнения, находим: i = 4,95420 бит. Для 3-го но 1 мера: 2' = 30; / = 4,90689 бит. Для 4-го номера: 2' = 29; / =1 = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 =1 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на! окончательном выводе такие подсчеты не отразятся. Можно было 1 вообще, ничего не вычисляя, сразу ответить, что второе сообще-1 ние несет больше информации, чем первое. Но здесь интересен! сам путь вычислений с учетом «выбывания участников».

Последовательность событий в этом случае не является независи-Щ мой друг от друга (кроме первого). Это, как мы увидели, отражаетсяI в различии информативности сообщений о каждом из них. Первый | (тривиальный) вариант решения задачи получен в предположении! независимости событий и является в таком случае неточным.

В условиях задач по теме «Измерение информации. Алфавитный 1 подход» связываются между собой следующие величины: мощность I символьного, алфавита — N; информационный вес символа — /; число | символов в тексте (объем текста) — К; количество информации, заключенной в тексте (информационный объем текста) — /. Кроме! того, при решении задач требуется знать связь между различными \ единицами информации: бит, байт, килобайт, мегабайт, гигабайт. '

Задачи, соответствующие уровню минимального содержания 1 базового курса, рассматривают лишь приближение равновероят- j ного алфавита, т.е. допущение того, что появление любого сим- j вола в любой позиции текста — равновероятно. В задачах для уг- |

лубленного уровня обучения используется более реальное пред­положение о неравновероятности символов. В таком случае, появ­ляется еще один параметр — вероятность символа (р).

Пример 3. Два текста содержат одинаковое количество симво­лов. Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается ко­личество информации в этих текстах?

Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информаци­онный вес одного символа:

/=£•/.

Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только раз­ницей в информативности символов алфавита (/). Найдем ц для первого алфавита и /2 для второго алфавита:

2'1 = 32, отсюда /\ = 5 бит;

2'2 = 64, отсюда /2 = 6 бит.

Следовательно, информационные объемы первого и второго текстов будут равны:

/, = *-5бит, /2 =Х6бит.

Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.

Пример 4. Объем сообщения, содержащего 2048 символов, со­ставил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз — на 8:

/ = 1/512 • 1024 • 1024 • 8 = 16384 бит.

Поскольку такой объем информации несут 10J4 символа (К), то на один символ приходится:

i = I/K = 16384/1024 = 16 бит.

Отсюда следует, что размер (мощность) использованного ал­фавита равен 216 = 65 536 символов.

Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символь­ной информации в компьютере (кодировка Unicode).







Дата добавления: 2015-10-19; просмотров: 571. Нарушение авторских прав; Мы поможем в написании вашей работы!



Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...

Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

МЕТОДИКА ИЗУЧЕНИЯ МОРФЕМНОГО СОСТАВА СЛОВА В НАЧАЛЬНЫХ КЛАССАХ В практике речевого общения широко известен следующий факт: как взрослые...

СИНТАКСИЧЕСКАЯ РАБОТА В СИСТЕМЕ РАЗВИТИЯ РЕЧИ УЧАЩИХСЯ В языке различаются уровни — уровень слова (лексический), уровень словосочетания и предложения (синтаксический) и уровень Словосочетание в этом смысле может рассматриваться как переходное звено от лексического уровня к синтаксическому...

Плейотропное действие генов. Примеры. Плейотропное действие генов - это зависимость нескольких признаков от одного гена, то есть множественное действие одного гена...

Ганглиоблокаторы. Классификация. Механизм действия. Фармакодинамика. Применение.Побочные эфффекты Никотинчувствительные холинорецепторы (н-холинорецепторы) в основном локализованы на постсинаптических мембранах в синапсах скелетной мускулатуры...

Шов первичный, первично отсроченный, вторичный (показания) В зависимости от времени и условий наложения выделяют швы: 1) первичные...

Предпосылки, условия и движущие силы психического развития Предпосылки –это факторы. Факторы психического развития –это ведущие детерминанты развития чел. К ним относят: среду...

Studopedia.info - Студопедия - 2014-2024 год . (0.015 сек.) русская версия | украинская версия