ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Реализация информации. Операторы и информационные системы Выше неоднократно упоминалось о связи информации с операторами и информационными системами. Рассмотрим эту проблему более внимательно. Начнем с утверждения, что хотя информация – объект не материальный, операторы всегда и обязательно – объекты материальные, т.е. реальные физические тела, которые могут, и весьма существенно, влиять на ход событий в окружающем их реальном физическом мире. Этот факт позволяет нам выделить три вопроса и сосредоточить на них внимание: как происходит реализация информации в операторы? какими показателями можно характеризовать операторы? и как связаны особенности информации с характеристиками кодируемых ею операторов? Вопрос о реализации какой-либо информации в оператор предполагает, прежде всего, однозначное отображение оператора в этой информации, а также существование механизмов, реализующих это отображение. При рассмотрении этого вопроса мы будем опираться на работы А. Н. Колмогорова [1], посвященные определению понятия «информация» и проблеме отображения одного множества другими. Действительно, любую информацию можно представить себе как некоторое множество знаков или символов, однозначно отображающее другое множество, в нашем случае – компоненты будущего оператора. Существует теорема, согласно которой отображающее множество всегда менее сложно, нежели отображаемое (т.е. содержит меньшее число компонентов), но этот разрыв уменьшается по мере увеличения сложности отображаемого множества, так что в конце концов «отобразить» суперсложное множество можно лишь одним путем – полностью его воспроизведя. Можно предположить, что с информацией и операторами дело обстоит иначе. Во-первых, сама информация, по-видимому, относится к классу таких объектов, которые невозможно отобразить более простыми объектами; во всяком случае, когда информация представлена в максимально-компактной форме, ее невозможно «записать» еще более компактно. Отсюда, кстати, следует, что информацию, независимо от ее количества и семантики, невозможно отобразить иначе, как точно ее скопировав. Во-вторых, можно думать, что пары объектов «информация и кодируемый ею оператор» относятся к такому классу, где степень сложности отображаемого объекта возрастает тем быстрее, чем больше сложность объекта отображающего. Иными словами, сложность оператора возрастает значительно быстрее количества отображающей его информации, и с ростом количества кодирующей информации разность между сложностью этой информации и соответствующих операторов не уменьшается, а все более возрастает. На примере живых организмов в этом легко убедиться, сопоставив зависимость массы организмов от количества ДНК в гаплоидных наборах их хромосом. Не исключено, что этот феномен имеет прямое отношение к замечанию А. Н. Колмогорова, что даже при достаточно простой структуре отображающего множества программа его реализации может быть столь сложной, что полное ее осуществление практически невозможно. Вероятно, многие из отмеченных выше трудностей и противоречий легко разрешаются, если учитывать предельную ситуацию, когда отображение оператора в информации представляет собой не что иное, как программу его построения, заданную максимально компактным образом. Условность записи такой программы (т.е. ее запись знаками или символами) исключает непосредственное воспроизведение по ней оператора, – это становится возможным только благодаря специальной разверстке такой программы во времени, осуществляемой специальным устройством той информационной системы, к которой информация относится. Поэтому и точность реализации здесь может варьировать, – или, правильнее сказать, точность реализации будет определяться нормой реакции реализующего устройства на сопутствующие факторы. Именно в этом смысле информацию можно рассматривать как алгоритм для построения оператора. Мы уже неоднократно подчеркивали, что никакая информация неспособна самостоятельно индуцировать построение оператора, что, впрочем, непосредственно следует из нематериальности ее природы. Информация может быть реализована в оператор только в своей информационной системе благодаря существованию считывающих и реализующих устройств. Именно считывающее устройство ставит в однозначное соответствие знаки или символы, «заполненные» информацией, с теми или иными элементарными действиями, производимыми реализующим устройством над ресурсами, содержащимися в окружающей среде, что и приводит к созданию оператора. Это обстоятельство, между прочим, очень хорошо иллюстрирует принципиальное значение последовательности считывания информации в ходе ее реализации. Основные типы операторов мы уже упоминали. Это – соматические компоненты живых организмов, поведенческие реакции животных с развитой нервной системой, а в случае человеческих сообществ – присущие им технологические комплексы. Помимо таких «завершенных» операторов, составляющих вместе с относящейся к ним информацией завершенные информационные системы, существует множество информации и операторов промежуточных, или, точнее, соподчиненных, типов, иерархии которых и представляют собой завершенные операторы. Такие субоператоры призваны выполнять целенаправленные действия, являющиеся фрагментами или отдельными элементарными этапами завершенных целенаправленных действий, осуществляемых завершенными операторами. Степень соподчиненности операторов можно проследить в разных конкретных случаях только при рассмотрении всей системы в целом или хотя бы системы следующего после данного оператора более высокого ранга, но не рассматривая разные операторы изолированно от других, с ними сопряженных. Таким образом, мы подошли к возможности дополнить наши представления об информационных системах, изложенные выше (см. главу 2), в двух важных аспектах: такие системы должны включать в себя как считывающие и реализующие устройства, так и продукты их деятельности операторы. Собственно, мы могли бы называть «завершенным оператором» всю совокупность неинформационных компонентов информационной системы, но это будет неверно, ибо она всегда содержит (хотя бы временно) считывающие и реализующие устройства, предшествующие по отношению к вновь создаваемым на основе некоторой данной информации его компонентам; даже если некоторые новые компоненты и будут просто повторять старые, это повторение окажется «молчащим», предназначенным только для следующего информационного цикла. Иерархическое разделение информационных систем на информационные, считывающее-реализующие и операторные субсистемы прекрасно иллюстрируется следующим обстоятельством. Информационные системы можно разбить на два больших класса. Один из них – это информационные системы 1-го рода, все три компонента которых настолько тесно соединены друг с другом, что представляют собой единое целое. Это – живые организмы, от клеток до человека. Второй тип – информационные системы 2-го рода, где информация, считывающе-реализующие устройства и операторы могут существовать и существуют пространственно разобщенно друг от друга, хотя функционировать и развиваться способны лишь совокупно. В наиболее завершенной форме – это человеческие сообщества, где информация представлена в виде книг или других систем записи, в роли считывающих и реализующих устройств нередко выступают сами люди, а в качестве супероператоров – технологии. Об иерархии в информационных системах Б. Б. Кадомцев [2] в своей книге «Динамика и информация» (1997) указывает на иерархию в физических информационных системах. Он проводит следующие рассуждения. Каждая открытая система имеет приток энергии Р и вещества М. Энергия должна поступать в систему в организованной форме, так что вместе с энергией и веществом в систему вводится негэнтропия (-Si). Из системы выводятся во внешнюю среду отходы в виде вещества М и возрастания энтропии внешних систем (-Se). Если система не имеет внутренней структуры, то она ведет себя как однородная система, например горная река. В более сложных системах возможно расслоение на две тесно связанные подсистемы: динамическую и информационную (управляющую). Структурные элементы, которые могут влиять на динамику системы сравнительно малыми возмущениями, выделяются в структуру управления. Таким образом, сложные динамические системы расслаиваются на два уровня иерархии. Подсистема управления может откликаться на смысловую часть приходящих сигналов и вырабатывать управляющие сигналы в динамическую подсистему. Управляющий блок может иметь связь с несколькими динамическими подсистемами. Управляющий, или информационный, блок может использовать негэнтропию, передаваемую из динамических подсистем, либо иметь свой источник, связанный с внешней средой. В случае живых организмов негэнтропией является пища, а для получения информации используется, например, свет. Б. Б. Кадомцев отмечает, что «для информационного поведения сложных физических систем более важной является структурная сложность и структурная иерархия, а не иерархия элементарных уровней (частицы, атомы, молекулы, тела). Элементы информационного поведения появляются даже у микрочастиц в виде коллапсов волновых функций, а по мере укрупнения и усложнения структур к ним добавляются неравновесные коллективные параметры порядка, играющие роль динамических переменных» (стр. 331). Обратимся к живой клетке. Здесь впервые встречается обособленный генетический «управляющий» аппарат (геном клетки). Он реагирует на сигналы из внешней и внутриклеточной среды, связан через трансляцию (см. возникновение генетической информации) с аппаратом гетерокатализа, который обеспечивает построение динамического оператора. В «динамическом блоке» используются вещество и энергия внешней среды. В схеме самовоспроизводящегося автомата фон Неймана, являющегося аналогом живых организмов, присутствуют управляющий информационный блок и динамический, для построения оператора использующий ресурсы внешней среды. Все социальные структуры и сельское хозяйство построены на тех же иерархических принципах. Универсальный автомат фон Неймана Информация, заключенная в своем носителе, сама по себе пассивна: она неспособна ни участвовать в целенаправленном действии, ни перейти на другой носитель, ни осуществить собственное копирование. Чтобы эти события, обеспечивающие само существование информации, стали возможны, требуется наличие специальных материальных объектов – устройств или «машин», которые «умеют» воспринимать или создавать информацию, считывать ее, обеспечивать ее трансляцию с одного носителя на другой, ее копирование, создание кодируемого ею оператора, а также осуществление других действий, необходимых как для выявления присущих информации свойств, так и для обеспечения ее дальнейшего существования. Отдельные операции, совершаемые посредством этих устройств с информацией или при ее участии, можно назвать элементарными информационными актами, их совокупность – информационным процессом, а совокупность устройств, обеспечивающих осуществление такого процесса – информационной системой. Очевидно, что вне информационной системы информация не в состоянии выявить ни одного своего свойства, кроме бренности, – но даже бренность информации здесь выступит не явно, а лишь как следствие разрушения ее носителей. Другими словами, вне информационной системы не только информация обречена на диссипацию, но и само понятие «информация» утрачивает всякий смысл. Очевидно, что все устройства, способные обеспечивать осуществление элементарных информационных актов, так же как и слагаемая ими информационная система, есть не что иное, как операторы, создаваемые на основе некоторой информации, – спонтанно они образовываться не могут. Возникает известный парадокс яйца и курицы: что первично, информация или ее операторы? Попробуем выяснить, каким минимумом свойств (или особенностей) должна обладать простейшая информационная система, способная обеспечить осуществление полного информационного цикла, от считывания информации до ее воспроизведения. Сделать это нам будет нетрудно ввиду прекрасной разработанности этого вопроса – следует лишь обратиться к идеям Дж. фон Неймана, относящимся к самовоспроизводящимся автоматам [3]. В сентябре 1948 г. на симпозиуме «Механизмы мозга в поведении», состоявшемся в Калифорнийском технологическом институте, Дж. фон Нейман прочитал лекцию, которая называлась «Общая и логическая теория автоматов». Основной темой этой лекции был общий анализ структуры такого автомата, или, точнее, автомата такого уровня сложности, который позволял бы ему осуществлять самовоспроизведение. Фон Нейман показал, что такой автомат должен состоять из четырех блоков со следующими функциями (рис. 3).
Рис. 3. Блок-схема самовоспроизводящегося автомата фон Неймана. R - ресурсы, черпаемые из окружающей среды. Пояснения в тексте. Блок А – автоматическая фабрика по сбору сырья (R) и его переработке в продукт, соответствующий задаваемым извне инструкциям (Г). Блок Б – аппарат, снимающий копии с таких инструкций. Блок В – контролирующий аппарат, подключенный одновременно к блокам А и Б: когда в блок В поступают инструкции, они сначала направляются в блок Б для снятия с них копий, а затем – в блок А, где уже осуществляются соответствующие операции по изготовлению конечного продукта из исходного сырья. В случае, если таким «конечным продуктом» является дочерний автомат, он снабжается копией первоначальных инструкций, тогда как их оригинал остается в блоке В исходного автомата. Наконец, имеется еще блок Г, который представляет собой «запоминающее устройство», содержащее полную запись инструкций, обеспечивающих производство блоком А конечного продукта, в том числе дочернего автомата (А+Б+В+Г). Фон Нейман показал, что для создания самовоспроизводящегося автомата структура такого типа является необходимым минимумом. Он предположил также, что такая структура присуща и живым организмам. Заметим, – и это хочется особенно подчеркнуть, – что автомат фон Неймана можно рассматривать с двух точек зрения. Во-первых, так же, как делал сам Дж. фон Нейман, анализируя принцип устройства самовоспроизводящейся технической системы. В этом аспекте инструкции или информация, содержащаяся в блоке В и используемая блоком А для изготовлении копии такого автомата, играет как бы служебную роль, подчиненную цели создания новых блоков А, Б, В и Г. Но можно весь автомат рассматривать и с другой позиции, когда все неинформационные компоненты его, т.е. блоки А, Б, В и Г, выступают в роли операторов по отношению к кодирующей их информации, а совокупность этих блоков, т.е. сам автомат, есть не что иное, как супероператор, обеспечивающий воспроизведение этой информации. Дж. фон Нейман, по-видимому, не был знаком с работой Г. Меллера [4], опубликованной за четверть века до его выступления, в которой живой организм рассматривался как устройство, обеспечивающее воспроизведение кодирующих его генетических структур. Если посмотреть на автомат фон Неймана с этой точки зрения, то его с полным правом можно интерпретировать как подобное же устройство, осуществляющее воспроизведение кодирующей его информации. Поэтому-то автоматы фон Неймана и можно рассматривать как простейшие информационные системы. Термин «простейший» здесь используется в смысле «элементарный», чтобы подчеркнуть дальнейшую неделимость системы, способной обеспечивать воспроизведение информации. Очевидно, что анализ строения и функционирования такой информационной системы следует проводить, постоянно имея в виду функциональную специфику отдельных блоков автомата фон Неймана и характер их взаимодействия друг с другом. Однако это еще не все выводы, которые можно сделать из упомянутой работы Дж. фон Неймана. Используя идеи А. Тьюринга [5], Дж. фон Нейман показал, что теоретически возможен универсальный автомат, т.е. механизм такой степени сложности, которой при наличии правильно заданных инструкций может выполнять операцию любого другого механизма. Иными словами, на определенном этапе эволюции самовоспроизводящихся автоматов для выполнения все более сложных операций уже исчезает необходимость дальнейшего усложнения структуры самих автоматов. Для этого оказывается достаточным задавать все более подробные и сложные инструкции I. Эволюция автоматов уступает место эволюции информации. Универсальный автомат фон Неймана может, конечно, и самовоспроизводиться. Для этого достаточно включить его в качестве блока А в описанную выше систему. Дж. фон Нейман считал, что именно потому, что логически возможен универсальный автомат, возможна и бесконечная биологическая эволюция. Отпадает необходимость переделывать основные механизмы биосинтеза по мере перехода от простых организмов к более сложным. Необходимо только модифицировать и расширять генетические инструкции. Все, что было открыто нового об эволюции биологических систем после 1948 г., подтверждает правоту Дж. фон Неймана. Очевидно, что эволюцию информационных систем от простейших к универсальным можно вполне трактовать как эволюцию природных автоматов фон Неймана. Потенциальные и реальные носители информации Выше мы коротко рассматривали те особенности физических объектов, которые позволяют им быть носителями информации (см. главу 2). Один из выводов, полученных нами, был тот, что в качестве носителя информации может выступать любое физическое тело. Из сказанного в предыдущем разделе следует, однако, что реальный носитель информации должен отвечать еще двум, в дополнение к рассмотренным выше, требованиям: допускать возможность записи информации некоторым данным способом и допускать возможность считывания информации также заранее заданным способом. Иными словами, реальный носитель информации должен строго соответствовать своей информационной системе. Носители информации и информационные системы должны быть комплементарны друг другу. Рассмотрим четыре типа информационных систем, в соответствии с которыми можно выделить четыре комплементарные им группы носителей информации. Первая группа – это носители генетической информации. К ним относятся молекулы РНК, односпиральной ДНК и двуспиральной ДНК. «Вписывание» генетической информации в эти носители происходит в процессе трансляции, осуществляемой по матричному принципу, и лишь в качестве исключения (как реликт? или прообраз будущего?) существует система «РНК – обратная ревертаза – ДНК» – пока единственный пример перевода информации с одной системы записи на другую в генетических информационных системах. Вторая группа – это носители поведенческой информации. Здесь уже следует различать носители, используемые для реализации (и хранения) такой информации, и носители, используемые для ее передачи. Носители, используемые для хранения и реализации поведенческой информации, – это неизвестные пока структуры нервных клеток или нервной системы в целом, с соответствующими считывающими устройствами. Для передачи поведенческой информации используются другие носители: в случае генетически-детерминированных поведенческих реакций – носители первой группы, а в случае поведенческих реакций, приобретаемых в ходе индивидуальной жизни, – электромагнитные (световые лучи) и воздушные (звуки) колебания, а также ряд химических соединений, имеющих специфические запахи. Существуют специальные приспособления – рецепторы –воспринимающие такую информацию и переводящие ее в ту форму записи, которая может сохраняться и быть использована нервной системой. При рассмотрении носителей второй группы, предназначенных для передачи индивидуальной поведенческой информации, возникает интересный вопрос: в каких ситуациях их можно рассматривать как действительно носители информации, а в каких – как простые «сигналы», т.е. воздействия внешней среды, лишь запускающие реализацию тех или иных предсуществующих информационных программ? Вопрос этот не тривиальный и относится к одной из важнейших особенностей развивающихся информационных систем – к способам обмена информацией. Можно думать, что в эволюции способов обмена поведенческой информацией решающее значение принадлежало использованию рецепторов, первоначально предназначавшихся для совершенно другой цели, а именно для восприятия различного рода внешних воздействий, таких, как световые, звуковые, химические и температурные, которые иногда и называют двусмысленным термином «сигналы». Такие воздействия, или сигналы, могли последовательно играть три разные роли: непреднамеренного свидетельства (следы), преднамеренного свидетельства («Это моя территория!») и примера для подражания. Во всех трех случаях это то, на основании чего у реципиента может создаваться новая информация. Но лишь в третьем случае сигнал превращается в средство (или способ) передачи уже существовавшей информации от донора к реципиенту, приобретая тем самым функцию носителя информации. Разнообразие физических объектов, служащих таковыми во второй группе носителей, как мы знаем, ограничено. Третья группа – это носители информации, специфически используемые для передачи человеческого знания, за исключением технических систем связи. Помимо носителей информации второй группы сюда относятся все те физические тела, на которых (и с помощью которых) можно записывать сообщения. При огромном разнообразии потенциальных носителей такого рода использование их, во-первых, стереотипно, а во-вторых, всегда играет промежуточную роль, с последующим переводом на носители второй группы. Возникновение языка, однако, в отличие от сигнального типа общения, было прорывом информации за пределы собственных информационных систем как в пространство, так и во время. К четвертой группе носителей могут быть отнесены те атрибуты технических систем связи, которые не воспринимаются непосредственно органами чувств (как носители второй и третьей групп) и практически не генерируются живыми организмами. Информация, содержащаяся в таких носителях, чтобы быть в такие носители включенной или, чтобы быть воспринятой живыми организмами, требует обязательного трансформирования с помощью технических же систем приема или передачи. Это, прежде всего, электромагнитные колебания диапазона радиоволн, магнитозаписи и т.д. Вовлечение их в информационные циклы не принесло (по крайней мере до сих пор) ничего принципиального нового по сравнению с использованием носителей третьей группы, но чрезвычайно усилило потенции, в них заключавшиеся. Это относится, прежде всего, к скорости и расстоянию передачи информации, к возможностям ее хранения, а также к расширению круга возможных адресатов. Прием, хранение и передача информации. Память Таким образом, использование тех или иных потенциальных носителей информации в качестве ее реальных носителей целиком и полностью обусловливается особенностями соответствующих информационных систем. Информационными, как договорились, будем и впредь называть системы, способные самостоятельно осуществлять полный информационный цикл, т.е. воспроизведение кодирующей их информации, а поэтому выступающие по отношению к такой информации как системы, обеспечивающие ее существование. Мы уже говорили, что воспроизведение информации обычно происходит путем самовоспроизведения всей системы. Каждое новое поколение информационной системы призвано воспринимать информацию, для этого подготовленную, сохранять ее до следующего акта воспроизведения, а затем передавать дальше. Эти три элементарных информационных акта являются необходимыми условиями существования любой информационной системы. Мы помним, что информация сама по себе пассивна. Следовательно, каждый из этих информационных актов нуждается в физическом устройстве, обеспечивающем его осуществление. Помимо этого, каждая информационная система обладает устройством, осуществляющим реализацию информации – построение кодируемых ею таких же систем или их компонентов. Принцип работы реализующего устройства мы рассмотрим ниже, сейчас же отметим, что информация, предназначенная для реализации, может быть записана либо на таком же носителе, что и принимаемая, хранящаяся и передающаяся, либо на носителе какой-либо иной природы. Первый случай достаточно прост и в специальном рассмотрении не нуждается. Второй же случай предполагает существование устройств, осуществляющих перевод информации с одних носителей (систем записи) на другие, а именно на те, которые допускают ее реализацию. Осуществление такого перевода будем называть пониманием информации. При обсуждении процесса передачи и понимания информации необходимо учесть следующие обстоятельства. Первое: принимающее устройство «поймет» только ту часть сообщения, которая будет адекватна его собственной семантике. Второе – передача информации всегда сопряжена с потерями информации за счет естественных необратимых помех во внешней среде. Для того, чтобы сохранить передаваемую информацию, необходимо увеличить запас информации принимающего устройства. Тогда в процессе записи новой информации часть запаса приемника может быть потеряна из-за диссипативных взаимодействий с внешней средой. Эти замечания накладывают ограничения на принимающие устройства: они должны обладать той же семантикой и большим запасом информации или быть на более высокой иерархической ступени эволюции. Только существование устройств, осуществляющих перевод информации с одних систем записи на другие, позволяет использовать для передачи, хранения и реализации информации разные носители. Возникновение таких устройств в ходе развития информационных систем было настоящей революцией. Одним из следствий этого было появление носителей с чрезвычайно большой продолжительностью жизни, а затем использование подобных носителей для хранения информации, вне зависимости от особенностей создающих ее и использующих информационных систем. Так возникли «блоки памяти», или «банки данных», предназначенные для хранения информации, запасенной впрок. Другим следствием появления долгоживущих носителей было резкое расширение возможностей обмена информацией между информационными системами с разными способами ее фиксации. На базе того и другого и образовались технические системы связи, положившие начало «великому объединению» многочисленных разрозненных информационных систем в единую суперсистему, свидетелями чего мы и являемся. Закономерности передачи информации по различным каналам связи достаточно подробно рассматривает классическая или шенноновская математическая теория связи [6], и мы здесь этого касаться не будем. Отметим лишь универсальность этих закономерностей для любых информационных систем. В основе таких закономерностей, помимо рассмотренных выше свойств информации, лежит также принцип линейной последовательности передачи и приема, а также записи информации. Если прибавить к этому еще и линейный принцип считывания информации в ходе ее реализации, то станет ясно, что принцип этот лежит в основе всех трансформаций, которым может подвергаться информация в ходе осуществления информационных процессов. Таким образом, по особенностям приема, хранения и передачи информации все информационные системы можно подразделить на два класса. Информационными системами 1-го рода будем называть те, где для всех трех основных информационных актов, а также для реализации информации используются одни и те же системы записи или идентичные физические носители. Информационными системами 2-го рода будем называть те, где для осуществления разных информационных актов могут быть использованы и действительно используются разные носители. Переход от первых ко вторым был обусловлен возникновением устройств, обеспечивающих перевод информации с одних физических носителей на носители другой физической природы. Нетрудно видеть, что подразделение информационных систем по этому признаку полностью совпадает со сделанным выше подразделением по признаку «прочности связи» отдельных блоков автомата фон Неймана. Это совпадение, конечно, совершенно естественно. Считывание и понимание информации Будем различать считывание информации и ее понимание, восприятие или рецепцию некоторой информационной системой. «Считыванием» будем называть первый этап процессов, завершающихся либо переводом информации с носителей одной физической природы на носители другой физической природы, либо реализацией информации в оператор. «Пониманием», как мы уже говорили, будем называть перевод информации с какой-либо группы носителей на тот носитель (или систему записи), который делает ее пригодной для реализации. Таким образом, понимание информации предполагает возможность ее считывания, хотя само считывание далеко не всегда может сопровождаться ее пониманием. Очевидно, что понимание информации возможно только для информационных устройств 2-го рода, которые способны понимать информацию не только друг друга, но и ту, которая присуща информационным системам 1-го рода. Последние из-за отсутствия у них соответствующих устройств к пониманию чужеродной информации не способны. Считывание информации может осуществляться двумя способами: когда считываемая информация сохраняется и, следовательно, может считываться неоднократно и когда информация в процессе ее считывания исчезает, разрушаясь буква за буквой или фраза за фразой. Как тот способ, так и другой могут быть использованы и при переводах, и при реализации информации. Очевидно, что реализация информации по второму способу предполагает наличие в этой же информационной системе одной или нескольких интактных копий этой информации, пригодных для введения в систему следующего поколения. Очевидно, что возникновение устройства, пригодного для считывания информации в ходе ее реализации и являющегося необходимым компонентом любой информационной системы, должно было предшествовать возникновению устройства, пригодного для перевода информации с носителей одной природы на носители другой природы. Вероятнее всего, первое устройство явилось прототипом второго или даже прямым его предшественником, так как перевод любой информации можно, вообще говоря, трактовать как вырожденную ее реализацию. Репликация информации: матричный принцип Матричный принцип репликации информации, впервые описанный Н. К. Кольцовым [7], играет столь большую роль в размножении и динамике как самой информации, так и информационных систем, что на нем следует остановиться подробнее. Суть матричного принципа состоит в том, что сначала с носителя информации изготавливается как бы слепок или негатив, а затем по нему воспроизводится точная копия исходного носителя. Антитезой матричному принципу может служить только принцип гомологичной аттракции, который в природе, кажется, реализации не получил. Матричный принцип и принцип гомологичной аттракции, по-видимому, исчерпывают логические возможности точного воспроизведения объектов, максимально компактным описанием которых могут служить они сами. Точность такого воспроизведения, однако, не может быть абсолютной – тривиальные термодинамические соображения показывают неизбежность ошибок, и речь может идти лишь об их количестве или частоте. Как и при любых других способах воспроизведения «чего угодно», здесь возможны ошибки двух типов: ошибки, не влияющие на успешность воспроизведения, и ошибки, препятствующие ему. Первые можно назвать «наследуемыми», а вторые «летальными», ибо они прерывают цикл воспроизведения испытывающих их информации и тем самым обрекают эти информации на гибель. Если считать, что вероятность возникновения одной ошибки постоянна на одну букву сообщения, то, следовательно, вероятность ошибки на сообщение в целом будет возрастать с его длиной, т.е. с величиной емкости информационной тары, это сообщение содержащей. Если частота таких ошибок приближается к критическому значению, все большие преимущества будут получать наследуемые изменения, снижающие частоту этих ошибок или помогающие компенсировать их в случае возникновения, – способ репликации будет совершенствоваться в направлении повышения его точности при параллельном (или независимом) развитии систем, обеспечивающих исправление или репарацию информации от возникающих ошибок или повреждений. В этом процессе интересная роль должна принадлежать недозагруженной емкости информационной тары. Изменения, в ней происходящие, могут иметь либо летальный характер, и тогда они неотличимы по последствиям от подобных изменений самой информации, либо могут приводить к возникновению новой информации, т.е. к увеличению количества информации, содержащейся в данном носителе. Таким образом, разность «Н-В» может оказаться не балластной, а сыграть роль источника сырья при «построении» новой информации. Как уже отмечалось, уменьшение выхода ошибок при матричном воспроизведении информации возможно не только путем их предотвращения в результате совершенствования механизмов копирования, но также путем следующего за копированием исправления уже возникающих ошибок. Для этого, очевидно, требуется такие ошибки выявлять, что может быть осуществлено путем сопоставления новых копий либо с некоторым эталоном, либо нескольких копий между собой. Эталоном может служить либо образец, подлежащий копированию, либо «шаблон», непосредственно не относящейся к носителям самой информации. Шаблонный способ может служить лишь для отбраковки любых изменений, – и где он возникает, прекращается вообще изменчивость информации, а следовательно, и ее эволюция. Остается сопоставление копии с исходным образцом или с другими копиями. То и другое может помочь выявить изменение, а точнее – различие между несколькими экземплярами носителей одной и той же информации, но решить, какое из них – исходное, а тем более – «правильное», а какое – новое или «ошибочное», невозможно без специальных устройств или шаблонов. Поэтому коррекция ошибок может осуществляться двумя путями – путем исправления нового образца, если его можно отличить от старого, и путем «исправления» в любом из двух образцов, т.е. путем делания их одинаковыми либо возвращая к исходному варианту, либо внося вновь появившееся изменение и в исходный, старый образец. Можно полагать, что меры по стандартизации реплик будут обходиться тем «дороже», чем большая точность к ним предъявляется, и в реальной ситуации дело должно ограничиваться «сходной ценой»: снижением частоты летальных изменений до некоторого «удовлетворительно переносимого» уровня. Автоматизм этого механизма очевиден и в детальном рассмотрении не нуждается. Результатом будет элиминация грозящих «вымиранием» информации летальных изменений и закрепление в новых поколениях информации изменений нелетальных. Все это будет приводить к некоторому постоянно идущему процессу спонтанной изменчивости информации. Механизмы такой изменчивости для информационных систем разных типов могут различаться. Репликация информации: способы и устройства Для анализа способов репликации информации и устройств, это осуществляющих, большое значение имеет та особенность информации, на которую выше уже обращалось внимание. Особенность эта состоит в том, что при достаточно компактной записи информации ее невозможно задать более коротким текстом. Иными словами, информация представляет собой класс таких объектов, которые нельзя закодировать более короткими последовательностями символов, нежели те, которые их задают, независимо от их числа. Хотя это утверждение абсолютно справедли
|