Студопедия — Хроматическое определение информации
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Хроматическое определение информации






При взаимодействии светового потока s с селективно поглощающим образцом приближение (6) включает поглощаемую al и пропущенную tl компоненты. Вместе с тем информационный поток нередко также подразделяют на компоненты связанной и свободной информации. При этом под связанной принято понимать такой вид информации, который коррелирует с составом компонентов и межкомпонентных взаимодействий по типу относительно устойчивых функциональных состояний систем, обладающих внутренней структурной информацией (Н. Винер).

Отсюда следует, что формализация семантики светоцветовых потоков является наиболее актуальной для адекватной семантизации именно связанной информации. Поэтому в первом приближении моделирование информационных кодов цветового пространства можно свести к его представлению через относительную сумму длин волн li как функцию lо. При этом очевидное условие согласования алфавитов излучения и вещества дает возможность определения свободной t и связанной a информации по формуле

slо = al1 + tl2. (16)

Здесь lо — длина волны, определяющая доминирующий цвет распределением вероятностей li в; l1 и l2 — длины волн (коррелирующие с парой дополнительных цветов), которые с вероятностями a и t при аддитивном сложении дают ахромный (белый) цвет излучения slо; s, a и t — относительные количества исходной, связанной и свободной информации, которые могут быть представлены спектральными коэффициентами яркости, поглощения и отражения, соответственно.

Вообще говоря, энергия, энтропия, а, следовательно, и информация относятся к экстенсивным величинам, что легко доказывается в системе размерностей [LIT], где за основные величины приняты L — пространство, I — информация, T — время[mcccxvi]. Отсюда вытекает, что в качестве информационных атрибутов могут быть использованы любые экстенсивные относительные величины типа яркости, потока или плотности излучения.

Согласно равенству (16), коэффициенты s, a и t можно полагать вероятностями осуществления релевантных кодов li. Действительно, поскольку они моделируют относительное количество информации в потоке, то могут быть представлены в виде отношений

s = I 0 / I 0; t = I / I 0 и a = (I 0 — I) / I 0. (17)

Здесь I0 — исходное количество информации (на входе); I — количество преобразованной в системе информации, которую можно отнести к свободной (на выходе); (I 0 — I) — количество связанной в системе информации.

Таким образом, именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и / или свободных состояний информации в системе. Обратим внимание на величину a, смысл которой в (2) явно коррелирует с законом Бугера-Вебера, где I0 — величина “адаптированного” раздражителя; I0 — I — разностный порог. Иначе говоря, вероятность a может характеризовать искомую связь между объективными, по формуле (17), и субъективными, по закону Бугера-Вебера, величинами для одномерных сенсорных раздражителей.

В соответствии с этим отнесением t может определять характер свободной (то есть, не взаимодействующей по коду l1 с компонентами системы) информации. Согласно же теории вероятностей, величина 1/t будет определять негэнтропийный активный (актуализированный) характер связанной информации, которая взаимодействует с компонентами системы по коду l1. Отсюда вытекает хроматическое определение “информации”[mcccxvii], которое подразумевает учет и энтропийных, и негэнтропийных характеристик сигнала: информация — это согласованное распределение вероятностей источника по релевантным кодам связанных и свободных состояний приемника.

Согласно закону сохранения энергии, это определение позволяет представить известное условие нормировки вероятностей как принцип сохранения вероятностей состояний в замкнутой системе:

s = a + t = 1. (18)

Принцип (18) в приближении (16) позволяет оценить относительные количества связанной a и свободной t информации по заданным (17) кодам li:

a = (l2 — l0) / (l2 — l1), t = (l0 — l1) / (l2 -l1), (19)

где a и t характеризуют отношения одноименных величин в виде разностей, которые включают их распределение по взаимосогласованным кодам li. Как следует из формул (8) и (19), разности величин l1, l2 для r и t оказываются идентичными в заданном приближении.

В соответствии с равенствами (17) и (19) несложно выразить количество исходной I0, связанной Ia и свободной It информации в абсолютных единицах через разности распределения вероятностейli:

I0 = il (l2 — l1), Ia = il (l2 — l0), It = il (l0 — l1), (20)

где il — спектральная плотность информации, бит×нм–1.

Приведенные зависимости позволяют предположить возможным принцип сохранения информации в замкнутой системе (I0 = Ia + It). Сопоставление этих определений с представленными выше данными по оппонентной теории цветовосприятия показывает, что информация, которую пропускает (отражает) образец, определяется разностью между распределением вероятностей исходной l0 и связанной l1 информации. По-видимому, именно в силу оппонентного характера цветовосприятия исходное количество информации I0 определяется не суммой распределения вероятностей (l2+ l1), а разностью (l2 — l1), как это следует из формулы (20).

Согласно закону Бугера-Ламберта, ослабление излучения на элементарном слое вещества пропорционально потоку излучения и толщине этого слоя. Следовательно, исходное количество информации Io после прохождения сигнала (физического процесса, несущего информацию) через элементарный компонент dc системы С уменьшается на dI, откуда

– dI = k(l) Io dс, (21)

где k(l) — относительное уменьшение информационного потока на единичном компоненте c, то есть количество информации, которое поглощается в единицу времени единичным компонентом системы. Поскольку k(l) определяется согласованием свойств потока и системы, далее можно называть эту величину показателем связывания информации системой.

В силу того, что величина k(l) связана с уровнем согласованности алфавитов информационного потока Io и компонентов системы с по длине волны li, можно допустить полное согласование, то есть постоянство k(l) для ахромного потока и системы однородных компонентов и, следовательно, интегрировать равенство (21). Отсюда получаем относительную величину информационного пропускания Т

Т = ln(It / Io) = — k(l) с, (22)

или, согласно (17)

t = exp [–k(l) с], (23)

где t — коэффициент свободной информации, согласованный в (20) по коду l2; k(l) — показатель связывания информации, согласованный по коду l1; с — число компонентов системы, на которое приходится k(l) связанной информации.

Легко показать смысловую связь определения (22) с законом Вебера-Фехнера, с одной стороны, и с формулой Хартли для количества информации, с другой. Это позволяет величину k(l) измерять в битах (в двоичной системе счисления k(l)2 = 3,32 k(l)) при измерении с в бит–1.

Согласно формулам (16), (19) и (23), величина информационного пропускания T коррелирует с вероятностным отношением свободной It к исходной Io информации. Это дает основание распространить свойство аддитивности на величину k(l):

= – сi–1 log2 t. (24)

Здесь å k(l)i — суммарный показатель (связанной компонентами сi) информации, то есть количество информации, бит; сi — количество компонентов системы, приходящееся на k(l) бит информации согласно их согласованности, по формуле (22); t — вероятности состояний с распределением вероятностей по коду пропускания l2 в приближении (16).

Рассмотрение частных случаев зависимости k(l,t) для источника белого света и ахромных цветов приемника приводит к следующим результатам:

· для белого цвета, то есть при t = 1 количество связанной информации k(l) = 0,

· для черного цвета, то есть при t ® 0 величина k(l) ® 0 и

· для средне-серого цвета, то есть при t = a величина k(l) =1.

Эти данные позволяют предположить определенную общность функции (24) с известным представлением количества информации, по Шеннону[mcccxviii]:

Н = – рi log2 рi, (25)

где Н — количество информации в сообщении, включающем i состояний с вероятностями рi.

· Действительно, согласно формуле (25), при замене состояния неопределенности состоянием полного знания (то есть, когда вероятности выборов всех символов, кроме одного, равны нулю, а вероятность выбора этого символа равна 1), получаем Н=0, что и было показано для белого цвета, по формуле (24).

· При выборе символов из неизвестного получателю алфавита, то есть при полном отсутствии знаний, по формуле (25) получаем Н®0, что мы получили для черного цвета по формуле (24).

· И, наконец, как и для серого цвета, максимальное значение Н=1 достигается по формуле (25) при равновероятных символах.

Вместе с тем, между формулами (24) и (25) наблюдаются и существенные расхождения. Во-первых, согласно научной традиции и теории размерностей, вероятность (как отношение безразмерных и / или одноименных величин) не может обладать размерностью или порождать ее.

Во-вторых, соотношение (25) является безразмерностным, что противоречит собственно семантике “информационной энтропии” в любой системе размерностей и единиц измерения.

И, наконец, в-третьих, “информационная энтропия” может быть соотнесена с реальной термодинамической энтропией только при 0 0К, где и могут быть уравнены термодинамическая и математическая вероятности, что, как известно, всегда затрудняло семантическую интерпретацию соотношения (25).

Соотношение же (24) на основе хроматической модели позволило представить как собственно понятие “информация”, так и распределение информационных потоков между источником и приемником. Безусловно, информационная модель теории оппонентного цветовосприятия требует дальнейшей корректировки.

 







Дата добавления: 2015-06-15; просмотров: 381. Нарушение авторских прав; Мы поможем в написании вашей работы!



Шрифт зодчего Шрифт зодчего состоит из прописных (заглавных), строчных букв и цифр...

Картограммы и картодиаграммы Картограммы и картодиаграммы применяются для изображения географической характеристики изучаемых явлений...

Практические расчеты на срез и смятие При изучении темы обратите внимание на основные расчетные предпосылки и условности расчета...

Функция спроса населения на данный товар Функция спроса населения на данный товар: Qd=7-Р. Функция предложения: Qs= -5+2Р,где...

Конституционно-правовые нормы, их особенности и виды Характеристика отрасли права немыслима без уяснения особенностей составляющих ее норм...

Толкование Конституции Российской Федерации: виды, способы, юридическое значение Толкование права – это специальный вид юридической деятельности по раскрытию смыслового содержания правовых норм, необходимый в процессе как законотворчества, так и реализации права...

Значення творчості Г.Сковороди для розвитку української культури Важливий внесок в історію всієї духовної культури українського народу та її барокової літературно-філософської традиції зробив, зокрема, Григорій Савич Сковорода (1722—1794 pp...

Ваготомия. Дренирующие операции Ваготомия – денервация зон желудка, секретирующих соляную кислоту, путем пересечения блуждающих нервов или их ветвей...

Билиодигестивные анастомозы Показания для наложения билиодигестивных анастомозов: 1. нарушения проходимости терминального отдела холедоха при доброкачественной патологии (стенозы и стриктуры холедоха) 2. опухоли большого дуоденального сосочка...

Сосудистый шов (ручной Карреля, механический шов). Операции при ранениях крупных сосудов 1912 г., Каррель – впервые предложил методику сосудистого шва. Сосудистый шов применяется для восстановления магистрального кровотока при лечении...

Studopedia.info - Студопедия - 2014-2024 год . (0.014 сек.) русская версия | украинская версия