Головна сторінка Випадкова сторінка КАТЕГОРІЇ: АвтомобіліБіологіяБудівництвоВідпочинок і туризмГеографіяДім і садЕкологіяЕкономікаЕлектронікаІноземні мовиІнформатикаІншеІсторіяКультураЛітератураМатематикаМедицинаМеталлургіяМеханікаОсвітаОхорона праціПедагогікаПолітикаПравоПсихологіяРелігіяСоціологіяСпортФізикаФілософіяФінансиХімія |
Необхідних до виконання завдань з «Основ римського приватного права» при підготовці до 6-го семінарського заняттяДата добавления: 2015-03-11; просмотров: 512
Введение понятий энтропии, количества информации, скорости выдачи информации источником, избыточности позволяют характеризовать свойства информационных систем. Однако для сравнения информационных систем только такого описания недостаточно. Обычно нас интересует не только передача данного количества информации, но передача его в возможно более короткий срок; не только хранение определенного количества информации, но хранение с помощью минимальной по объему аппаратуры и т.п. Пусть количество информации, которое передается по каналу связи за время Т равно . Если передача сообщения длится Т единиц времени, то скорость передачи информации составит . Это количество информации, приходящееся в среднем на одно сообщение. Если в секунду передается n сообщений, то скорость передачи будет составлять . Пропускная способность канала есть максимально достижимая для данного канала скорость передачи информации: (3.3) Или максимальное количество информации, передаваемое за единицу времени: Скорость передачи может быть технической или информационной. Под технической скоростью VT, называемой также скоростью манипуляции, подразумевается число элементарных сигналов (символов), передаваемых в единицу времени бод. Информационная скорость или скорость передачи информации, определяется средним количеством информации, которое передается в единицу времени и измеряется (бит/сек). R=nH. Для равновероятных сообщений составленных из равновероятных взаимно независимых символов В случае если символы не равновероятны В случае если символы имеют разную длительность (3.4) Выражение для пропускной способности отличается тем, что характеризуется максимальной энтропией бит/сек Для двоичного кода бит/сек Пропускная способность является важнейшей характеристикой каналов связи. Возникает вопрос: какова должна быть пропускная способность канала, чтобы информация от источника X к приемнику Y поступала без задержек? Ответ на этот вопрос дает 1ая теорема Шеннона. 1.Теорема Шеннона Если имеется источник информации с энтропией Н(х) и канал связи с пропускной способностью С, то если С > H(X), то всегда можно закодировать достаточно длинное сообщение таким образом, что оно будет передано без задержек. Если же, напротив, С < H(X), то передача информации без задержек невозможна. В любом реальном канале всегда присутствуют помехи. Однако, если их уровень настолько мал, что вероятность искажения практически равна нулю, можно условно считать, что все сигналы передаются неискаженными. В этом случае среднее количество информации, переносимое одним символом равно I(X,Y)=I(X,X)=H(X). Максимальное значение Hmax=log m. Следовательно, пропускная способность дискретного канала без помех за единицу времени равна . Реальные каналы характеризуются тем, что на каналы всегда воздействуют помехи. Пропускная способность дискретного канала с помехами вычисляется по формуле C =n[H(Y)-H(Y/X)]max . Где средняя, условная энтропия со стороны приемника сигналов А энтропия принимаемых сигналов определяется из условия максимального значения H(y)= log m. Пример 3.1. Пусть требуется определить пропускную способность бинарного канала связи. При этом с вероятностью p каждый из двоичных сигналов может перейти в противоположный сигнал .
На рис.3.2 представлена модель передачи бинарных сигналов 1-p вероятность неискаженной передачи сигналов p вероятность искажения сигналов Рис.3.2. Симметричный канал передачи сигналов в условиях помех, где x1 и х2 передаваемые сигналы типа “0” или “1”, y1 и y2, принимаемые сигналы
|