Некоторые сведения из теории случайных функций
Как правило, при выполнении измерений динамических процессов мы имеем дело со случайными сигналами. К числу таких сигналов следует отнести все результаты измерений параметров движения таких объектов как корабль, самолёт, ракета, подв. лодка. Очевидно, что если мы проектируем аппаратуру, работающую на этих объектах, например системы управления антенной локатора или орудий, то возмущающие воздействия на неё носят случайный характер. Отметим и то, что вибрация различных механизмов, (мостов, станков, рельс и др.) также носит случайный характер. Таким образом целесообразно рассмотреть подробнее математический аппарат, используемый для описания случайных процессов. Случайный процесс называют стационарным, если все моменты его распределения (мат. ожидание, дисперсия, СКО и т.д.) не изменяются при любом сдвиге начала отсчета вдоль оси времени. С физической точки зрения это означает, что стационарный случайный процесс имеет место при таком режиме, когда все условия, определяющие протекание этого процесса, не изменяются с течением времени. Например, в том случае, если морское волнение или вибрация станка являются установившемся, то есть не развивающемся и не затухающим то его можно принять стационарным. Основные свойства случайной функции достаточно точно определяются математическим ожиданием и корреляционной функцией. Следует отметить, что если математическое ожидание ординат процесса равно нулю, то такой процесс называется центрированным. Таким образом, бортовая, килевая, вертикальная качка надводного корабля и рыскание есть центрированные процессы. Если случайная функция является нормальной, т.е. она подчинена нормальному закону распределения то математическое ожидание и корреляционная функция полностью ее определяют. Корреляционная функция Рис. Стационарный случайный процесс
Если математическое ожидание случайного процесса
Зная Корреляционная функция и спектральная плотность стационарного случайного процесса связаны следующим соотношением:
Откуда можно получить выражение для
Выражение (12) это прямое преобразование Фурье, а (13) обратное. Дисперсия
Так как случайная функция зная дисперсию можно определить и среднее квадратическое значение углов качки: Корреляционная функция Это свойство стационарного случайного процесса называется эргодичностью. Таким образом, математическое ожидание суммы нескольких отрезков реализации можно заменить математическим ожиданием длительной реализации. Действительно, если мы возьмем записи качки судна за малое время, то будем иметь математические ожидания отличные от нуля. Их сумма даст нулевое значение. Аналогичное значение можно получить обработкой длительной по времени реализации, т.е. где М — символ. мат. ожидания; Т — интервал времени характеризующий всю кривую Приближенно при достаточно большом времени реализации:
Формула (15) и применяется при обработке реализации на компьютере с целью получения корреляционной функции процесса. При т.е. при В том случае, если мы возьмем отношение На рис. приведена нормированная корреляционная функция Функция показывает, что Рис.. Нормированная корреляционная функция
В том случае, если нас интересует статистическая взаимосвязь двух стационарных случайных процессов, например ординат рыскания и килевой качки, то необходимо рассматривать взаимные корреляционные функции. В общем случае выражения для взаимно корреляционных функций имеют вид: В том случаи, если мы говорим о рыскании и килевой качке Взаимная корреляционная функция характеризует связь двух разных случайных процессов между собой в различные моменты времени, отстоящие друг от друга на величину Таким образом, следует запомнить, что корреляционной функцией стационарного случайного процесса называется среднее во времени значение за промежуток времени Как было сказано ранее выражение (12) и (13) связывают корреляционную функцию со спектральной плотностью. Если имеются две случайные функции х(t) и y(t), то можно определить взаимные корреляционные функции В завершении рассмотрения вопроса следует отметить, что если ординаты процесса подчиняются нормальному закону распределения, то можно записать для них Учитывая зависимость между дисперсией
Основные понятия теории информации.
Из теоремы Котельникова следует очень важный вывод о том, что передача всех значений сигнала не обязательна, если у него ограниченный спектр. Очевидно, что сигнал имеет ценность для получателя лишь тогда, когда он неизвестен получателю, т.е. несёт определенные новые сведения. В 1928 году Хартли предложил определять количество информации J(x) в сообщении о некотором событии, как логарифм от функции, равной единице, деленной на вероятность появления этого события.
где P(x)- вероятность наступления события x; а - основание логарифма Так как 0< P(x) Очень важно знать значение среднего количества информации на одно сообщение источника, которое математически совпадает с энтропией H(x). Понятие об энтропии введено К.Шенноном. Энтропия H(x)- это мера неопределённости исхода случайного опыта или события по определению Шеннона. В измерительной технике под энтропией понимают меру, которая характеризует степень неопределенности системы. Источник информации, например датчик, может передать m сообщений x1; x2 … xm с вероятностью нахождения источника в соответствующем состоянии P(x1); P(x2)…P(xm), т.е. P(xm) характеризует погрешность датчика или достоверность сообщения. Количество информации и неопределенность для всей совокупности случайных сообщений можно получить усреднением. где
Единицы измерения энтропии и информации зависят от выбора основания логарифма. При использовании десятичных логарифмов энтропия измеряется в дитах, двоичных логарифмов, т.е. с основанием 2 – в битах, натуральных ln, т.е. с основанием е в нитах 1 нит= 1, 44269 бит, 1 дит=3, 32193 бит. В связи с тем, что цифровая техника основана на передаче сигнала, шифрованного двумя состояниями потенциала, т.е. нулём и единицей в цифровой технике распространены биты. Детальное и строгое исследование энтропии как меры неопределенности было проведено А.Я.Хинчиным. Он определил следующие свойства энтропии:
- Энтропия не может быть отрицательной величиной и для системы с конечным числом состояний всегда конечна; - Энтропия равняется нулю, когда рассматриваемая система имеет достоверное событие; - Энтропия имеет максимальное значение, если все события равновероятны; - Энтропия объединённой системы равна сумме энтропий каждой из систем.
Отметим, что как, правило, измерительный или информационный сигнал отягощён шумом. Если на вход канала передачи информации подаётся сигнал с энтропией H(x), а шум в канале имеет энтропию т.е. меньше энтропии передаваемого сигнала на величину энтропии шума. Важной характеристикой передаваемых сигналов является избыточность. Если реальный сигнал для передачи определённого количества информации J(x) имеет n символов, а его передачу можно было произвести с минимально возможным числом символов nmin, то этот источник сообщений обладает избыточностью с коэффициентом избыточности где Избыточность также определяют через энтропию источника сообщений
где Hmax(x)- энтропия оптимального сообщения; H(x)- энтропия реального сообщения. Для уменьшения избыточности необходимо увеличить энтропию сообщения. Избыточность увеличивает время передачи и повышает помехоустойчивость сообщений. Во многих случаях информация о каком-либо явлении получается опосредованно, в результате наблюдения другого явления, связанного с первым. К таким случаям можно отнести многие измерения. Например, часто о местонахождении корабля или самолёта судят не по результатам непосредственного наблюдения, а по показаниям приборов. Между местоположением корабля или самолёта и показаниями прибора существует определённая связь. Однако, наличие внешних помех, случайных, методических и аппаратных погрешностей нарушает однозначность связи между движущимся объектом и прибором, создавая некоторую неопределённость. Возникает вопрос, как определить количество информации о каком-либо явлении, если оно наблюдается не непосредственно, а через другой процесс. Для этой цели удобно воспользоваться понятием условной энтропии, которое характеризует неопределенность одного процесса по результатам наблюдения другого процесса. В данном случае количество информации о событии x, содержащемся в сообщении о событии y, определяется выражением т.е. количество информации равно разности энтропии начального и конечного состояния системы. Причём энтропия конечного состояния системы х определяется не непосредственно, а через знание другой системы у, что и соответствует условной энтропии Последнее выражение для случая передачи сообщения может быть интерпретировано следующим образом: Н(х)- определяет среднее количество переданной информации, J(y, x)- среднее количество принятой информации, и условная энтропия Рассмотрим пропускную способность информационной системы. В соответствии с теоремой Котельникова: если известно, что верхняя частота частотного диапазона канала Fmax, то в каждую секунду должно передаваться 2Fmax отсчетов. Количество информации в каждом отсчете, при равномерном распределении величины х в диапазоне 0-Xmax и погрешности канала ±DX равно Пропускная способность Для передачи информации с возможно меньшей ошибкой по каналу связи с помехами необходимо применять соответствующие методы кодирования. Пропускная способность канала при этом должна быть равна или больше того количества информации, которое передаётся. Теоретически предельная скорость передачи информации или пропускная способность канала связи при наличии помех определяется согласно формуле Хартли-Шеннона где
|