Студопедия — Некоторые сведения из теории случайных функций
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Некоторые сведения из теории случайных функций






 

Как правило, при выполнении измерений динамических процессов мы имеем дело со случайными сигналами. К числу таких сигналов следует отнести все результаты измерений параметров движения таких объектов как корабль, самолёт, ракета, подв. лодка. Очевидно, что если мы проектируем аппаратуру, работающую на этих объектах, например системы управления антенной локатора или орудий, то возмущающие воздействия на неё носят случайный характер. Отметим и то, что вибрация различных механизмов, (мостов, станков, рельс и др.) также носит случайный характер. Таким образом целесообразно рассмотреть подробнее математический аппарат, используемый для описания случайных процессов.

Случайный процесс называют стационарным, если все моменты его распределения (мат. ожидание, дисперсия, СКО и т.д.) не изменяются при любом сдвиге начала отсчета вдоль оси времени.

С физической точки зрения это означает, что стационарный случайный процесс имеет место при таком режиме, когда все условия, определяющие протекание этого процесса, не изменяются с течением времени.

Например, в том случае, если морское волнение или вибрация станка являются установившемся, то есть не развивающемся и не затухающим то его можно принять стационарным.

Основные свойства случайной функции достаточно точно определяются математическим ожиданием и корреляционной функцией.

Следует отметить, что если математическое ожидание ординат процесса равно нулю, то такой процесс называется центрированным.

Таким образом, бортовая, килевая, вертикальная качка надводного корабля и рыскание есть центрированные процессы.

Если случайная функция является нормальной, т.е. она подчинена нормальному закону распределения то математическое ожидание и корреляционная функция полностью ее определяют.

Корреляционная функция стационарного случайного процесса зависит только от разности моментов времени для которых определяется корреляционная функция.

Рис. Стационарный случайный процесс

 

Если математическое ожидание случайного процесса равно нулю, то его корреляционная функция определяется соотношением:

(11)

Зная , можно определить еще одну важную характеристику колебаний. Эта характеристика называется спектральной плотностью случайной функции и характеризует распределение интенсивности колебаний по спектру частот.

Корреляционная функция и спектральная плотность стационарного случайного процесса связаны следующим соотношением:

(12)

Откуда можно получить выражение для через .

(13)

Выражение (12) это прямое преобразование Фурье, а (13) обратное. Дисперсия случайной функции , характеризующая интенсивность колебаний согласно (11) и (12) определяется выражением:

(14)

Так как случайная функция характеризующая колебания, является вещественной, то вместо (12), (13), (14) и с учетом формул Эйлера можно получить следующие выражения:

зная дисперсию можно определить и среднее квадратическое значение углов качки:

Корреляционная функция стационарного случайного процесса с математическим ожиданием равным нулю, определяется соотношением (11). Однако для нахождения этой корреляционной функции нет необходимости обрабатывать реализации, полученные в результате наблюдения над многими процессами в однотипных условиях, например множество значений качки сделанных в разные промежутки времени, можно определить по единственно временной реализации случайного процесса , полученной в результате наблюдений над одним процессом в течение достаточно большого промежутка времени.

Это свойство стационарного случайного процесса называется эргодичностью.

Таким образом, математическое ожидание суммы нескольких отрезков реализации можно заменить математическим ожиданием длительной реализации.

Действительно, если мы возьмем записи качки судна за малое время, то будем иметь математические ожидания отличные от нуля. Их сумма даст нулевое значение. Аналогичное значение можно получить обработкой длительной по времени реализации, т.е.

где М — символ. мат. ожидания; Т — интервал времени характеризующий всю кривую , при котором выполняется условие эргодичности.

Приближенно при достаточно большом времени реализации:

(15)

Формула (15) и применяется при обработке реализации на компьютере с целью получения корреляционной функции процесса. При

т.е. при значение корреляционной функции равно среднему значению квадрата случайной функции.

В том случае, если мы возьмем отношение и , то получим нормированную корреляционную функцию.

На рис. приведена нормированная корреляционная функция случайного процесса.

Функция показывает, что действительно представляет случайную функцию, так как корреляционная связь между ординатами уменьшается с ростом . т.е. физический смысл корреляционной функции заключается в том, что она является мерой взаимной связи между значениями и для одной и той же реализации случайного процесса.

Рис.. Нормированная корреляционная функция например углов крена судна

 

В том случае, если нас интересует статистическая взаимосвязь двух стационарных случайных процессов, например ординат рыскания и килевой качки, то необходимо рассматривать взаимные корреляционные функции.

В общем случае выражения для взаимно корреляционных функций имеют вид:

В том случаи, если мы говорим о рыскании и килевой качке ; .

Взаимная корреляционная функция характеризует связь двух разных случайных процессов между собой в различные моменты времени, отстоящие друг от друга на величину . Если то значения характеризует эту связь в один и тот же момент времени. Для несвязанных друг с другом процессов при всех значения .

Таким образом, следует запомнить, что корреляционной функцией стационарного случайного процесса называется среднее во времени значение за промежуток времени от произведения случайных величин и взятых в случайном процессе в любые два момента времени и отличающихся друг от друга на определенный промежуток времени .

Как было сказано ранее выражение (12) и (13) связывают корреляционную функцию со спектральной плотностью.

Если имеются две случайные функции х(t) и y(t), то можно определить взаимные корреляционные функции и далее по формуле (13) можно найти взаимные спектральные плотности

В завершении рассмотрения вопроса следует отметить, что если ординаты процесса подчиняются нормальному закону распределения, то можно записать для них

Учитывая зависимость между дисперсией и средним квадратическим значением случайного процесса, выражение может быть переписано

где икс например .

Основные понятия теории информации.

 

Из теоремы Котельникова следует очень важный вывод о том, что передача всех значений сигнала не обязательна, если у него ограниченный спектр. Очевидно, что сигнал имеет ценность для получателя лишь тогда, когда он неизвестен получателю, т.е. несёт определенные новые сведения.

В 1928 году Хартли предложил определять количество информации J(x) в сообщении о некотором событии, как логарифм от функции, равной единице, деленной на вероятность появления этого события.

,

где P(x)- вероятность наступления события x; а - основание логарифма

Так как 0< P(x) 1, то J(x)-величина всегда положительная.

Очень важно знать значение среднего количества информации на одно сообщение источника, которое математически совпадает с энтропией H(x). Понятие об энтропии введено К.Шенноном. Энтропия H(x)- это мера неопределённости исхода случайного опыта или события по определению Шеннона.

В измерительной технике под энтропией понимают меру, которая характеризует степень неопределенности системы. Источник информации, например датчик, может передать m сообщений x1; x2 … xm с вероятностью нахождения источника в соответствующем состоянии P(x1); P(x2)…P(xm), т.е. P(xm) характеризует погрешность датчика или достоверность сообщения.

Количество информации и неопределенность для всей совокупности случайных сообщений можно получить усреднением.

где - среднее на одно сообщение количества информации; Н(x)- мера недостатка информации о состоянии системы.

 

Единицы измерения энтропии и информации зависят от выбора основания логарифма. При использовании десятичных логарифмов энтропия измеряется в дитах, двоичных логарифмов, т.е. с основанием 2 – в битах, натуральных ln, т.е. с основанием е в нитах 1 нит= 1, 44269 бит, 1 дит=3, 32193 бит.

В связи с тем, что цифровая техника основана на передаче сигнала, шифрованного двумя состояниями потенциала, т.е. нулём и единицей в цифровой технике распространены биты.

Детальное и строгое исследование энтропии как меры неопределенности было проведено А.Я.Хинчиным. Он определил следующие свойства энтропии:

 

- Энтропия не может быть отрицательной величиной и для системы с конечным числом состояний всегда конечна;

- Энтропия равняется нулю, когда рассматриваемая система имеет достоверное событие;

- Энтропия имеет максимальное значение, если все события равновероятны;

- Энтропия объединённой системы равна сумме энтропий каждой из систем.

 

Отметим, что как, правило, измерительный или информационный сигнал отягощён шумом. Если на вход канала передачи информации подаётся сигнал с энтропией H(x), а шум в канале имеет энтропию , то количество информации на входе канала будет

т.е. меньше энтропии передаваемого сигнала на величину энтропии шума.

Важной характеристикой передаваемых сигналов является избыточность. Если реальный сигнал для передачи определённого количества информации J(x) имеет n символов, а его передачу можно было произвести с минимально возможным числом символов nmin, то этот источник сообщений обладает избыточностью с коэффициентом избыточности

где - коэффициент сжатия.

Избыточность также определяют через энтропию источника сообщений

 

где Hmax(x)- энтропия оптимального сообщения; H(x)- энтропия реального сообщения.

Для уменьшения избыточности необходимо увеличить энтропию сообщения. Избыточность увеличивает время передачи и повышает помехоустойчивость сообщений.

Во многих случаях информация о каком-либо явлении получается опосредованно, в результате наблюдения другого явления, связанного с первым. К таким случаям можно отнести многие измерения. Например, часто о местонахождении корабля или самолёта судят не по результатам непосредственного наблюдения, а по показаниям приборов.

Между местоположением корабля или самолёта и показаниями прибора существует определённая связь. Однако, наличие внешних помех, случайных, методических и аппаратных погрешностей нарушает однозначность связи между движущимся объектом и прибором, создавая некоторую неопределённость. Возникает вопрос, как определить количество информации о каком-либо явлении, если оно наблюдается не непосредственно, а через другой процесс. Для этой цели удобно воспользоваться понятием условной энтропии, которое характеризует неопределенность одного процесса по результатам наблюдения другого процесса. В данном случае количество информации о событии x, содержащемся в сообщении о событии y, определяется выражением

т.е. количество информации равно разности энтропии начального и конечного состояния системы. Причём энтропия конечного состояния системы х определяется не непосредственно, а через знание другой системы у, что и соответствует условной энтропии .

Последнее выражение для случая передачи сообщения может быть интерпретировано следующим образом: Н(х)- определяет среднее количество переданной информации, J(y, x)- среднее количество принятой информации, и условная энтропия является средним количеством информации, потерянной вследствие наличия помех.

Рассмотрим пропускную способность информационной системы.

В соответствии с теоремой Котельникова: если известно, что верхняя частота частотного диапазона канала Fmax, то в каждую секунду должно передаваться 2Fmax отсчетов. Количество информации в каждом отсчете, при равномерном распределении величины х в диапазоне 0-Xmax и погрешности канала ±DX равно

Пропускная способность

Для передачи информации с возможно меньшей ошибкой по каналу связи с помехами необходимо применять соответствующие методы кодирования. Пропускная способность канала при этом должна быть равна или больше того количества информации, которое передаётся.

Теоретически предельная скорость передачи информации или пропускная способность канала связи при наличии помех определяется согласно формуле Хартли-Шеннона

где - ширина полосы частот канала; Рс - средняя мощность сигнала; Рп - средняя мощность помех с нормальным законом распределения амплитуд.

 







Дата добавления: 2014-12-06; просмотров: 871. Нарушение авторских прав; Мы поможем в написании вашей работы!



Аальтернативная стоимость. Кривая производственных возможностей В экономике Буридании есть 100 ед. труда с производительностью 4 м ткани или 2 кг мяса...

Вычисление основной дактилоскопической формулы Вычислением основной дактоформулы обычно занимается следователь. Для этого все десять пальцев разбиваются на пять пар...

Расчетные и графические задания Равновесный объем - это объем, определяемый равенством спроса и предложения...

Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Понятие о синдроме нарушения бронхиальной проходимости и его клинические проявления Синдром нарушения бронхиальной проходимости (бронхообструктивный синдром) – это патологическое состояние...

Опухоли яичников в детском и подростковом возрасте Опухоли яичников занимают первое место в структуре опухолей половой системы у девочек и встречаются в возрасте 10 – 16 лет и в период полового созревания...

Способы тактических действий при проведении специальных операций Специальные операции проводятся с применением следующих основных тактических способов действий: охрана...

Характерные черты официально-делового стиля Наиболее характерными чертами официально-делового стиля являются: • лаконичность...

Этапы и алгоритм решения педагогической задачи Технология решения педагогической задачи, так же как и любая другая педагогическая технология должна соответствовать критериям концептуальности, системности, эффективности и воспроизводимости...

Понятие и структура педагогической техники Педагогическая техника представляет собой важнейший инструмент педагогической технологии, поскольку обеспечивает учителю и воспитателю возможность добиться гармонии между содержанием профессиональной деятельности и ее внешним проявлением...

Studopedia.info - Студопедия - 2014-2024 год . (0.012 сек.) русская версия | украинская версия