Студопедия — Совместное распределение двух случайных величин
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Совместное распределение двух случайных величин






Пусть пространство элементарных исходов Wслучайного эксперимента таково, что каждому исходу wijставиться в соответствие значение случайной величины x, равное x i и значение случайной величины h, равное y j.

Примеры:

1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать xи толщину—h(можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах).

2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за xможно принимать объем производства отнесенный к количеству сотрудников, а за h—объем продукции, идущей на экспорт, тоже отнесенной к числу сотрудников.

В этом случае мы можем говорить о совместном распределении случайных величин xи hили о “двумерной” случайной величине.

Если xи hдискретны и принимают конечное число значений (x– n значений, а h– k значений), то закон совместного распределения случайных величин xи hможно задать, если каждой паре чисел xi, yj (где xi принадлежит множеству значений x, а y j —множеству значений h) поставить в соответствие вероятность pij, равную вероятности события, объединяющего все исходы w ij (и состоящего лишь из этих исходов), которые приводят к значениям

x= xi; h= y j.

Такой закон распределения можно задать в виде таблицы:

 

h x y1 y 2 ¼ yj ¼ yk    
x 1 р 11 р 12 ¼ р 1 j ¼ р 1 k P 1  
¼; ¼ ¼ ¼ ¼ ¼ ¼ ¼  
xi рi 1 рi 2 ¼; рij ¼; рik Pi (*)
¼; ¼ ¼ ¼ ¼ ¼ ¼ ¼  
xn рn 1 рn 2 ¼ рnj ¼ рnk Pn  
  P 1 P 2 ¼ Pj ¼ Pk ¼  

 

Очевидно

Если просуммировать все рij в i –й строке, то получим

вероятность того, что случайная величина xпримет значение xi. Аналогично, если просуммировать все рij в j –м столбце, то получим

вероятность того, что hпринимает значение yj.

Соответствие xi ® Pi (i = 1,2,¼, n) определяет закон распределения x, также как соответствие yj ® P j (j = 1,2,¼, k) определяет закон распределения случайной величины h.

Очевидно , .

Раньше мы говорили, что случайные величины xи hнезависимы, если

pij=Pi × P j (i= 1,2,¼ ,n; j= 1,2,¼, k).

Если это не выполняется, то xи hзависимы.

В чем проявляется зависимость случайных величин xи hи как ее выявить из таблицы?

Рассмотрим столбец y 1. Каждому числу xi поставим в соответствие число

pi/ 1= (1)

которое будем называть условной вероятностьюx= xi при h= y 1. Обратите внимание на то, что это не вероятность Pi события x= xi, и сравните формулу (1) с уже известной формулой условной вероятности .

Соответствие

xi ® рi/ 1, (i =1,2,¼, n)

будем называть условным распределением случайной величины xпри h= y 1. Очевидно .

Аналогичные условные законы распределения случайной величины xможно построить при всех остальных значениях h, равных y 2; y 3,¼, yn,ставя в соответствие числу xi условную вероятность pi/j = ().

В таблице приведён условный закон распределения случайной величины xпри h= yj

x x 1 x 2 ¼ xi ¼ xn
pi/j ¼ ¼

Можно ввести понятие условного математического ожидания xпри h = yj

Заметим, что xи hравноценны. Можно ввести условное распределение hпри x= xi соответствием

(j = 1,2,¼, k)

Также можно ввести понятие условного математического ожидания случайной величины hпри x= xi:

Из определения следует, что если xи hнезависимы, то все условные законы распределения одинаковы и совпадают с законом распределения x(напоминаем, что закон распределения xопределяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М (x/h = yj) при j = 1,2,¼, k, которые равны Мx.

Если условные законы распределения xпри различных значениях hразличны, то говорят, что между xи hимеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин xи hзадан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины x, а первая и последняя строки – закон распределения случайной величины h.

 

h x        
  1/36     1/36
  2/36 1/36   3/36
  2/36 3/36 2/36 7/36
  1/36 8/36 16/36 25/36
  6/36 12/36 18/36  

Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).

Здесь явно просматри­вается зависимость услов­ного закона распределения xот величины h.

Пример II. (Уже встре­чавшийся).

Пусть даны две неза­висимые случайные вели­чины xи hс законами распределения

 

x       h    
Р 1/3 2/3   Р 3/4 1/4

 

Найдем законы распределений случайных величин a=x+hи b=x*h

 

a         b      
Р 3/12 7/12 2/12   Р 4/12 6/12 2/12

 

Построим таблицу закона совместного распределения aи b.

 

b a        
  3/12     3/12
  1/12 6/12   7/12
      2/12 2/12
  4/12 6/12 2/12  

Чтобы получить a=2 и b=0, нужно чтобы xприняла значение 0, а hприняла значение 2. Так как xи hнезависимы, то

Р(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12.

Очевидно также Р(a=3; b=0)=0.

Построим полигоны условных распределений. Здесь зависимость aот bдовольно близка к функ­циональной: значению b=1 соответствует единст­венное a=2, значению b=2 соот­ветствует единственное a=3, но при b=0 мы можем говорить лишь, что aс вероят­ностью принимает значение 1 и с вероят­ностью – значение 2.

Пример III.

Рассмотрим закон совместного распределения xи h, заданный таблицей

 

h x        
  1/30 3/30 2/30 1/5
  3/30 9/30 6/30 3/5
  1/30 3/30 2/30 1/5
  1/6 3/6 2/6  

В этом случае выполняется условие P(x= xi; h= yj)=P(x= xi)*P(h= yj), i =1,2,3¼; j =1,2,3,¼

Построим законы условных распределений

 

x      
1/5 3/5 1/5

Законы условных распределений не отличаются друг от друга при h=1,2,3 и совпадают с законом распределения случайной величины x.

В данном случае xи hнезависимы.

Характеристикой зависимости между случайными величинами xи hслужит математическое ожидание произведения отклонений xи hот их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

cov(x; h) = M ((x– M x)(h– M h))

Пусть x = { x 1, x 2, x 3,¼, xn }, h = { y 1, y 2, y 3,¼, yn }. Тогда

cov(x; h)= (2)

Эту формулу можно интерпретировать так. Если при больших значениях xболее вероятны большие значения h, а при малых значениях xболее вероятны малые значения h, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (xiM x)(yjM h), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям xв основном приводят к малым значениям hи наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом xслучайная величина hимеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом xслучайная величина hимеет тенденцию к уменьшению или падению.

Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (xiM x)(yjM h) pij, то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если

P ((x = xi)∩(h = yj)) = P (x = xi) P (h = yj) (i = 1,2,¼, n; j = 1,2,¼, k),

òî cov(x; h)= 0.

Действительно из (2) следует

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю.

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

cov(x; h)= M (xh–x M h–h M x+ M x M h)= M (xh)– M (x M h)– M (h M x)+ M (M x M h)=

= M (xh)– M h M x– M x M h+ M x M h= M (xh)– M x M h

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если xи h—независимые случайные величины, то М (xh)= М x М h. (Доказать самим, используя формулу M (xh) = )

Таким образом, для независимых случайных величин xи hcov(x;h)=0.

 

77. Факторный анализ как метод анализа данных в социологии

Факторный анализ — многомерная статистическая методика, в которой соотношения (или корреляции) между большой совокупностью наблюдаемых переменных объясняются в терминах небольшого числа новых переменных, называемых факторами.

Факторный анализ позволяет разделить массив переменных на малое число групп, которые называются факторами. В один фактор объединяются несколько переменных, имеющих плотную корреляцию между собой и слабую корреляцию с переменными, объединяемыми другими факторами.

Основной задачей факторного анализа является группировка схожих по смыслу утверждений в макрокатегории (факторы) с целью сократить число переменных и упростить процедуру анализа существующей базы данных.

Факторный анализ – метод статистического анализа, который предполагает выявление значений латентных переменных, которые не учитывались в предварительном анализе. Существуют математические модели, заключающиеся в записи систем уравнений относительно факторных нагрузок, участвующих в модели. Эти факторы интерпретируются как латентные переменные – после вычислительных процедур рассматриваются такие факторы нагрузок, которые имеют наибольшее значение, остальные отбрасываются. Осуществляется переход от одной матрицы нагрузок к другой. Определяется значимость влияния тех переменных, которые оказывали влияние на данный признак. В факторную модель включены те признаки, которые мы не наблюдаем (не можем наблюдать).

Основная методика — "направленная переменная", то есть без различия между независимой и зависимой переменными в совокупности данных.

Анализ состоит из четырех этапов. Первый направлен на получение матрицы корреляций, в которой каждая переменная в совокупности данных соотнесена со всеми другими. Следующий шаг — извлечение факторов с целью определения минимального числа факторов для адекватного объяснения наблюдаемых корреляций между первоначальными переменными. Если их число близко к первоначальным переменным, то смысл в факторном анализе невелик. Цель третьего (факультативного) шага — вращения — состоит в установлении более простых и легче интерпретируемых факторов. Если получена удовлетворительная модель, на четвертом этапе вычисляются значения коэффициентов для каждого фактора каждого случая в совокупности данных. Факторные значения могут использоваться в последующих исследованиях. Факторный анализ вызывает много критики (Чатфилд и Коллинз, 1980). Различные методы извлечения и вращения имеют тенденцию давать иные решения, а также трудно значимо интерпретировать четко выявленные в анализе факторы. Несмотря на потребность найти другие более взвешенные решения, факторный анализ остается полезным исследовательским инструментом.

В ходе выполнения факторного анализа решаются следующие задачи:

• оценивается пригодность исходных данных для проведения факторного анализа;

• выявляются корреляционные взаимосвязи между переменными исходного массива;

• определяется оптимальное число факторов (компонентов факторной модели), т.е. групп, на которые может быть разделен существующий массив переменных;

• разделяется существующий массив переменных на группы на основании значений коэффициентов корреляции;

• интерпретируются результаты, т.е. производится подбор названий созданным переменным (факторам).

Из перечисленных задач последняя является наиболее сложной. Ее решение представляет собой одну из ключевых проблем факторного анализа и требует творческого подхода.

Другой существенной проблемой факторного анализа является частичная потеря информации в ходе «сжатия» исходного массива переменных. Одним из важнейших условий проведения факторного анализа является минимизации частичной потери информации, которая в любом случае неизбежна.

 







Дата добавления: 2015-04-19; просмотров: 1484. Нарушение авторских прав; Мы поможем в написании вашей работы!



Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

ТЕОРЕТИЧЕСКАЯ МЕХАНИКА Статика является частью теоретической механики, изучающей условия, при ко­торых тело находится под действием заданной системы сил...

Теория усилителей. Схема Основная масса современных аналоговых и аналого-цифровых электронных устройств выполняется на специализированных микросхемах...

Логические цифровые микросхемы Более сложные элементы цифровой схемотехники (триггеры, мультиплексоры, декодеры и т.д.) не имеют...

Тактические действия нарядов полиции по предупреждению и пресечению групповых нарушений общественного порядка и массовых беспорядков В целях предупреждения разрастания групповых нарушений общественного порядка (далееГНОП) в массовые беспорядки подразделения (наряды) полиции осуществляют следующие мероприятия...

Механизм действия гормонов а) Цитозольный механизм действия гормонов. По цитозольному механизму действуют гормоны 1 группы...

Алгоритм выполнения манипуляции Приемы наружного акушерского исследования. Приемы Леопольда – Левицкого. Цель...

Что такое пропорции? Это соотношение частей целого между собой. Что может являться частями в образе или в луке...

Растягивание костей и хрящей. Данные способы применимы в случае закрытых зон роста. Врачи-хирурги выяснили...

ФАКТОРЫ, ВЛИЯЮЩИЕ НА ИЗНОС ДЕТАЛЕЙ, И МЕТОДЫ СНИЖЕНИИ СКОРОСТИ ИЗНАШИВАНИЯ Кроме названных причин разрушений и износов, знание которых можно использовать в системе технического обслуживания и ремонта машин для повышения их долговечности, немаловажное значение имеют знания о причинах разрушения деталей в результате старения...

Studopedia.info - Студопедия - 2014-2024 год . (0.014 сек.) русская версия | украинская версия