Студопедия — Условия применения факторного анализа
Студопедия Главная Случайная страница Обратная связь

Разделы: Автомобили Астрономия Биология География Дом и сад Другие языки Другое Информатика История Культура Литература Логика Математика Медицина Металлургия Механика Образование Охрана труда Педагогика Политика Право Психология Религия Риторика Социология Спорт Строительство Технология Туризм Физика Философия Финансы Химия Черчение Экология Экономика Электроника

Условия применения факторного анализа






ФАКТОРНЫЙ АНАЛИЗ

Основные понятия факторного анализа

Факторный анализ — статистический метод, который используется при обработке больших массивов экспериментальных данных Задачами факторного анализа являются сокращение числа переменных (редукция данных) и определение структуры взаимосвязей между переменными, те классификация переменных, поэтому факторный анализ используется как метод сокращения данных или как метод структурной классификации

Важное отличие факторного анализа от всех описанных выше методов заключается в том, что его нельзя применять для обработки первичных, или, как говорят, «сырых», экспериментальных данных, т е полученных непосредственно при обследовании испытуемых Материалом для факторного анализа служат корреляционные связи, а точнее — коэффициенты корреляции Пирсона, которые вычисляются между переменными (т е психологическими признаками), включенными в обследование Иными словами, факторному анализу подвергают корреляционные матрицы, или, как их иначе называют, матрицы интеркоррелякии Наименования столбцов и строк в этих матрицах одинаковы так как они представляют собой перечень переменных, включенных в анализ По этой причине матрицы интеркорреляций всегда квадратные, т е число строк в них равно числу столбцов, и симметричные, т е на симметричных местах относительно главной диагонали стоят одни и те же коэффициенты корреляции Необходимо подчеркнуть, что исходная таблица данных, из которой получается корреляционная матрица, не обязательно должна быть квадратной Например, психолог измерил три показателя интеллекта (вербальный, невербальный и общий) и школьные отметки по трем учебным предметам (литература, математика, физика) у 100 испытуемых — учащихся девятых классов Исходная матрица данных будет иметь размер 100 х 6, а матрица интеркорреляций размер 6x6, поскольку в ней имеется только 6 переменных При таком количестве переменных матрица иитеркорреляций будет включать 15 коэффициентов и проанализировать ее не составит труда

Однако представим, что произойдет, если психолог получит не 6, а 100 показателей от каждого испытуемого В этом случае он должен будет анализировать 4950 коэффициентов корреляции Число коэффициентов в матрице вычисляется по формуле

и в нашем случае равно соответственно

Очевидно, что провести визуальный анализ такой матрицы — задача труднореализуемая Вместо этого психолог может выполнить математическую процедуру факторного анализа корреляционной матрицы размером 100 х 100 (100 испытуемых и 100 переменных) и таким путем получить более простой материал для интерпретации экспериментальных результатов

Главное понятие факторного анализа — фактор- Это искусственный статистический показатель, возникающий в результате специальных преобразований таблицы коэффициентов корреляции между изучаемыми психологическими признаками, или матрицы интеркорреляций Процедура извлечения факторов из матрицы интеркорреляций называется факторизацией матрицы В результате факторизации из корреляционной матрицы может быть извлечено разное количество факторов вплоть до числа, равного количеству исходных переменных Однако факторы, выделяемые в результате факторизации, как правило, неравноценны по своему значению

Элементы факторной матрицы называются «факторными нагрузками, или весами», и они представляют собой коэффициенты корреляции данного фактора со всеми показателями, использованными в исследовании Факторная матрица очень важна, поскольку она показывает, как изучаемые показатели связаны с каждым выделенным фактором При этом факторный вес демонстрирует меру, или тесноту, этой связи

Поскольку каждый столбец факторной матрицы (фактор) является своего рода переменной величиной, то сами факторы также могут коррелировать между собой Здесь возможны два случая корреляция между факторами равна нулю, в таком случае факторы являются независимыми (ортогональными) Если корреляция между факторами больше нуля, то в таком случае факторы считаются зависимыми (облическими) Подчеркнем, что ортогональные факторы в отличие от облических дают более простые варианты взаимодействий внутри факторной матрицы

В качестве иллюстрации ортогональных факторов часто приводят задачу JI Терстоуна, который, взяв ряд коробок разных размеров и формы, измерил в каждой из них больше 20 различных показателей и вычислил корреляции между ними Профак-торизовав полученную матрицу интеркорреляций, он получил три фактора, корреляция между которыми была равна нулю Этими факторами были «длина», «ширина» и «высота»

Для того чтобы лучше уловить сущность факторного анализа, разберем более подробно следующий пример

Предположим, что психолог у случайной выборки студентов получает следующие данные

• V1 — вес тела (в кг),

* V2 — количество посещений лекций и семинарских занятий по предмету,

V3 — длина ноги (в см),

• V4 — количество прочитанных книг по предмету,

• V5 — длина руки (в см),

* V6 — экзаменационная оценка по предмету

(V — от английского слова variable — переменная)

При анализе этих признаков не лишено оснований предположение о том, что переменные V1, V3 и V5 — будут связаны между собой, поскольку чем больше человек, тем больше он весит и тем длиннее его конечности Сказанное означает, что между этими переменными должны получиться статистически значимые коэффициенты корреляции, поскольку эти три переменные измеряют некоторое фундаментальное свойство индивидуумов в выборке, а именно их размеры Точно так же вероятно, что при вычислении корреляций между V2, V4 и V6 тоже будут получены достаточно высокие коэффициенты корреляции, поскольку посещение лекций и самостоятельные занятия будут способствовать получению более высоких оценок по изучаемому предмету

Таким образом, из всего возможного массива коэффициентов, который получается путем перебора пар коррелируемых признаков К и К2, К, и т. д, предположительно выделятся два блока статистически значимых корреляций Остальная часть корреляций — между признаками, входящими в разные блоки, вряд ли будет иметь статистически значимые коэффициенты, поскольку связи между такими признаками, как размер конечности и успеваемость по предмету, имеют скорее всего случайный характер Итак, содержательный анализ 6 наших переменных показывает, что они, по сути дела, измеряют только две обобщенные характеристики, а именно размеры тела и степень подготовленности по предмету

К полученной матрице интеркорреляций, т е вычисленным попарно коэффициентам корреляций между всеми шестью переменными ~ V6, допустимо применить факторный анализ Его можно проводить и вручную, с помощью калькулятора, однако процедура подобной статистической обработки очень трудоемка По этой причине в настоящее время факторный анализ проводится на компьютерах, как правило, с помощью стандартных статистических пакетов Во всех современных статистических пакетах есть программы для корреляционного и факторного анализов Компьютерная программа по факторному анализу по существу пытается «объяснить’» корреляции между переменными в терминах небольшого числа факторов (в нашем примере двух)

Предположим, что, используя компьютерную программу, мы получили матрицу интеркорреляций всех шести переменных и подвергли ее факторному анализу В результате факторного анализа получилась таблица 13 1, которую называются «факторной матрицей», или <факторной структурной матрицей»

Таблица 13.1

По традиции факторы представляются в таблице в виде столбцов, а переменные в виде строк Заголовки столбцов таблицы 13 1 соответствуют номерам выделенных факторов, но более точно было бы нх называть «факторные нагрузки», или «веса», по фактору I, то же самое по фактору 2 Как указывалось выше, факторные нагрузки, или веса, представляют собой корреляции между соответствующей переменной и данным фактором Например, первое число 0,91 в первом факторе означает, что корреляция между первым фактором и переменной Vl равна 0,91 Чем выше факторная нагрузка по абсолютной величине, тем больше ее связь с фактором

Из таблицы 13 I видно, что переменные V1, V3 и V5 имеют большие корреляции с фактором I (фактически переменная 3 имеет корреляцию близкую к 1 с фактором I) В то же время переменные V1, V3, и V5 имеют корреляции близкие к 0 с фактором 2 Подобно этому фактор 2 высоко коррелирует с переменными V2, V4 и V6 фактически не коррелирует с переменными V1, V3 и V5 В данном примере очевидно, что существуют две структуры корреляций, и, следовательно, вся информация таблицы 13 1 определяется двумя факторами Теперь начинается заключительный этап работы — интерпретация полученных данных Анализируя факторную матрицу, очень важно учитывать знаки факторных нагрузок в каждом факторе Если в одном и том же факторе встречаются нагрузки с противоположными знаками, это означает, что между переменными, имеющими противоположные знаки, существует обратно пропорциональная зависимость

Отметим, что при интерпретации фактора для удобства можно изменить знаки всех нагрузок по данному фактору на противоположные

Факторная матрица показывает также, какие переменные образуют каждый фактор Это связано, прежде всего, с уровнем значимости факторного веса По традиции минимальный уровень значимости коэффициентов корреляции в факторном анализе берется равным 0,4 или даже 0,3 (по абсолютной величине), поскольку нет специальных таблиц, по которым можно было бы определить критические значения для уровня значимости в факторной матрице Следовательно, самый простой способ увидеть какие переменные «принадлежат» фактору это значит отметить те из них, которые имеют нагрузки выше чем 0,4 (или меньше чем - 0,4) Укажем, что в компьютерных пакетах иногда уровень значимости факторного веса определяется самой программой и устанавливается на более высоком уровне, например 0,7

Так, из таблицы 13 1, следует вывод, что фактор 1 — это сочетание переменных V1 и V3 (но не V2 V4 и V6, поскольку их факторные нагрузки по модулю меньше чем 0,4) Подобно этому фактор 2 представляет собой сочетание переменных V2, V4 и V6

Выделенный в результате факторизации фактор представляет собой совокупность тех переменных из числа включенных в анализ, которые имеют значимые нагрузки Нередко случается, однако, что в фактор входит только одна переменная со значимым факторным весом, а остальные имеют незначимую факторную нагрузку В этом случае фактор будет определяться по названию единственной значимой переменной

В сущности, фактор можно рассматривать как искусственную «единицу» группировки переменных (признаков) на основе имеющихся между ними связей Эта единица является условной, потому что, изменив определенные условия процедуры факторизации матрицы интеркорреляций, можно получить иную факторную матрицу (структуру) В новой матрице может оказаться иным распределение переменных по факторам и их факторные нагрузки.

В связи с этим в факторном анализе существует понятие «простая структура» Простой называют структуру факторной матрицы, в которой каждая переменная имеет значимые на грузки только по одному из факторов, а сами факторы ортогональны, т е не зависят друг от друга В нашем примере два общих фактора независимы Факторная матрица с простой структурой позволяет провести интерпретацию полученного результата и дать наименование каждому фактору В нашем случае фактор первый — «размеры тела», фактор второй — «уровень подготовленности»

Сказанное выше не исчерпывает содержательных возможностей факторной матрицы Из нее можно извлечь дополнительные характеристики, позволяющие более детально исследовать связи переменных и факторов Эти характеристики называются «общность» и «собственное значение» фактора

Однако, прежде чем представить их описание, укажем на одно принципиально важное свойство коэффициента корреляции, благодаря которому получают эти характеристики Коэффициент корреляции, возведенный в квадрат (т е помноженный сам на себя), показывает, какая часть дисперсии (вариативности) признака является обшей для двух переменных, или, говоря проще, насколько сильно эти переменные перекрываются Так, например, две переменные с корреляцией 0,9 перекрываются со степенью 0,9 х 0,9 = 0,81 Это означает, что 81% дисперсии той и другой переменной являются общими, т е совпадают Напомним, что факторные нагрузки в факторной матрице — это коэффициенты корреляции между факторами и переменными, поэтому, возведенная в квадрат факторная нагрузка характеризует степень общности (или перекрытия) дисперсий данной переменной и данного фактором

Если полученные факторы не зависят друг от друга («ортогональное» решение), по весам факторной матрицы можно определить, какая часть дисперсии является обшей для переменной и фактора Вычислить, какая часть вариативности каждой переменной совпадает с вариативностью факторов, можно простым суммированием квадратов факторных нагрузок по всем факторам Из таблицы 13 1, например, следует, что 0,91 ж 0,91 + + 0,01 х0,01 = 0,8282, т е около 82% вариативности первой переменной «объясняется» двумя первыми факторами Полученная величина

Переменные могут иметь разную степень общности с факторами Переменная с большей общностью имеет значительную степень перекрытия (большую долю дисперсии) с одним или несколькими факторами Низкая общность подразумевает, что все корреляции между переменными и факторами невелики Это означает, что ни один из факторов не имеет совпадающей доли вариативности с данной переменной Низкая общность может свидетельствовать о том, что переменная измеряет нечто качественно отличающееся от других переменных, включенных в анализ Например, одна переменная, связанная с оценкой мотивации среди заданий, оценивающих способности, будет иметь общность с факторами способностей близкую к нулю

Малая общность может также означать, что определенное задание испытывает на себе сильное влияние ошибки измерения или крайне сложно для испытуемого Возможно, напротив, также, что задание настолько просто, что каждый испытуемый дает на него правильный ответ, или задание настолько нечетко по содержанию, что испытуемый не понимает суть вопроса Таким образом, низкая общность подразумевает, что данная переменная не совмещается с факторами по одной из причин либо переменная измеряет другое понятие, либо переменная имеет большую ошибку измерения, либо существуют искажающие дисперсию признака различия между испытуемыми в вариантах ответа на это задание

Наконец, с помощью такой характеристики, как собственное значение фактора, можно определить относительную значимость каждого из выделенных факторов Для этого надо вычислить, какую часть дисперсии (вариативности) объясняет каждый фактор Тот фактор, который объясняет 45% дисперсии (перекрытия) между переменными в исходной корреляционной матрице, очевидно является более значимым, чем другой, который объясняет только 25% дисперсии Эти рассуждения, однако, допустимы, если факторы ортогональны, иначе говоря, не зависят друг от друга

Для того чтобы вычислить собственное значение фактора, нужно возвести в квадрат факторные нагрузки и сложить их по столбцу Используя данные таблицы 13 1 можно убедиться что собственное значение фактора 1 составляет (0,91 х 0,91 + 0,20 х 0,20 + 0,94 х х 0,94 + 0,11 х 0,11 + 0,84 х 0,84 + (- 0,13) х (- 0,13)) «2,4863 Если собственное значение фактора разделить на число переменных (6 в нашем примере), то полученное число покажет, какая доля дисперсии объясняется данным фактором В нашем случае получится 100% =41,4% Иными словами, фактор I объясняет около 41% информации (дисперсии) в исходной корреляционной матрице Аналогичный подсчет для второго фактора даст 41,5% В сумме это будет составлять 82,9%

Таким образом, два общих фактора, будучи объединены, объясняют только 82,9% дисперсии показателей исходной корреляционной матрицы Что случилось с «оставшимися» 17,1 %9 Дело в том, что рассматривая корреляции между 6 переменными, мы отмечали, что корреляции распадаются на два отдельных блока, и поэтому решили, что логично анализировать материал в понятиях двух факторов, а не 6, как и количество исходных переменных Другими словами, число конструктов, необходимых, чтобы описать данные, уменьшилось с 6 (число переменных) до 2 (число общих факторов) В результате факторизации часть информации в исходной корреляционной матрице была принесена в жертву построению двухфакторной модели Единственным условием, при котором информация не утрачивается, было бы рассмотрение шестифакторной модели

Условия применения факторного анализа

Факторный анализ может быть уместен, если выполняются следующие критерии

1 Нельзя факторизовать качественные данные, полученные по шкале наименований, например, такие, как цвет волос (черный / каштановый / рыжий) и т п

2 Все переменные должны быть независимыми, а их распределение должно приближаться к нормальному

3 Связи между переменными должны быть приблизительно линейны или, по крайней мере, не иметь явно криволинейного характера

4 В исходной корреляционной матрице должно быть несколько корреляций по модулю выше 0,3 В противном случае достаточно трудно извлечь из матрицы какие-либо факторы

5 Выборка испытуемых должна быть достаточно большой Рекомендации экспертов варьируют Наиболее жесткая точка зрения рекомендует не применять факторный анализ, если число испытуемых меньше 100, поскольку стандартные ошибки корреляции в этом случае окажутся слишком велики Однако если факторы хорошо определены (например, с нагрузками 0,7, а не 0,3), экспериментатору нужна меньшая выборка, чтобы выделить их Кроме того, если известно, что полученные данные отличаются высокой надежностью (например, используются валидные тесты), то можно анализировать данные и по меньшему числу испытуемых







Дата добавления: 2015-08-12; просмотров: 1997. Нарушение авторских прав; Мы поможем в написании вашей работы!



Кардиналистский и ординалистский подходы Кардиналистский (количественный подход) к анализу полезности основан на представлении о возможности измерения различных благ в условных единицах полезности...

Обзор компонентов Multisim Компоненты – это основа любой схемы, это все элементы, из которых она состоит. Multisim оперирует с двумя категориями...

Композиция из абстрактных геометрических фигур Данная композиция состоит из линий, штриховки, абстрактных геометрических форм...

Важнейшие способы обработки и анализа рядов динамики Не во всех случаях эмпирические данные рядов динамики позволяют определить тенденцию изменения явления во времени...

Случайной величины Плотностью распределения вероятностей непрерывной случайной величины Х называют функцию f(x) – первую производную от функции распределения F(x): Понятие плотность распределения вероятностей случайной величины Х для дискретной величины неприменима...

Схема рефлекторной дуги условного слюноотделительного рефлекса При неоднократном сочетании действия предупреждающего сигнала и безусловного пищевого раздражителя формируются...

Уравнение волны. Уравнение плоской гармонической волны. Волновое уравнение. Уравнение сферической волны Уравнением упругой волны называют функцию , которая определяет смещение любой частицы среды с координатами относительно своего положения равновесия в произвольный момент времени t...

Именные части речи, их общие и отличительные признаки Именные части речи в русском языке — это имя существительное, имя прилагательное, имя числительное, местоимение...

Интуитивное мышление Мышление — это пси­хический процесс, обеспечивающий познание сущности предме­тов и явлений и самого субъекта...

Объект, субъект, предмет, цели и задачи управления персоналом Социальная система организации делится на две основные подсистемы: управляющую и управляемую...

Studopedia.info - Студопедия - 2014-2024 год . (0.016 сек.) русская версия | украинская версия