Дискриминантный анализ
Дискриминантный анализ – это общий термин, относящийся к нескольким тесно связанным статистическим процедурам. Эти процедуры можно разделить на методы интерпретации межгрупповых различий и методы классификации наблюдений (объектов) по группам. Основным предположением дискримнантного анализа является то, что существуют две или более группы (классы, таксоны, кластеры, множества, совокупности), которые по некоторым параметрам отличаются между собой. Основная задача дискриминантного анализа часто состоит в определении по результатам наблюдений, какой из возможных групп принадлежит объект, случайно извлеченный из одной из них. Метод используется, когда информация об истинной принадлежности объекта недоступна, требует разрушения объекта или чрезмерных материальных затрат и времени. Основные ограничения, касающиеся статистических свойств дискриминантных переменных, т.е. показателей, с помощью которых описываются объекты в группах, сводятся к следующему. 1. Ни одна переменная 2. Ковариационные матрицы дискриминантных переменных 3. Закон распределения дискриминантных переменных для каждого класса является многомерным нормальным, т.е. каждая переменная имеет нормальное распределение при фиксированных остальных переменных. Данное предположение позволяет получить точные значения вероятности принадлежности объектов к данной группе и критерия значимости. Пусть имеются две или более генеральные совокупности Задача дискриминации (различения, идентификации) состоит в построении правила, позволяющего приписать полученную реализацию (или объект) к определенной совокупности, т.е. идентифицировать этот новый объект. Решение задачи дискриминации состоит в разбиении всего выборочного пространства всех возможных реализаций изучаемых СВ на некоторое число областей. При попадании идентифицируемого объекта в соответствующую область этот объект приписывается к соответствующей генеральной совокупности. Границы указанных областей должны быть по возможности простыми (например, гиперплоскостями) и выбраны таким образом, чтобы уменьшить потери от ложной дискриминации. Часто информация о распределениях генеральных совокупностей представлена независимыми выборками из них. Такие выборки называются обучающими выборками. Рассмотрим две нормально распределенные m –мерные генеральные совокупности Если
Левая часть уравнения Области Величина С называется пороговым значением. Пусть имеется элемент выборки (или объект), которому соответствует вектор наблюдений Если U (Z) і C, то Z относим к Таким образом, задача дискриминации сводится к определению коэффициентов
Рис.3.7.1. Графическое представление дискриминантной функции для двух переменных и двух обучающих выборок
Алгоритмы классификации. Рассмотрим случай Пусть имеются две генеральные совокупности одномерной величины Пусть наблюдаемый объект имеет значение Z. К какой из генеральных совокупностей ( Функция плотность величины Функция плотность величины Выбираем следующий простой алгоритм классификации: если Таким образом, имеем правило принятия решения:
Так как Рассмотрим теперь Пусть имеются две генеральные совокупности величин Для вектора наблюдений Области
Для области Если обозначить
где Предположим теперь, что известны априорные вероятности Пусть также известны стоимости ошибочной классификации:
Тогда по теореме Байеса наблюдаемый вектор
а второй совокупности с вероятностью
Тогда, если мы отнесем вектор наблюдений
Если отнести вектор наблюдений z ко второй совокупности
В качестве алгоритма классификации примем Несложно определить, что область
Если какая–либо априорная информация о генеральных совокупностях отсутствует, то обычно полагают Тогда неравенство (10.3) переходит в неравенство (10.2). Если В этом случае оценка ковариационной матрицы вычисляется по формуле где
Рассмотрим задачу дискриминации для случая G нормально распределенных генеральных совокупностей Дискриминантную функцию i –й и q –й совокупностей можно записать в виде
Если параметры генеральных совокупностей неизвестны, то вычисляют их оценки по соответствующим обучающим выборкам, причем где
Если для всех q № i выполняется неравенство Дискриминантный анализ широко используется во многих прикладных исследованиях: психологическое тестирование взрослых и детей; тестирование при приеме на работу; анализ переписи населения; изучение эффектов какого–либо метода лечения; изучение экономических различий между фирмами, географическими районами; социологические исследования и др. Считается, что наилучшим правилом классификации является байесовское решающее правило, обеспечивающие минимальные средние потери от неправильной классификации и основанные на отношении апостериорных вероятностей различных классов в данной точке пространства признаков. На практике эти отношения оцениваются по обучающей выборке (наблюдениям с известной классификацией) с помощью параметрических и непараметрических методов. Примером могут служить линейные дискриминантные функции Р.Фишера для нормальных распределений или метод "ближайшего соседа". Другим возможным методом дискриминантного анализа является минимизация оценки среднего риска или метод "скользящего экзамена" в заранее заданном классе решающих правил. Линейная дискриминантная функция Р.Фишера – такая линейная комбинация признаков, среднее значение которой в разных классах, отнесенное к ее квадратичному отклонению максимально различается. Для нормальных распределений, отличающихся только средними, дискриминантная функция задает байесовское правило классификации. В дискриминантном анализе нескольких классов для реализации байесовского решающего правила надо рассматривать несколько функций, позволяющие сравнивать апостериорные вероятности классов.
|