Регрессионный анализ
Для оценки параметров уравнений регрессии наиболее часто используется метод наименьших квадратов (МНК), суть которого заключается в следующем требовании: искомые теоретические значения результативного признака
При изучении связей показателей применяются различного вида уравнения прямолинейной и криволинейной связи. Так, при анализе прямолинейной зависимости применяется уравнение:
Это наиболее часто используемая форма связи между коррелируемыми признаками, при парной корреляции она выражается уравнением (6.2), где а 0 – среднее значение в точке x =0, поэтому экономической интерпретации коэффициента нет; а 1 – коэффициент регрессии, показывает, на сколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения. При криволинейной зависимости применяется ряд математических функций: полулогарифмическая показательная степенная параболическая гиперболическая
Система нормальных уравнений МНК для линейной парной регрессии имеет следующий вид:
Отсюда можно выразить коэффициенты регрессии:
При численности объектов анализа до 30 единиц возникает необходимость проверить, насколько вычисленные параметры типичны для отображаемого комплекса условий, не являются ли полученные значения параметров результатом действия случайных причин. Значимость коэффициентов регрессии применительно к совокупности n <30 определяется с помощью t-критерия Стьюдента. При этом вычисляются фактические значения t-критерия: для параметра а 0: для параметра а 1: В формулах (6.10) и (6.11):
Полученные по формулам (5.10) и (5.11) фактические значения На практике часто приходится исследовать зависимость результативного признака от нескольких факторных признаков. Аналитическая форма связи результативного признака от ряда факторных признаков выражается и называется многофакторным (множественным) уравнением регрессии. Линейное уравнение множественной регрессии
Система нормальных линейных уравнений МНК для оценки коэффициентов двухфакторной регрессии
|