регрессии а 1, а 2, b. Видно, что даже в нашем простом примере
Достаточно много вычислений и их лучше проводить на ЭВМ
Или калькуляторе с большим количеством значащих цифр. По
формуле (10.31) определяем среднюю ошибку аппроксимации:
, или 4,2%.
Находим:
Вычисляем средние квадратические отклонения:
По формуле (10.72) определяем корреляционные моменты:
Теперь по формулам (10.71) вычисляем парные коэффици-
енты корреляции:
Далее по формулам (10.62), (10.73), (10.74) находим коэф-
фициенты частной корреляции первого порядка:
Наконец по формуле (10.75) определяем совокупный коэф-
фициент множественной корреляции:
Зная, находим совокупный коэффициент множест-
венной детерминации (77,9%), который показыва-
ет, что вариация результативного признака y на 77,9% обуслов-
лена признаками = факторами x 1 и x 2. Поэтому целесообразно
Строить линейную двухфакторную регрессионную модель вида
(10.77).
Проведем проверку значимости полученного нами уравне-
ния регрессии (10.77) по F -критерию Фишера:
, (10.78)
где n — количество наблюдений; m — количество параметров в
Уравнении регрессии.
В нашем случае
.
Fрасч сравнивается с табличным значением F -критерия
Фишера, которое зависит от уровня значимости α и от степени
свободы v 1 = m − 1 и v 2 = n − m.
Выбираем 5%-ный уровень значимости (α = 0,05). В нашем
случае v 1 = 2; v 2 = 5. По таблице (см. приложение 4) находим
Fтабл = 5,79.
Так как Fрасч > Fтабл, то построенное нами уравнение рег-
Рессии (10.77) можно признать значимым. Мы уже упоминали,
что параметры а 1, а 2, b линейного двухфакторного уравнения
Регрессии можно найти, используя парные коэффициенты кор-
Реляции и среднее квадратическое отклонение. Если считать
Параметры уравнения регрессии вручную, то этот способ про-
Ще в вычислительном отношении. Приведем его и применим к
Рассматриваемому нами примеру.
Уравнение линейной двухфакторной регрессии записыва-
ем в виде:
. (10.79)
После преобразования (10.79) примет вид:
. (10.80)
Из сравнения (10.65) и (10.80) получаем:
a 1 = ρ1; a 2 = ρ2;; (10.81)
; (10.82)
. (10.83)
По формулам (10.82) и (10.83) с учетом первой и второй
формулы (10.81) находим:
;
.
Используя вычисленные значения a 1 и a 2 по третьей фор-
муле (10.81) определяем искомый параметр b:
b = 15967 − 0,3 ⋅ 151614,25 − (-0,004) ⋅ 231581,12 ≈
≈ -28590,951 ≈ -28591.
Сравниваем полученные параметры а 1, а 2, b с теми которые
Вычисленные с помощью МНК и видим, что они совпадают.
Понятие о криволинейном корреляционном
И регрессионном анализе
При исследовании различных общественных и природных
Явлений зависимости между изучаемыми признаками очень
Часто являются криволинейными.
Например, если исследовать изменение издержек от объ-
Ема выпуска, то наилучшей является степенная (кубическая)
Зависимость. Построение и анализ криволинейных уравне-
Ний регрессии имеет свою специфику. Некоторые нелинейные
Модели (мы уже об этом упоминали) можно линеаризировать
(свести к линейным), например, с помощью замены переменной
Или логарифмирования. Заметим, что криволинейные уравне-
Ния регрессии бывают однофакторными и многофакторными.
Приведем некоторые часто используемые уравнения криволи-
Нейной регрессии.
Параболы второй, третьей, … n -й степеней.
… … … … … … … … … … … … … … …
Степенная функция.
Показательная функция.
Гипербола.
Полулогарифмические функции:
;
.
Степенную и показательную модели можно легко свести к
Линейным путем логарифмирования.
Для степенной функции, т. е. получи-
ли линейную регрессионную модель относительно и ln xi
(можно брать логарифм по любому основанию). Напомним, что
, где e ≈ 2,718.
Для показательной функции, т. е. получи-
ли линейную модель относительно и xi.
Полулогарифмическую модель и гиперболи-
Ческую функцию сводят к линейным путем замены перемен-
Ной.
ln xi = zi;.
И получаем:
Видно, что после линеаризации мы получили парную ли-
Нейную регрессионную модель, которую рассматривали в под-
Разд. 10.2.
Нелинейные параметры криволинейных регрессионных
Моделей можно находить, например, с помощью МНК. Рас-
Смотрим, как это делается на примере параболической мо-
Дели третьего порядка. Условие МНК в данном случае имеет
вид:
. (10.84)