четырех независимых аргументов:
(10.85)
Определяем частные производные и получаем следующую
систему:
(10.86)
После преобразовании (10.86) получаем систему нормальных
уравнений для определения искомых параметров а 1, а 2, а 3, b.
(10.87)
Систему (10.87) можно легко решить, используя, например,
Метод Гаусса или одну из его модификаций.
Приведем некоторые часто используемые криволинейные
многофакторные модели:
Степенная
; (10.88)
Экспоненциальная
; (10.89)
Гиперболическая
. (10.90)
Модели (10.88) и (10.89) приводятся к линейной многофак-
торной модели логарифмированием:
. (10.91)
,
а так как ln e = 1, то получаем
. (10.92)
Модель (10.90) сводят к линейной с помощью подстановки:
. (10.93)
Модели (10.91), (10.92),(10.93) являются линейным много-
Факторными, которые мы рассматривали в подразд. 10.5.
Кратко коснемся вопроса выбора формы модели. Слож-
Ность и многообразие рассматриваемых природных и об-
Щественных явлений предопределяет большое количество
Моделей, используемых для их анализа. Это значительно ос-
Ложняет выбор оптимальной зависимости. В случае парной
Криволинейной регрессии выбор модели, как правило, осу-
Ществляется по расположению данных наблюдений на поле
Корреляции. Но встречаются случаи, когда расположение
Значений наблюдений на корреляционном поле приближенно
Соответствует нескольким функциональным зависимостям, и
Возникает вопрос выбора из них наилучшей. Еще более слож-
На ситуация для множественной криволинейной регрессии,
Так как исходные данные наблюдений наглядно не представ-
Ляются. Для того чтобы выбрать адекватную модель необхо-
Димо ответить на ряд вопросов, которые возникают при ее
анализе:
_ Каковы признаки “хорошей” модели?
_ Какие ошибки спецификации могут встречаться, и како-
вы их последствия?
_ Как найти ошибку спецификации?
_ Как можно исправить ошибку спецификации и перейти
к более качественной модели?
Для того чтобы построить “хорошую” модель, нужно учи-
Тывать следующие критерии.
Модель должна быть максимально простой (модель уп-
Рощенно описывает изучаемое явление). Поэтому из двух мо-
Делей, приблизительно одинаково описывающих изучаемый
Процесс, выбирают более простую (например, содержащую
Меньшее количество факторных признаков).
Для любого набора данных наблюдений определяемые па-
Раметры должны находиться однозначно.
Уравнение регрессии будет тем лучше, чем большую
Часть разброса результативного признака оно может объяс-
Нить, т. е. коэффициент детерминации должен быть макси-
Мальным.
Никакое уравнение регрессии не может быть признано ка-
Чественным, если оно не соответствует теоретическим предпо-
Сылкам.
Модель можно признать хорошей, если полученные на
Ее основе прогнозы, соответствуют реальной действитель-
Ности.
Ошибки спецификации в данном пособии не рассматрива-
ются. Сведения о них можно почерпнуть, например, в [6].
Теперь приведем конкретный пример расчета криволи-
Нейного уравнения регрессии.
Пример 10.5
Построить показательное уравнение регрессии,
Если имеются данные наблюдений над двумя случайными ве-
личинами x и y (табл. 10.13, данные условные)
Таблица 10.13
X 4 5 5 6 8 10 8 7 11 6
Y 1,5 2 4,4 2,3 2,7 4 2,3 2,5 6,6 1,7
Используя данные табл. 10.13, построим поле корреляции
для нашего примера (риc. 10.3) Черными точкам на рис. 10.3
Обозначены исходные данные.
y
x
0 1 2 3 4 5 6 7 8 9 10 11
Рис. 10.3
В данном примере вид уравнения регрессии задан (показа-
Тельная функция). С помощью логарифмирования линеаризи-
руем исходную модель. Получаем:
.
Исходные параметры а и b найдем с помощью МНК.
Условие МНК в данном случае имеет вид:
. (10.94)
Записываем необходимые условия экстремума функции F
двух независимых аргументов ln a и ln b.
. (10.95)
Вычисляем чистые производные и получаем следующую
систему уравнений:
(10.96)
После преобразования (10.96) получаем следующую систе-
му нормальных уравнений:
(10.97)
Считая, что искомые параметры a и b отличны от нуля
(a ≠ 0, b ≠ 0), умножаем левую и правую стороны первого урав-
нения системы (10.97) на а, а второго — на b и получаем:
(10.98)