Лекции.Орг


Поиск:




Категории:

Астрономия
Биология
География
Другие языки
Интернет
Информатика
История
Культура
Литература
Логика
Математика
Медицина
Механика
Охрана труда
Педагогика
Политика
Право
Психология
Религия
Риторика
Социология
Спорт
Строительство
Технология
Транспорт
Физика
Философия
Финансы
Химия
Экология
Экономика
Электроника

 

 

 

 


Нелинейные модели парной регрессии и корреляции




Различают 2 класса нелинейных регрессий:

1. Регрессии нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам.

к ним относятся:

парабола у=a+bx+cx2

y=a+b/x – равносторонняя гипербола

у=b*lnx – полулогарифмическая функция

у=axb – степенная

у=abx-показательная

у=еа+bx - экспоненциальная

2. Регрессии, нелинейные по оцениваемым параметрам

Регрессии, нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных, а дальнейшая оценка параметров производится методом НМК.

у=a+bx+cx2

Z=x2

y=a+bx+cz

И неизвестные параметры мы находим методом НМК.

y=a+b/x

z=1/x

y=a+bz

b=

a= -b

у Х Z Z
    0,5 ln2
    0,25 ln4

Мы работаем с z, чтобы найти параметры а и b.

Нелинейные модели 2го класса, в свою очередь, делятся на 2 типа:

1. Нелинейные модели внутренне-линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием). Сюда относятся показательная, степенная, экспоненциальная, логистическая у=а/(1+becx), обратная у= 1/(а+bх)

2. Нелинейные модели внутренне нелинейные (не приводятся к линейному виду).

y=а+bxc

Среди всех нелинейных функция наиболее часто используется степенная функция, которая приводится к линейному виду логарифмированием у=a*xb

log y = log a*xb

log y = lna+lnxb

log y = ln a +b ln x

log y = Y, ln a = A, ln x = X

Y=A+bX.

х у Х Y
    ln 1 ln 3
    ln 2 ln 4

Далее делается операция, обратная логарифмированию – потенцирование:

ln y = A+bln x

ln y = G

y=eG

i.e. y=eA+blnx

y=eA+ebln x

y=eA+xb

 

В нелинейных функциях такую интерпретацию имеет параметр b.

Параметр b в степенной функции является коэф-м эластичности, который показывает, на сколько % в среднем изменится результат при изменении фактора на 1% от его среднего значения.

Коэф-т эластичности для нелинейных функций: Э=f’(x)*

Эср = f’(xcp)*

Таблица расчета средних коэф-в эластичности для наиболее используемых уравнений регрессий:

Вид функции у f’(x) Эср
y=a+bx b b*
у=a+bx+cx2 b+2cx
у=а+b/x -b/x2 -
y=a*xb ab*x-1  
y=a+bln x b/x b/(a+bln x cp)
y=1/(a+bx) -b/(a+bx)2 -bx/(a+bxcp)
     

 

a+bxcp - среднее значение у. Эластичность получается сразу в %.

Бывают случаи, когда для рассматриваемых признаков бессмысленно изменение в %. В этих случаях коэф-т эластичности не рассчитывают.

Для уравнений нелинейной регрессии определяют показатель тесноты связи. В это случае он называется индексом корреляции.

ρxy=

σ2y(общая) =

=

Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака у, объясняемую регрессией в общей дисперсии результативного признака.

ρxy2=1-(σ2ост2ост)=σ2факторная2у

σ2факт=

 

Индекс детерминации можно сравнивать с коэф-м парной линейной детерминации для обоснования возможностей применения линейной функции. Чем больше кривизна линии регрессии, тем меньше величина парного линейного коэф-та детерминации по сравнению с индексом детерминации.

Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F-критерию Фишера.

Fф=(ρxy2/(1-ρxy2))*(n-m-1)/m

n-m-1 = k1

m=k2

m- число параметров при х

Сравниваем с табличным значением, если оно больше фактического, то уравнение считается статистически значимым. Fтабл = (α, k1, k2)

О качестве нелинейного уравнения можно судить также, используя ошибку аппроксимации, которая вычисляется аналогично линейной функции.

 

Пример.

Поэтому отбор факторов обычно осуществляется в 2 стадии:

1. Подбираются факторы, исходя из сущности проблемы;

2. На основе матрицы показателей корреляции определяют факторы для параметров регрессии. Корреляция между объясняющими переменными позволяет исключить из модели дублирующие факторы.

Считается, что 2 переменные явно коллинеарны (находятся между собой в линейной зависимости), если парныйкоэф-т корреляции между ними больше 0,7. rXiXj>0,7.

Если факторы явно коллинеарны, то один из них дублирует другого, а значит, один из них надо исключить из модели. Предпочтение при этом отдаётся не фактору, тесно связанному с результатом, а фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.

Пример. Пусть матрица коэф-в парной корреляции оказалась следующей:

  У Х1 Х2 Х3
У        
Х1 0,8      
Х2 0,7 0,6    
Х3 0,8 0,5 0,2  

 

y=f(х1, х2, х3).

Оставляем тот фактор, который менее тесно связан с результатом – х2. Убираем х1.

(Excel- анализ данных – корреляция – матрица корреляции).

При наличии мультиколлинеарности факторов, т.е. когда более, чем 2 фактора, связаны между собой линейной связью, имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности означает, что некоторые факторы будут всегда действовать в унисон, в результате вариация исходных данных не будет являться независимой, а следовательно, нельзя будет оценить воздействие каждого фактора в отдельности. Наличие мультиколлинеарности приводит к следующим последствиям:

1. Затрудняется интерпретация параметров множественной регрессии, они теряют экономический смысл;

2. Оценки параметров ненадёжны, обнаруживаются большие стандартные ошибки, что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов используют определитель матрицы парных коэф-в корреляции между факторами. Если бы факторы не коррелировали между собой, то матрица парных коэф-в была бы единичной, т.к. все диагональные коэф-ты были бы равны 0.

Пусть нам дано уравнение регрессии следующего вида:

y=a+b1x1+b2x2+b3x3

1-матрица

r= = =1

Если наоборот – между факторами существует полная линейная зависимость, то и все коэф-ты корреляции будут равны единице, т.е. (матрица 2)

r= =0

и её определитель будет равен 0. Следовательно, чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадёжнее результаты множественной регрессии (мультиколлинеарность – это плохо =)).

Чем ближе к 1 – тем меньше мультиколлинеарность факторов.

Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь – убрать из модели один или несколько факторов. 2ой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.Существует много способов отбора факторов в модель. Наибольшее применение получили следующие:

1. Метод исключения – рассматривается полный набор факторов, а потом отсеиваются факторы из полного набора.

2. Метод включения – дополнительное введение факторов.

3. Шаговый регрессионный анализ –исключение ранее введённого фактора.

При отборе факторов рекомендуется пользоваться следующим правилом: число включаемых факторов в 6-7 раз должно быть меньше объёма совокупности, по которой строится регрессия. Если это соотношение нарушается, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что уравнение регрессии оказывается статистически незначимым, т.е. F-критерий меньше табличного значения.





Поделиться с друзьями:


Дата добавления: 2016-07-29; Мы поможем в написании ваших работ!; просмотров: 1085 | Нарушение авторских прав


Поиск на сайте:

Лучшие изречения:

Люди избавились бы от половины своих неприятностей, если бы договорились о значении слов. © Рене Декарт
==> читать все изречения...

2475 - | 2271 -


© 2015-2024 lektsii.org - Контакты - Последнее добавление

Ген: 0.01 с.