Опр. Статистической гипотезой наз-ся любое предположение о виде или параметре неизвестного закона распред-я. Обычно проверяемую гипотезу обозначают через Но.;
Пусть дан вариационный ряд.
возмож-ые знач. признака Х | Х1 | Х2 | … | Хк | å |
число объектов | n1 | n2 | … | nk | n |
Гипотеза Но: {Обязательно формулировать при задачах} Случайная величина Х-з/п рабочего имеет нормальный закон распред-я с параметрами а=151,6; s=24,3 (отклонение эксперем-х данных от теорет-х вызвано случ-ми факторами). Экспериментальные данные ni- эмпирические частоты (см. вар. ряд). (i=1,2,…m, где m- число
тнтервалов). Теоретич-ие данные (см. гипотезу Но);
; .
В качестве меры расхождения между эксперим-ми и теорит-ми данными испол-ют статистику (хи). Статистика – случайная вел. с парам.; При
достаточно большом n закон распределения статистики известен и не зависит от
закона распред-я случ. величины Х. При nॠэта статистика имеет так называемое распределение с K=m-S-1 степенями свободы. (m-число интервалов; S- число параметров закона распр-я Х).; Опр.: Уравнением значимости наз-ся вер-ть отвергнуть гипотезу Но, когда она верна. a- ур-нь значимости (тоже что и эпсило). Опр.:
Пороговым значением - наз-ся число, определ-ое равенством . Опр.: Правило по которому гипотеза Но приним-ся или отвергается наз-ся статистическим критерием.
Критерий Пирсона: Если вычисл-оезначение статистики меньше порогового значения ,то гипотеза Но приним-ся, в противном случае отвеграется на ур-не значимости a. Замечание: Отвержение гипотезы Но, когда она верна – ошибка 1-го рода. Наоборот вер-ть принять гипотезу h когда она не верна –ошибка 2-рода.
Коэффициент корреляции и его св-ва (продолжение). 1)Пусть r- коэфф-нт корреляции случ. Величин X и Y . Заменяя в последнем
выражении входящие величины на их выборочные оценки, получаем формулу вычисления выборочного коэфф-нта корреляции r: , где -выборочная ковариация.; Известно ; ; . Т.к. знаки коэфф-та коррел-ции r с одной стороны и коэфф-тов прямых регрессий
совпадают (определяются знаки m), то справедлива формула: , где зн. «+»- в случае , зн. «-»- если . Опр.: Если r>0, то связь между переменными наз-ся прямой. Если r<0- связь обратная. Опр. Связь между переменными тесная, если |r|³0,7;умеренной если 0,4£|r|£0,7; слабой если |r|<0,4. Основное св-во коэфф-та корреляции |r|£1.
Предельное значение коэфф-та корреляции.
|
|
|
|
|
|
паралельны, но т.к. он имеютобщую точку (), то прямые регрессии совпадают. Вывод: при |r|=1 прямые
регрессии совпадают.2)r=0ó т.ит.т.к. m=0 т.ит.т.к. и
; ;
|
|
|
|
, , , .
Обозначим , , в терминах эти ур-ния прямых
регрессий имеют вид:
tga=r, ctgb=r;
tga=tg(a-b)= ; tgj= .
Оценка значимости коэфф-та корреляции. Рассмотрим следующую гипотезу Но: коэфф-нт корреляции=0, т.е r=0. В кач-ве меры доверия к справедливости данной гипотезы исп-ся статистика. . Закон распр-я данной статистики известен: она имеет так называемые распредел-е Стьюдента с k=n-2 степенями свободы.; Опр. Пороговое значение , для статистики t определяется равенством .;
Критерий Стьюдента: Если вычисленное значение статистики t удовлетворяет нер-ву - гипотеза n-Ho принимается, в противном случае – отвергается на уровне
|
|
t попадает в эту область с вер-тью 0,95