Пусть Х – наблюдаемая СВ. Она может быть дискретной, а может и непрерывной.
Опр. Статистической гипотезой Н называется предположение относительно параметров или вида распределения СВ Х. Гипотеза Н называется простой, если она однозначно определяет распределение СВ Х, иначе Н называется сложной.
Если распределение СВ Х известно и по выборке наблюдений необходимо проверить предположение о значении параметров этого распределения, то такие гипотезы называются параметрическими. А гипотезы о виде распределения – непараметрические.
Проверяемая гипотеза называется нулевой гипотезой и обозначается Н0. Обязательно на ряду с Н0 рассматривают одну из альтернативных гипотез Н1.
При этом имеются различные ситуации для Н1.
; ; ; .
Выбор альтернативной гипотезы Н1 определяется конкретной формулировкой задачи.
Опр. Правило, по которому принимается решение принять или отклонить гипотезу Н0, называется критерием К. Так как решение принимается на основе выборки наблюдений СВ Х, то необходимо выбрать подходящую статистику, которую мы будем называть статистикой Z критерия К. Замечание. При проверке простой параметрической гипотезы Н0: q=q0 в качестве статистики критерия выбирают ту же статистику, что и для оценки параметра q, т.е. . Основной принцип при проверке статистической гипотезы: Маловероятные события считаются невозможными, а события, имеющие большую вероятность, считаются достоверными. Реализация этого принципа на практике. Перед анализом выборки фиксируется некоторая малая вероятность a, называемая уровнем значимости. Пусть V множества значений статистики Z, VK – подмножество множества значений статистики Z (VK £ V). Это такое подмножество, что при условии истинности гипотезы Н0, имеем вероятность того, что P{ZÎVkïH0}=a. Обозначим через zв – выборочное значение статистики Z, которое вычитается по конкретной выборке. Критерии К формулируется следующим образом.
Отклонить гипотезу Н0, если zвÎVk. Отклонить гипотезу Н0, если zвÎV \ Vk. Уровень значимости a определяет размер критической области, а ее положение зависит от альтернативной гипотезы Н1.
Z1–a– квантиль распределения Z при условии, что верна гипотеза Н0.
Za– квантиль распределения Z при условии, что верна гипотеза Н0.
Проверку параметрической гипотезы при помощи критерия значимости можно разбить на следующие этапы:1)сформулировать Н0 и Н1;2)назначить a;3)выбрать статистику Z для проверки Н0;4)определить выборочное распределение Z при условии, что верна Н0;5)определить VK (она зависит от Н1);6)получить выборку и вычислить zb;7)принять статистическое решение: zвÎVk – отклонить Н0;
zвÎV \Vk – принять Н0. Статистическое решение может быть ошибочным. При этом различают ошибки I-го и II-го родов. Опр. Ошибкой первого рода называется ошибка, состоящая в том, что гипотеза Н0 отклоняется, когда Н0 – верна. Вероятность P{ZÎVkïH0}=a..Опр Ошибкой второго рода называется ошибка, состоящая в том, что принимается гипотеза Н0, но в действительности верна альтернативная гипотеза Н1. Вероятность ошибки второго рода при условии, что гипотеза Н1 – простая, P{ZÎV\VkïH1}=b. Проверка статистических гипотез и доверительных интервалов.Проверка гипотез с использованием критерия значимости может быть проведена на основе доверительных интервалов. При этом одностороннему критерию значимости будет соответствовать односторонний доверительный интервал, а двустороннему критерию значимости будет соответствовать, двусторонний доверительный интервал. Гипотеза Н0 – принимается, если значение q0 накрывается доверительным интервалом, иначе отклоняется.
2.Вероятностное пространство.Вероятность,ее свойства.Теорема сложения. Тройка (W, A, P), где W – это пространство элементарных событий;A – s-алгебра подмножеств W, называемых событиями; P – числовая функция, определенная на событиях и называемая вероятностью. P называется вероятностным пространством, если выполнены следующие аксиомы:1) P( A ) ³ 0,"AÎ A. 2) P (W) = 1 (нормированность P).3) P(A+B) = P(A) + P(B), если A×B =Æ (аддитивность).4)Для любой убывающей последовательности A1É A2 É…É AnÉ…событий из A такой, что , Имеет место равенство (непрерывность P). Замечания: Аксиомы 3, 4 можно заменить одной аксиомой s-адди-тивности: 3*. Если события An в последовательности A1, A2, …попарно несовместны, то
Из этих аксиом вытекают Свойства вероятностей:
1)Если A Í B, то вероятность P(B–A) = P(B) – P(A).
Доказательство:
Разобьем событие B в сумму несовместных событий
B = A +(B-A), A ×(B-A)=Æ,
P (B) = P (A +(B-A))= P (A)+ P (B-A) (по аксиоме 3)
P (B - A)= P (B) - P (A) ¢.
2)Если A Í B, то P (A) £ P (B)Доказательство:
Доказательство следует из 1 свойства и аксиомы 1.
P (A) + P (B - A) = P (B)
P (B - A) ³ 0, следовательно P (A) £ P (B) ¢.
3)" A Î A Þ 0 £ P (A) £ 1 Доказательство:
A Í W Þ P (A) £ P (W), P (W) = 1(по аксиоме 2)
P (A) ³ 0, " A Î A(по аксиоме 1) ¢.
4) P (Ā) = 1 - P (A) Доказательство: A + Ā = W, A × Ā = Æ
Тогда по аксиоме 3 и аксиоме 2 получаем
P (A + Ā) = P (W), P (A) + P (Ā) = P (W), P (A) + P (Ā) = 1 Þ P (Ā) = 1 - P (A) ¢.
5) P (Æ) = 0Доказательство:Æ + W = W Тогда по аксиоме 3 и 2 получаем, P (Æ) + P (W) = P (W) Þ
P (Æ) + 1 = 1, P (Æ) = 0 ¢.
6)Теорема сложения " A, B Î A: P (A + B) = P (A) + P (B) – P (AB)
Доказательство:
A + B = A + (B - AB), A ×(B - AB) = Æ
P (A + B) = P (A) + P (B - AB), но AB Í B следовательно по первому свойству (вероятность от разности равна разности вероятностей).
P (A + B) = P (A) + P (B) – P (AB) ¢.
4.Основные правила комбиноторики:«правило суммы» и «правило произведения» Комбинаторика – это наука о том, сколько различных комбинаций удовлетворяющих условиям можно составить на элементах конечного множества. Комбинаторные схемы: Правило суммы: X – конечное множество
ç X ç= n – количество элементов.
Объект x из X может быть выбран n -способами. Пусть X1,…,Xk попарно непересекающиеся множества, то есть XiÇXj=Æ, i¹j тогда очевидно выполняется равенство.
– правило суммы
Правило произведения: Если объект x может быть выбран m -способами и после каждого из таких выборов объект y может быть выбран n -способами. Тогда выбор упорядоченной пары (x,y) может быть осуществлен – m×n способами. Доказательство: Воспользуемся правилом суммы. {a1,…,am}– множество элементов, из которых выбирается объект x. " i =1,..,m,рассмотрим множество Xi={(ai,y)}, тогда первая компонента совпадает с ai. Множества Xi попарно не пересекаются. ç Xi ç =n. Множество пар Xi- это объед.
В общем случае правило произведения формируется следующим образом: Если объект x1 может быть выбран n1 – способами, после чего объект x2 может быть выбран n2 способами и " i, где i=1,..,m-1(2£ i £m-1) после выбора объектов x1,…,xi объект xi+1 может быть выбран ni+1 -способами, то выбор упорядоченной последовательности x1,…,xm может быть осуществлен n1,…,nm способами. Доказательство проводится методом математической индукции.
10.Формулы Байеса Теорема.Если A1,…,An – разбиение W и все , тогда имеет место следующая формула:
Доказательство: По теореме умножения:
Формулы Байеса можно интерпретировать следующим образом: назовём Ai – гипотезой, а B – результат некоторого эксперимента, a P(Ai) – априорные вероятности, а условные вероятности –апостериорные вероятности (послеопытные вероятности).Формулы Байеса позволяют по априорным и условным вероятностям вычислить апостериорные вероятности гипотез. Пример:Детали, изготовленные цехом завода, попадают к одному из двух контролёров для проверки на стандартность. Вероятность того, что деталь попадёт к первому контролёру – 0,6; ко второму контролёру, соответственно, – 0,4. Вероятность того, что годная деталь будет признана стандартной, для первого контролёра – 0,9; для второго – 0,98. Годная деталь была признана стандартной. Найти вероятность того, что её проверил первый контролёр. Решение. A1 ={деталь проверил первый} A2 ={деталь проверил второй}
A1A2 =Æ, A1+A2 =W B ={годная деталь признана стандартной}
11. Независимость событий Если события A иB таковы, что P(B)>0 Þ$ P(A½B)Определение. Событие A не зависит от события B, если P(A½B) = P(A) Если потребовать условия P(A)>0, то
Понятие того, что одно событие зависит от другого, симметрично. Замечание Из теоремы умножения: P(AB)=P(B)× P(A½B) P(AB)=P(B)× P(A) Это приводит к определению. ОпределениеСобытия A и B называются независимыми, если вероятность произведения событий равна произведению вероятностей событий (P(AB)=P(A)×P(B)). Если событие A не зависит от события B, то они являются просто независимыми. Если P(AB)=P(A)×P(B) не выполняется, то события являются зависимыми. P(AB)=P(A)×P(B) –теоретико-вероятностная (статистическая) независимость; её следует отличать от причинной независимости реальных явлений. Причинная независимость реальных явлений не устанавливается с помощью этого равенства, а постулируется на основе других внешних соображений. Определение (Независимость событий в совокупности) События A1,…,An называются независимыми, если " индексов 1£ i1< i2<…< im £ n, где 2£ m £ n, то выполняется:
В противном случае — события зависимы. Замечание. Из определения независимости событий в совокупности следует, что события любого подмножества множества A1,…,An будут независимы в совокупности. Пример. Имеются 4 числа: 2, 3, 5, 30. Наудачу выбирается одно число. Вероятность этого события – 0,25. Ak ={выбранное число делится на k }.
Решение.P(A2)=1/2; P(A3)=1/2; P(A5)=1/2; P(A30)=1/2P(A2A3)=1/4;P(A2A5)=1/4;P(A3A5)=1/4;P(A2A3A5)=1/4P(A2A3)=P(A2)P(A3)P(A2A5)=P(A2)P(A5) - попарно независимыP(A3A5)=P(A3)P(A5)P(A2)P(A3) P(A5)=0.5*0.5*0.5=1/8P(A2A3 A5)=1/4 (в совокупности зависимы).
Совокупная независимость более сильное свойство, нежели попарная независимость.
Теорема.Если события A1,…,An являются независимыми, индексы i1,…,in, j1,…,jk – все различны, вероятность , тогда:
14. Непрерывная СВ. Плотность распределения.
Опр.Функция есть плотность распределения СВ X, если
(***)
Из определения (***) следуют свойства плотности распределения.
Свойства 1.
Замечание.
Для СВ X имеющей функции. Плотности из свойства 1 и теоремы из курса математического анализа (о непрерывности интеграла с переменным верхним пределом) Þ что непрерывна.
2. в точках непрерывности .
3. .
4. , т.к. неубывающая функция, то .
5. Условия нормировки: .
Опр. СВ X называется СВНТ, если ее распределение имеет функцию плотности .
Через плотность можно выразить любую вероятность
17.Мода, медиана и квантили
МО не единственная характеристика положения, применяемая в теории вероятностей.
Опр. Модой СВДТ Х называется такое возможное значение xm, для которого =xm.
Модой СВНТ Х называется действительное число dX, являющееся точкой максимума функции плотности вероятностей (fX (x))
Пример.
X 0 1 2 3 4
P 0,05 0,3 0,25 0,2 0,2
dX=1 Замечание.
Мода может не существовать, иметь единственное значение, такие распределения называются унимодальное, или иметь множества значений – полимодальное распределение.
Наличие более чем одной моды, часто указывает на разнородность статистического материала, который положен в основу исследований.
Опр. Медианой СВ Х называется действительное число hX, удовлетворяющее условию: , то есть это корень уравнения FX (x)=1/2.
Эта характеристика применяется, как правило, только для СВНТ и геометрически медиана, это абсцисса той точки на оси ОХ, для которой площади под графиком fX(x) лежащие слева и справа от нее одинаковы и равны 1/2
Замечание.
В случае симметричного распределения (имеющего моду) три характеристики: 1) МО; 2) мода; 3) медиана совпадают.
Замечание.
Уравнение Fx(x)=1/2 может иметь множество корней, поэтому медиана может определяться неоднозначно.
Опр. Квантильлью порядка р распределения СВНТ Х называется действительное число tp, удовлетворяющее уравнению P{X<tp}=p
Замечание.
Медиана hx=t0,5 – квантиль порядка 0,5.
22.Локальная предельная теорема Муавра-Лапласа.
Биномиальное распределение имеет МО равное np .
Пусть p – не близко к 0 и 1.
Теорема.
Если в схеме независимых испытаний , то для любого C>0 равномерно по всем вида , где m – неотрицательные целые числа
Замечание.
Эти таблицы даются, только для x >0.
18.Целочисленные СВ и их производящие функции
В ряде случаев при определении важнейших числовых характеристик дискретных СВ может помочь аппарат производящих функций.
Опр. Дискретную СВ Х, принимающую только целые, неотрицательные значения называют целочисленной СВ.
Закон распределения целочисленной СВ определяется .
Закон распределения целочисленной СВ удобно изучать с помощью производящей функции, которая определяется, как
.
В соответствии с определением МО: .
Этот ряд сходится абсолютно при .
Поскольку , то между законом распределения и производящими функциями устанавливается взаимноодноз-начное соответствие.
Замечание – вероятностная производящая функция.
В математике рассматриваются произвольные производящие функции.
a0, a1,a2...
a0 +Sa1 +S2a2 +… – производящая функция, если она имеет не нулевой радиус сходимости.
Замечание
Возьмем первую производную по S от производящей функции.
,подставим значение S = 1.
.Возьмем вторую производную по S от производящей функции
. .
.
То есть можно выразить начальные моменты более высокого порядка, через начальные моменты более низкого порядка.
23 Интегральная предельная теорема Муавра-ЛапласаТеорема.
При равномерно по
Замечание.
– затабулирована.
Ее значения приводятся только для 0£ x £3,5.
Ф(– x)=1– Ф(x)
Пример. Вероятность изделию некоторого производства оказаться бракованным равна 0,005 (p = 0,005).Чему равна вероятность, что из n = 10000 наудачу взятых изделий, бракованных окажется не более 70 (m = 70).
–?
24.Геометрическое распределениеОпр. СВДТ Х имеет геометрическое распределение, если ее возможные значения 0, 1, 2, …, m, …, а вероятности этих значений
Комментарий Вероятности Pm для последовательных значений m образуют геометрическую прогрессию с первым членом p и знаменателем q. На практике геометрическое распределение появляется в следующих условиях. Пусть производится ряд независимых испытаний (опытов) с целью получения какого-то результата (“успеха”) А. При каждом опыте “успех” достигается с вероятностью p.
СВ Х – это число безуспешных опытов до первой попытки, в которой появляется результат А.
Ряд распределения имеет следующий вид.
X 0 1 2 … m ….
P p qp q2p... qmp …
Найдем числовые характеристики СВ Х распределенной по геометрическому закону.
; mX=q/p
;
;
На практике чаще приходится рассматривать не СВ Х, имеющую геометрическое распределение, а
Y=X+1 – это число попыток до первого успеха, включая удавшуюся.Ряд распределения
Y 1 2 … m ….
P p qp … qm–1p …
–геометрическое распределение,сдвинутое на 1 (геометрическое плюс1).
mY=M[X+1]=M[X]+1=q/p+1=1/p
DY=D[X+1]=D[X]=q/p225. Равномерное распределениеОпр. СВНТ Х называется распределенной равномерно на [a,b], если fX (x)=0 (при x Ï[a,b]) fX (x)=C (при x Î[a,b]), X~R(a,b).
Найдем константу С.
; ;
C=1/(b–a).
Пример. Шкала измерительного прибора проградуированных в некоторых единицах. СВ Х – ошибка при округлении отсчета до ближайшего целого деления, то она будет иметь равномерное распределение на (-1/2; 1/2).Найдем mX, DX, sX –?
Решение.
Замечание.
Моды равномерное распределение не имеет, а медиана совпадает с МО. hX=mX =(a+b)/2.
Найдем функцию распределения и построим ее график. FX(x)=P{ X < x }
1)Случай .
2)Случай
3)Случай
29. Совместная функция распределения
Пусть на одном и том же вероятностном пространстве (W,A, P) задано n СВ, , совокупность – называется многомерной (n -мерной) СВ или случайным вектором.
Совместная функция распределения: Рассмотрим в одном и том же вероятностном пространстве (W,A, P) набор СВ . Так как множество , таких пересечения , поэтому существует вероятность этого события, которая называется многомерной функцией распределения. Замечания: 1.В дальнейшем ограничимся случаем двух случайных величин .
2. Функция – вероятность того, что случайная точка попадает в бесконечный квадрант с вершиной в точке .
С помощью F, можно вычислить вероятность попадания случайной точки в полуполосу или в прямоугольник.
а)
б)
в)
Свойства.
1. по каждому аргументу не убывает и непрерывна слева.
2. .
3. .
4. а) При становится функцией распределения компоненты x.
.
б) При становится функцией распределения компоненты y.
.
34. Мультипликативные свойства математических ожиданий, аддитивное свойство дисперсииТеорема. Если СВ X и Y независимы, то M[XY]=M[X]*M[Y]. Доказательство: Ограничимся случаем двух дискретных СВ принимающих конечное множество значений, тогда
В силу аддитивности МО,
Так как СВ независимы, то
g.
Следствие: Если СВ – независимы, то (доказательство проводится методом математической индукции).
Из мультипликативного СВ МО Þ аддитивное свойство дисперсии.
Теорема. Если СВ X и Y независимы, то D[X+Y]=D[X]+D[Y].
Доказательство: D[X+Y]=M[((X+Y)–(mX – mY))2]= M[((X– mX)+(Y – mY))2]=
M[(X– mX)2+ 2(X– mX)(Y – mY)+ (Y – mY)2]= DX+DY+2 M[(X– mX)(Y – mY)]Так как X и Y независимы, то X– mX и Y – mY независимыÞ
D[X+Y]=DX+DY+2 M[(X– mX)(Y – mY)], где
X– mX=MX – mX=0 и MY – mY=0 Þ D[X+Y]= DX+DY g. Следствие: Если СВ X1, X2,..,Xn – независимы, то
37. Условное МО. Регрессия.Опр. Условным математическим ожиданием одной из СВ входящих в систему (X; Y) называется ее МО вычисленное при условии, что другая СВ приняла определенное значение. Замечание. То есть МО найденное на основе условного закона распределения. Если СВ дискретные, то
Если СВ X и Y непрерывные, то
Опр M[YïX=x]=j(x) называется регрессией Y на x.
M[XïY=y]=y(y) называется регрессией X на y.
Графики этих зависимостей от x и от y называются линиями регрессии или кривыми регрессии.
Замечание. Для независимых СВ линии регрессии Y на x и X на y параллельны координатным осям так как МО каждой из них не зависит от того, какое значение приняла другая.
Линии регрессии могут быть параллельны координатным осям и для зависимых СВ, когда МО каждой из них зависит от того, какое значение приняла другая.
Так как все моменты начальные и центральные любых порядков представляют собой МО, то можно говорить об условных моментах. Например об условных дисперсиях D[YïX=x], D[XïY=y],.
38.Двумерные нормальные распределения.Опр. Нормальным законом распределения на плоскости называется распределение вероятностей двумерной СВ (X, Y), если
Итак,нормальный закон на плоскости определяется 5-ю параметрами: mX; mY; sY; sY; rXY. Убедимся в том, что если компоненты X и Y не коррелированны, то они тогда и не зависимы. rXY =0
Замечание: Для нормально распределенных компонент двумерной СВ понятие независимости и некоррелированности равносильны.
Найдем условные законы распределения СВ X и Y воспользовавшись формулами.
.
.
Как легко видеть, каждый из условных законов распределения является также нормальных с условным МО и условной дисперсией вычисляемым по формуле:
Замечание. Из двух формул для условного МО видно, что для системы нормально распределенных X и Y, линии регрессии Y на x и X на y представляют собой прямые линии, то есть регрессия всегда линейна.
В геометрической интерпретации график линейной формулы плотности представляет собой холмообразную поверхность.
.
Сечение поверхности плоскостями параллельными плоскости XOY представляют собой эллипсы.
41.Распределение c2. (“хи-квадрат”).
Пусть Zi ~N(0;1), i=1,2…k, тогда –называется СВ распределенной по закону c2 с k степенями свободны.
, .
Распределение c2 определяется одним параметром числом степеней свободы. С увеличением степеней свободы распределение c2 медленно приближается к нормальному. На практике при k > 30 считают, что , где .Для СВ, имеющей c2 распределение существуют таблицы квантилей.
43. Распределение Фишера. Если U и V независимые СВ, распределенные по закону c2, , , тогда имеет распределение, которое называется F –распределением или распределением Фишера со степенями свободы k1 и k2. ( F–распределение определяется двумя параметрами k1 и k2 и существует таблица квантилей. .
44. Неравенства Чебышева. Следующие два неравенства называют неравенствами Чебышева. Сформулируем их в виде теорем. Теорема: " x>0 имеют место неравенства: .
Доказательство:
Разложим ï X ï в сумму двух слагаемых
,
так как x > 0, получаем
.
g.
Замечание. Очень часто второе неравенство Чебышева дают в такой форме
.
Второе неравенство Чебышева показывает, что при малой дисперсии с вероятностью близкой к 1 СВ Х концентрируется около своего МО.
48.Статистическое описание и вычисление оценок параметров распределения системы двух СВ. Пусть исход некоторого эксперимента описывается двумя СВ (X; Y).Предварительное представление о зависимости между X и Y можно получить, нанося элементы двумерной выборки (xi, yi), i=1,..,n, в виде точек на плоскость с выбранной системой координат. Такое представление называется диаграммой рассеяния.
Опр. Распределением двумерной выборки называется распределение двумерного дискретного СВ случайного вектора, принимающего значения (xi,, yi) с вероятностями 1/n. Выборочные числовые характеристики вычисляются как соответствующие числовые характеристики двумерного дискретного случайного вектора. Если объем выборки небольшой, то тогда вычисления проводятся в следующей последовательности:
1. .
Контроль .
2. Суммы квадратов отклонений от среднего и произведения отклонений от среднего
.
3. ; ; .
49. Линии регрессии Для СВ X и Y.
Регрессией Y на X называется условное МО .
используется для предсказания значения СВ Y по фиксированному значению СВ X.
Если , то говорят о линейной регрессии Y на X.
– прямая регрессии.
Оценки параметров линейной регрессии по выборке (xi, yi), i=1,..,n можно получить, используя МНК из условия минимума суммы
.
–выборочные коэффициенты регрессии.
; .
Выборочная линейная регрессия Y на X. Аналогично рассматривается X на Y.
; ;
.
Обе прямые регрессий пересекаются в точке с координатами . Угол между этими двумя прямыми уменьшается при увеличении коэффициента корреляции. При обе прямые совпадают. Замечание Прямые и должны быть различны.
52. Интервальные оценки. Доверительный интервал. Доверительная вероятность.
В ряде задач требуется не только найти для параметра подходящую оценку , но и указать к каким ошибкам может привести замена параметра его оценкой , т.е. требуется оценить точность и надежность оценки.
Для определения точности оценки в статистике пользуются доверительными интервалами.
Для определения надежности оценки в статистике пользуются доверительной вероятностью.
Опр. Доверительным интервалом для параметра называется интервал , содержащий истинное значение параметра с заданной вероятностью .
.
Опр. Число называется доверительной вероятностью, а значение a – уровнем значимости.
Замечание. Нижняя и верхняя граница доверительного интервала определяется по результатам наблюдений и следовательно является СВ. Поэтому так и говорят, что доверительный интервал «накрывает» оцениваемый параметр с вероятностью .
Выбор доверительной вероятности каждый раз определяется конкретной постановкой задачи. Обычно р = 0,9; р = 0,95; р = 0,99.
Часто применяют односторонние доверительные интервалы
(левосторонний), (правосторонний).
В простейших случаях метод построения доверительных интервалов состоит в следующем –оценка , . Предположим, что существует непрерывная и монотонная функция Y, зависящая от и , но такая, что ее распределение не зависит от и других параметров. Для нахождения границ доверительного интервала по заданной доверительной вероятности . В этом случае можно использовать неравенство , где числа , определяются из условия
Рассмотрим нахождение доверительного интервала для среднего и дисперсии нормально распределенной генеральной совокупности.
53. Доверительный интервал для оценки МО при известной дисперсии
1) Доверительный интервал для оценки МО при известной дисперсии нормально распределенной генеральной совокупности.
Пусть – выборочный вектор n –наблюдений СВ Х, где . В качестве оценки для m возьмем . Предположим, что известна. Рассмотрим статистику
.
Статистика .
По таблице нормального распределения найдем квантили и
.
.
.
.
.
Учитывая, что получаем
.
57. Критерий и его применение.
Критерий применяется в частности для проверки гипотез о виде распределения генеральной совокупности.
Процедура применения критерия для проверки гипотезы H0, утверждающей, что СВ Х имеет закон распределения состоит из следующих этапов.
Этапы:
1. По выборке найти оценки неизвестных параметров предполагаемого закона .
2. Если Х–СВДТ – определить частоты , i = 1, 2, …, r, с которым каждое значение встречается в выборке.
Если Х–СВНТ – разбить множество значений на r – непересекающихся интервалов и попавших в каждый из этих интервалов .
3. Х–СВДТ вычислить .
Х–СВНТ вычислить .
4. .
5. Принять статистическое решение.
– гипотеза Н0 – принимается.
– гипотеза Н0 – отклоняется.
e – количество оцениваемых параметров.
Малочисленные частоты надо будет объединять.
Проверка гипотезы о равномерном распределении генеральной совокупности.
n = 200
А;
№
(xi-1, xi)
ni
2 – 4
a =0,05
4 – 6
6 – 8
8 – 10
10 – 12
12 – 14
14 – 16
16 – 18
18 – 20
20 – 22
1.
2.
17,3
0,79
0,8
k = 10 – 2 – 1 = 7
– нет основания отвергать гипотезу о том, что выборка взята из генеральной совокупности и имеет равномерное распределение.
5-6.. Размещения и сочетания
Набор элементов xi1, xi2, …, xin из множества X={x1,…,xn} называется выборкой объема r из n -элементов < n, r >-выборка. Выборка называется упорядоченной, если порядок следования элементов в ней задан. Замечание: Две упорядоченные выборки, различающиеся лишь порядком следования элементов, считаются различными. Если порядок следования элементов не является существенным, то выборка называется неупорядоченной. В выборках могут допускаться или не допускаться повторения элементов. Упорядоченная < n, r >-выборка, в которой элементы могут повторяться, называется< n, r >-размещением с повторениями. Упорядоченная < n, r >-выборка элементы, которой попарно различны, называется < n, r >размещением без повторений (< n, r >размещением). Замечание < n,n >-размещения без повторений называются перестановками множества X. Неупорядоченная < n,r >-выборка, в которой элементы могут повторяться, называется < n, r >-сочетанием с повторениями. Неупорядоченная < n, r >-выборка элементы, которой попарно различны, называется < n, r >-сочетанием без повторений (< n, r >-сочетанием). Замечание: Любое < n, r >-сочетание можно рассматривать, как r -элементное подмножество n -элементного множества.
Теорема 1: = nrДоказательство: Каждое < n,r >-размещение с повторениями является упорядоченной последовательностью длины r. Причем каждый элемент этой последовательности может быть выбран n-способами. По правилу произведения получаем = n×n×n.. ×n =nr ¢.
Теорема 2: .
Доказательство:Каждое < n,r >-размещение без повторений является упорядоченной последовательностью длины r. По правилу произведения получаем
¢.
Теорема 3:
Доказательство:Каждое < r,r >-сочетание без повторений можно упорядочить r! -способами. Объединение получаемых таким образом попарно непересекающихся множеств < n,r >-размещений без повторений для всевозможных < n,r >-сочетаний без повторений, даст все < n,r >-размещения без повторений.
(суммирование производится по всевозможным < n,r >-сочетаниям без повторений).
¢.
Теорема 4: =
7. Геометрические вероятности.Задача Бюффона.Геометрические вероятности – класс моделей вероятностных пространств, дающий геометрические вероятности. Пусть Ω={ω} – ограниченное множество n -мерного евклидова пространства с конечным n -мерным объёмом. Событиями назовём подмножества Ω, для которых можно определить n -мерный объём. Для любого A Î A положим P(A)=çAç/ ç Ω ç, где |V|-n-мерный объем множества V Î A.Это вероятностное пространство служит моделью задач, в которых частица случайно бросается в область Ω. Предполагается, что положение частицы равномерно распределено на множестве Ω, т. е. вероятность попадания частицы в подмножество A пропорциональна n -мерному объёму этой области. Замечание: В классе конечных вероятностных пространств в систему A входили все подмножества Ω. При геометрическом определении вероятности в качестве A уже нельзя взять все подмножества Ω, так как некоторые из них не имеют n -мерного объёма. Примеры: 1) Стержень разламывается на две части в случайной точке, равномерно распределённой по длине стержня. Найти вероятность того, что длина меньшего обломка окажется не больше трети длины всего стержня. Обозначим за x расстояние от фиксированного конца стержня до точки излома. .
Задача Бюффона: Плоскость расчерчена па-раллельными прямыми, расстояние между которыми равно a. На плоскость наудачу брошена игла длины l (l < a). Найти вероятность того, что игла пересечет какую-либо прямую. Решение:. Пусть y – расстояние от центра иглы до ближайшей прямой (0£ y £ a/2), а x – ост-рый угол, составленный иглой с этой прямой (0£ x £ π2). Пара чисел (x, y) задаёт положение иглы с точностью до выбора конкретной прямой.