Правило суммы.
Если два действия взаимно исключают друг друга, причем одно из них можно выполнить m способами, а другое - n способами, то выполнить одно (не важно какое) из этих действий можно N=n + m способами.
Правило умножения.
Пусть требуется выполнить одно за другим какие-то k действий. Если первое действие можно выполнить n1способами, после этого второе действие можно осуществить n2 способами и т.д. и, наконец, после осуществления (k-1)-го действия, k-ое можно выполнить nk способами, то все k действий вместе могут быть выполнены
способами.
Перестановкой из n элементов называется любой упорядоченный набор этих элементов.
Размещениями из n элементов по k элементов будем называть упорядоченные подмножества, состоящие из k элементов множества An
Сочетаниями из n элементов по k элементов называются подмножества, состоящие из k элементов множества An. Одно сочетание от другого отличается только составом выбранных элементов (но не порядком их расположения, как у размещений).
5) Теорема сложения вероятностей несовместных событий.
Теорема сложения вероятностей несовместных событий. Вероятность появления одного из двух несовместных событий, безразлично какого, равна сумме вероятностей этих событий: Р(А+В)=Р(А)+Р(В). Суммой двух событий А и В называется событие, состоящее из всех исходов, входящих либо в А, либо в В. Другими словами, под B + A понимают следующее событие: произошло или событие А, или событие В, либо они произошли одновременно, т.е. произошло хотя бы одно из событий А или В. Разностью двух событий А и В (обозначается A - B или A \ B)называется событие, состоящее из исходов, входящих в А, но не в В. Противоположным (дополнительным) для события А (обозначается A-) называется событие, состоящее из всех исходов, которые не входят в А.
Наступление события A- означает просто, что событие А не наступило.
6) Два события А и В называют несовместными, если наступление одного из них исключает наступление другого (выпадение «герба» исключает «цифру»).
Если же появление одного из них не исключает возможность появления другого, то такие события называются совместными (два стрелка -- в одну цель -- попадание первого не исключает попадание второго).
Условной вероятностью события А называется вероятность события А, вычисленная при условии, что произошло событие В. Условная вероятность события А при условии, что событие В произошло обозначается индексами (А/В)
Итак, условная вероятность события А при условии, что произошло событие В с
P (В) ≠ 0, определяется формулой
Свойства условных вероятностей
(аналогичны свойствам безусловной вероятности):
1) PBΩ=1; 2) PB(0/) = 0; 3) 0<PB(A)<1; 4) if A э C, PB(A)< PB(C); 5) PB(A) = PB (A).
Теорема умножения вероятностей.
Вероятность совместного наступления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:
В частности для независимых событий , т.е. вероятность совместного наступления двух независимых событий равна произведению вероятностей этих событий.
7) Теорема умножения вероятностей совместных событий.
Теорема сложения вероятностей совместных событий. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: Р(А+В)=Р(А)+Р(В)-Р(АВ).
Произведением двух событий А и В (обозначается АВ) называется событие, состоящее из тех исходов, которые входят как в А, так и в В. Иными словами, АВ означает событие, при котором события А и В наступают одновременно.
Разностью двух событий А и В (обозначается A - B или A \ B)называется событие, состоящее из исходов, входящих в А, но не в В.
Противоположным (дополнительным) для события А (обозначается A-) называется событие, состоящее из всех исходов, которые не входят в А.
Наступление события A- означает просто, что событие А не наступило.
8)
Событие А называется независимым от события В (с P(B) ≠ 0), if PB = P (A)), т.е. вероятность наступления события А не зависит от того, произошло событие В или нет.
Ясно,что если А независит от В, то и В независит от А (свойство взаимности).
Полной группой событий называется совокупность событий, которые:
1)попарно несовместны;
2)и в результате данного опыта происходит одно и только одно из них.
9) Так как заранее неизвестно, с каким из событий , произойдет событие А, то H i
называют часто гипотезами.
10) Ряд задач ТВ связан с экспериментом, в котором проводятся последовательные независимые испытания. Последовательные испытания называются независимыми, если вероятность осуществления любого исхода в n-м по счету испытании не зависит от реализации исходов предыдущих испытаний.
Простейшим классом повторных независимых испытаний является последовательность независимых испытаний с двумя исходами («успех» и «неуспех») и с неизменными вероятностями «успеха» (р) и «неуспеха» (q).(1-р)=q в каждом испытании (схема
испытаний Бернулли).
11) Число наступлений события А называется наивероятнейшим, если оно имеет наибольшую
вероятность по сравнению с вероятностями наступления события А любое другое количество раз.
Наивероятнейшее число m0 наступлений события А в n испытаниях заключено в интервале
12) Локальная и интегральная теоремы Лапласа
13) В случае, когда n велико, а р мало вместо формулы Бернулли применяют приближенную формулу Пуассона
14) ДСВ, ее закон распределения. Многоугольник распределения.
Законом распределения СВ называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и вероятностями, с которыми она принимает эти значения.
ДСВ может быть задана рядом распределения - это таблица, в которой перечислены все возможные значения ДСВ и соответствующие им вероятности.
Если на оси Х отложить значения xi, а по вертикальной оси вероятности этих значений, то:
15) Функция распределения вероятностей случайной величины и ее свойства.
Функцией распределения случайной величины Х называется функция F(x), выражающая для каждого х вероятность того, что случайная величина Х примет значение меньшее х:
Эта функция каждому действительному числу x (текущая переменная) ставит в соответствие другое действительное число:
Свойства:
1. ; 2.неубывающая; 3. ; 4. ;
5. в точке х0 – непрерывна слева; 6. ; 7. для ДСВ - ; 7. для НСВ - интеграл от плотности.
16) Математическое ожидание дискретной случайной величины и его свойства.
Св-ва MX:
1. ; 2. ;
3. ; 4. ;
5. .
17) Дисперсия дискретной случайной величины и ее свойства. Среднее квадратическое отклонение.
, где a = MX
Свойства DX:
1. ; 2. ; 3. ; 4. .
18) Биномиальный закон распределения.
19) Геометрическое распределение
20) Гипергеометрическое распределение.
Пусть имеется N элементов, из которых М элементов обладают некоторым признаком А. Извлекаются случайным образом n элементов. Вероятность, что X = m определяется по формуле:
.
21) Распределение Пуассона
22) НСВ, плотность распределения вероятностей НСВ и ее свойства.
СВ называется непрерывной, если ее функция распределения F(X) непрерывна в любой точке и дифференцируема всюду, кроме, быть может, отдельных точек.
Плотностью вероятности (плотностью распределения или просто плотностью) р (х) непрерывной случайной величины Х называется производная ее функции распределения: .
Свойства плотности вероятности НСВ:
1. ; 2. ; 3. ; 4. .
Геометрически свойства плотности вероятности означают, что ее график – кривая распределения, лежит не ниже оси абсцисс, и полная площадь фигуры, ограниченной кривой распределения и осью абсцисс, = 1.
23) Математическое ожидание и дисперсия НСВ.
МХ НСВ, возможные значения которой принадлежат всей оси Ох, есть величина . В частности, если все возможные значения принадлежат интервалу (a;b), то .
Дисперсия DX, возможные значения которой принадлежат всей оси Ох, определяется
.
24) Равномерный закон распределения и его числовые характеристики
НСВ имеет равномерный закон распределения на отрезке [a;b], если её плотность вероятности р(х), постоянна на этом отрезке и равна нулю вне его, т.е.
Тогда функция НСВ имеет вид:
25) Показательный закон распределения и его числовые характеристики
НСВ имеет показательный/ экспоненциальный закон распределения с параметром λ, если плотность вероятности имеет вид:
; р(х) = 0 при х<0.
Функция распределения НСВ, распределённой по экспоненциальному закону, равна
26) Нормальный закон распределения. Влияние параметров распределения на вид нормальной кривой
НСВ имеет нормальный закон распределения (Закон Гаусса) с параметрами a и σ2 , если плотность вероятности имеет вид:
Максимум в (.) х=а= .
с ординатой .
27) Числовые характеристики случайной величины, имеющей нормальное распределение
28) Вероятность попадания в заданный интервал нормально распределенной СВ. Вероятность заданного отклонения. Правило трех сигм.
Вероятность попадания в интервал [a;b] определяется по формуле:
Вероятность того, что отклонение случайной величины, распределённой по нормальному закону, от МХ не превысит ε > 0 (по абсолютной величине), равна
Правило «3 сигм»:
Если случайная величина имеет нормальный закон распределения с параметрами а и σ2, то практически достоверно, что ее значения заключены в интервале (а -3σ; а +3σ): .
29) Моменты случайной величины. Асимметрия. Эксцесс
Начальный теоретический момент порядка k: | Центральный теоретический момент порядка k: |
МХ/ 1-ый начальный момент характеризует среднее значение распределения СВ,
ДХ/ 2-ой центральный момент – степень рассеяния распределения СВ относительно МХ.
3-ий центральный момент служит для характеристики асимметрии.
Коэффициент асимметрии =
А = 0 – распределение симметрично относительно МХ.
4-ый центральный момент характеризует крутость распределения.
Эксцесс – число, равное .
Кривые более островершинные, чем кривая для нормального распределения, обладают положительным эксцессом, более плосковершинные – отрицательным эксцессом.
30) Неравенство Маркова
31) Неравенство Чебышева
Для любой СВ X, имеющей конечную дисперсию и любого e > 0
.
32) Теорема Чебышева
33) Теорема Бернулли. Значение закона больших чисел
При доказательстве получаем:
.
ЗБЧ устанавливает устойчивость средних значений: при большом числе испытаний их средний результат перестает быть случайным и может быть предсказан с достаточной точностью.
34) Понятие о ЦПТ
ЦПТ устанавливает условия, при которых закон распределения суммы большого числа случайных величин неограниченно приближается к нормальному.
Составляет основу мат.стат.
35) Предмет и метод математической статистики
МС – раздел математики, в котором изучаются закономерности массовых случайных явлений на основе обработки результатов наблюдений или экспериментов.
Методы: корреляционно-регрессионный анализ, дисперсионный анализ, факторный анализ и др.
а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка параметров распределения, вид которого известен; оценка зависимости от других случайных величин и т.д.;
б) проверка статистических гипотез о виде неизвестного распределения или о значениях параметров известного распределения.
36) Генеральная и выборочная совокупности. Способы отбора
Генеральная совокупность – все множество имеющихся объектов.
Выборка – набор объектов, случайно отобранных из генеральной совокупности.
Объем генеральной совокупности N и объем выборки n – число объектов в рассматриваемой совокупности.
Виды выборки:
Повторная – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;
Бесповторная – отобранный объект в генеральную совокупность не возвращается.
37) Построение дискретного вариационного ряда. Эмпирическая функция распределения и ее свойства
По способу построения различают дискретные (прерывные) вариационные ряды, основанные на прерывной вариации признака, и интервальными(непрерывными), базирующиеся на непрерывно изменяющемся значении признака.
При построении дискретного вариационного ряда в первой графе (строке) указываются конкретные значения каждого индивидуального значения признака (т.е. каждой варианты), а во второй графе (строке) – частоты.
Выборочной (эмпирической) функцией распределения называют функцию F* (x), определяющую для каждого значения х относительную частоту события X < x. Таким образом,
,
где пх – число вариант, меньших х, п – объем выборки.
Свойства F (x):
1) 0 ≤ F* (x) ≤ 1.
2) F* (x) – неубывающая функция.
3) Если х 1 – наименьшая варианта, то F* (x) = 0 при х ≤ х 1; если хк – наибольшая варианта, то F* (x) = 1 при х > хк.
38) Построение интервального вариационного ряда. Гистограмма частот и относительных частот
Интервалы можно брать как равные, так и неравные. Для каждого из них указываются частоты и частости, (т.е. абсолютное или относительное числа единиц совокупности, у которых значение варианты находится внутри данного интервала).
Первый и последний интервалы ряда во многих случаях берутся незакрытыми, т.е. для первого интервала указывается только верхняя граница (“до… ”) а, для последнего только нижняя (“от… и выше”, “свыше…”). Использование незакрытых интервалов удобно, когда в совокупности встречается незначительное количество единиц, с очень малыми или очень большими значениями признака, резко отличающимися от всех остальных значений.
Наглядное представление о поведении случайной величины, исследуемой по выборке, дает гистограмма – столбчатая диаграмма, состоящая из прямоугольников, основания которых – частичные интервалы длины h, а высоты – плотности абсолютных или относительных частот. При этом общая площадь гистограммы абсолютных частот равна объему выбор-ки, а гистограммы относительных частот – единице.
- величина интервала.
39) Выборочная средняя, выборочная дисперсия и их свойства
Оценкой математического ожидания служит выборочное среднее
то есть среднее арифметическое всех элементов выборки, а оценкой дисперсии – выборочная дисперсия
.
Св-ва выборочного среднего:
1 – если индивидуальное значение признака Х увеличить или уменьшить на некоторое постоянное число а, то среднее увеличится или уменьшится на это же число а.
2 – если индивидуальное значение признака Х увеличить или уменьшить в k раз, то среднее увеличится или уменьшится в k раз.
3 – если частоты разделить на некоторое постоянное число, то среднее не изменится.
4 – сумма отклонений индивидуальных значений среднего всегда = 0
Св-ва выборочной дисперсии:
1 - если все значения признака Х увеличить или уменьшить на 1 и то же постоянное число а, то дисперсия не изменится.
2 – если все значения признака увеличить или уменьшить в одно и то же число k раз, то дисперсия увеличится или уменьшится в k 2 раз.
3 – значение дисперсии, рассчитанная от выборочной средней, и есть минимальное значение дисперсии.
40) Точечное оценивание числовых характеристик случайной величины. Состоятельность, эффективность, несмещенность оценки. Исправленная выборочная дисперсия
Оценка называется точечной, если она выражается одним числом. К ней относятся выборочные средняя, дисперсия и доля.
Состоятельной называется статистическая оценка, которая при п →∞ стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при п →∞ ее дисперсия стремится к 0).
Статистическая оценка называется эффективной, если она при заданном объеме выборки п имеет наименьшую возможную дисперсию.
Статистическая оценка Θ* называется несмещенной, если ее математическое ожидание равно оцениваемому параметруΘ при любом объеме выборки:
М (Θ*) = Θ.
Выборочная дисперсия является смещенной оценкой генеральной дисперсии. Поэтому вводится несмещенная оценка генеральной дисперсии – исправленная выборочная дисперсия
41) Интервальные оценки числовых характеристик случайной величины. Доверительная вероятность. Доверительный интервал.
Интервал вида где Ө - истинное значение оцениваемого параметра, а Ө * - его точечная оценка, называется доверительным интервалом, а вероятность доверительной вероятностью или надежностью.
Для построения доверительного интервала требуется знать закон распределения исследуемой случайной величины. Пусть эта величина распределена по нормальному закону. Если при этом известно ее среднее квадратическое отклонение σ, то доверительный интервал для математического ожидания имеет вид:
где а – оцениваемое математическое ожидание, хВ – выборочное среднее, п – объем выборки, t – такое значение аргумента функции Лапласа Ф (t), при котором
При неизвестном среднем квадратическом отклонении доверительный интервал для математического ожидания при заданной надежности γ задается так:
Здесь s – исправленное выборочное среднее квадратическое отклонение, а – критическая точка распределения Стьюдента, значение которой можно найти из таблиц по известным п и γ.
42) Основные понятия регрессионного и корреляционного анализа
Функциональная зависимость – зависимость между 2-мя величинами, которая выражается функцией y=f(x), где каждому значению х соответствует одно и только одно значение у.
Стохастическая зависимость – зависимость между СВ, при которой с изменением одной величины меняется распределение другой. Один из показателей – коэффициент корреляции. Если D(X+Y) не = DX+DY, то существует стохастическая связь между Х и У.
Т.о., необходимо и достаточно, чтобы: M((X-MX)(Y-MY) не = 0 – корреляционный момент.
- коэффициент корреляции.
43) Нахождение параметров линейного уравнения регрессии методом наименьших квадратов
При совместном исследовании двух случайных величин по имеющейся выборке (х 1, у 2), (х 2, у 2),…,(xk, yk) возникает задача определения зависимости между ними. Если вид функции y = f (x, a, b,...) задан, то требуется найти значения коэффициентов a, b,..., при которых yi наименее отличаются от f (xi). В методе наименьших квадратов коэффициенты должны быть такими, что принимает минимальное значение.
Линейная зависимость y = ax + b. Если , то из условия получаем:
44) Коэффициент линейной корреляции и его свойства
Если для выборки двумерной случайной величины (X, Y): {(xi, yi), i = 1, 2,..., n } вычислены выборочные средние и и выборочные средние квадратические отклонения σх и σу, то по этим данным можно вычислить выборочный коэффициент корреляции
.
Коэффициент корреляции – безразмерная величина, которая служит для оценки степени линейной зависимости между Х и Y: эта связь тем сильнее, чем ближе | r | к единице.
Линейные уравнения, описывающие связь между Х и Y, называются выборочным уравнением прямой линии регрессии Y на Х:
и выборочным уравнением прямой линии регрессии Х на Y:
.
Свойства:
1 – величина статистического коэффициента корреляции не зависит от единиц измерения Х и Y.
2 – абсолютная величина статистического коэффициента вариации не превосходит 1.
3 – если коэффициент корреляции = 0, то между Х и Y нет связи.
4 – выполнение условия r = ±1 является необходимым и достаточным для того, чтобы линии регрессии Х на Y и Y на Х совпали.
5 – если статистический коэффициент корреляции r = ±1, то между Х и Y существует линейная функциональная связь.
6 – если между Х и Y существует линейная функциональная связь, то статистический коэффициент корреляции r = ±1.
45) Статистическая гипотеза. Статистический критерий проверки гипотез. Ошибки первого и второго рода. Критическая область
Статистической гипотезой называют гипотезу о виде неизвестного распределения генеральной совокупности или о параметрах известных распределений.
Статистическим критерием называется случайная величина К с известным законом распределения, служащая для проверки нулевой гипотезы.
В результате проверки правильности выдвинутой нулевой гипотезы (такая проверка называется статистической, так как производится с применением методов математичес-кой статистики) возможны ошибки двух видов: ошибка первого рода, состоящая в том, что будет отвергнута правильная нулевая гипотеза, и ошибка второго рода, заключаю-щаяся в том, что будет принята неверная гипотеза.
Критической областью называют область значений критерия, при которых нулевую гипотезу отвергают, областью принятия гипотезы – область значений критерия, при которых гипотезу принимают.
Различают разные виды критических областей:
- правостороннюю критическую область, определяемую неравенством K > kкр (kкр > 0);
- левостороннюю критическую область, определяемую неравенством K < kкр (kкр < 0);
- двустороннюю критическую область, определяемую неравенствами K < k 1, K > k 2 (k 2 > k 1).
48) Критерий согласия Пирсона о предполагаемом законе распределения случайной величины
Критерий согласия Пирсона (χ2) применяют для проверки гипотезы о соответствии эмпирического распределения предполагаемому теоретическому распределению F(x) при большом объеме выборки (n ≥ 100). Критерий применим для любых видов функции F(x), даже при неизвестных значениях их параметров, что обычно имеет место при анализе результатов механических испытаний. В этом заключается его универсальность.
Использование критерия χ2 предусматривает разбиение размаха варьирования выборки на интервалы и определения числа наблюдений (частоты) nj для каждого из e интервалов. Для удобства оценок параметров распределения интервалы выбирают одинаковой длины.
Число интервалов зависит от объема выборки. С татистикой критерия Пирсона служит величина,
где pj - вероятность попадания изучаемой случайной величины в j-и интервал, вычисляемая в соответствии с гипотетическим законом распределением F(x). При вычислении вероятности pj нужно иметь в виду, что левая граница первого интервала и правая последнего должны совпадать с границами области возможных значений случайной величины. Например, при нормальном распределении первый интервал простирается до -∞, а последний - до +∞.
Нулевую гипотезу о соответствии выборочного распределения теоретическому закону F(x) проверяют путем сравнения вычисленной по формуле величины с критическим значением χ2α, найденным по приложения для уровня значимости α и числа степеней свободы k = e 1 - m - 1. Здесь e 1 - число интервалов после объединения; m - число параметров, оцениваемых по рассматриваемой выборке. Если выполняется неравенство
χ2 ≤ χ2α (3.92)
то нулевую гипотезу не отвергают. При несоблюдении указанного неравенства принимают альтернативную гипотезу о принадлежности выборки неизвестному распределению.
Недостатком критерия согласия Пирсона является потеря части первоначальной информации, связанная с необходимостью группировки результатов наблюдений в интервалы и объединения отдельных интервалов с малым числом наблюдений. В связи с этим рекомендуется дополнять проверку соответствия распределений по критерию χ2 другими критериями. Особенно это необходимо при сравнительно малом объеме выборки (n ≈ 100).
49) Критерий согласия Колмогорова о предполагаемом законе распределения случайной величины.
Этот критерий применяется для проверки простой гипотезы Н 0 о том, что независимые одинаково распределенные случайные величины Х 1, Х 2, …, Хп имеют заданную непрерывную функцию распределения F (x).
Найдем функцию эмпирического распределения Fn (x) и будем искать границы двусторонней критической области, определяемой условием
. (20.3)
А.Н.Колмогоров доказал, что в случае справедливости гипотезы Н 0 распределение статистики Dn не зависит от функции F (x), и при
где - (20.4)
- критерий Колмогорова, значения которого можно найти в соответствующих таблицах. Критическое значение критерия λп (α) вычисляется по заданному уровню значимости α как корень уравнения .
Можно показать, что приближенное значение вычисляется по формуле
,
где z – корень уравнения
На практике для вычисления значения статистики Dn используется то, что
, где
а - вариационный ряд, построенный по выборке Х 1, Х 2, …, Хп.
Можно дать следующее геометрическое истолкование критерия Колмогорова: если изобразить на плоскости О ху графики функций Fn (x), Fn (x) ±λ n (α) (рис. 1), то гипотеза Н 0 верна, если график функции F (x) не выходит за пределы области, лежащей между графиками функций Fn (x) -λ n (α) и Fn (x) +λ n (α).
х
50) Основные понятия дисперсионного анализа. Однофакторный и двухфакторный дисперсионный анализ
ДА – изучение переменных факторов по их дисперсиям.
Факторы – различные независимые показатели.
ДА позволяет устанавливать степень влияния факторов на изменчивость признака.
Идея ДА в том, что дисперсия признака разлагается на сумму составляющих её дисперсий.
Однофакторный анализ:
Пусть значение генеральной дисперсии неизвестно; фактор А изучается на уровнях А1, А2,…, Аm. Пусть на каждом из m измерений было произведено n измерений признака Х. Для выяснения влияния фактора А на Х сравнивают дисперсии SA2 и S02. Влияние А считается значимым на уровне значимости α, если выполняется неравенство:
SA2 / S02 > F1-α; v1; v2. где v1 = m - 1 и v2 = m (n - 1) степени свободы α.
В противном случае влияние фактора А на признак Х считается несущественным.
Двухфакторный анализ:
Для проверки взаимодействия факторов А и В составляют соотношение:
nS02/ S2 и сравнивают его с табличным F1-α с v1 = (k - 1) (m - 1) и v2 = mk (n - 1) степени свободы α.