Опр. Пусть Р(В)>0. Условной вер-ью события А при условии, что соб. В произошло, наз-ся отношение, обознач-ое Р(А \ В)=Р(АВ)/Р(В). Р(АВ) = Р(А \ В)•Р(В) – простейш. вариант теоремы умножения вер-тей (верн. и для Р(В) = 0).
Теор. (умножения вер-ей) При n ³ 2 верно следующее: Р(А 1 А 2… А n) = Р(А 1)•Р(А 2\ А 1)•Р(А 3\ А 1 А 2) •…•Р(А n\ А 1 А 2… А n-1). Док по индукции: теор. верна для n = 2 и 3, пусть верна и для n = N ³ 3. Докажем, что теор. будет верна для n = N +1. По опред. Р(А 1 А 2… А n А n+1) = Р(А 1 А 2… А n)•Р(А n+1\ А 1 А 2… А n)= Р(А1)•Р(А2\А1)… Р(А n\ А 1 А 2… А n-1)•Р(А n+1\ А 1 А 2… А n)■
Теор. (сложения вер-ей) Для произвольных соб. А и В верно Р(А + В) = Р(А) + Р(В) – Р(АВ). Док: Заметим, что верны след. рав-ва: А + В = А + (В \ АВ) [или Û U(+)], А •(В \ АВ) = Ø [или Û ∩(•)]. В силу аксиомы аддитивности вер-ти [ Р(А + В) = Р(А)+Р(В), если АВ = Ø ] верно Р(А + В) = Р(А + (В \ АВ)) = Р(А) + Р(В \ АВ). Т.к.Р(В \ АВ) = Р(В) – Р(АВ), то Р(А + В) = Р(А) + Р(В) – Р(АВ) ■
Формулы полной вероятности и Байеса, примеры. Понятие распределения вероятностей.
Т. Формула полной вероятности
Пусть событие А1, А2…Аn попарно несовместны и А1, А2…Аn = Ω
AiAj = Ǿ, если i ≠j
Тогда для любого события В, которое происходит с одним и только одним событием
Ai из { А1, А2…Аn } верна формула P(B) = к=1∑nР(Аk)* Р(В/Аk) (суммируем по к = 1..n)
Д-во:
По условию событие В=A*Ω = В(А1+А2…+Аn) =к=1∑n P(ВАk)
BAi*Baj = Ǿ, i ≠j
P(B)= к=1∑n P(ВАk)= к=1∑n P(Ak)* P(В/Аk), по
простейшему варианту теоремы умножения (P(AB)=P(A)*P(B/A))
Пример.
В урне М белых шаров и (N-M) — черных по схеме выбора без возвращения последовательно извлекаются 2 шара,
Найти вероятность того, что 2-й шар будет белым:
Решение:
Опред. события А1, А2, В
А1 ={1-й шар — белый}
А2 ={1-й шар — черный}
В={2-й шар — белый}
Тогда по формуле полной вероятности:
P(B) = P(A1)*P(B/A1)+P(A2)*P(B/A2)=M/N * M-1/N-1 + N-M/N * M/N-1 = M/N
Формула Байеса.
Пусть события А1, А2…Аn попарно несовместны,
А1 + А2…+Аn=Ω, Р(В)>0
Тогда:
P(Ak│B)=(P(Ak)P(B│Ak))/P(B)=(P(Ak)P(B│Ak))/( к=1∑n P(Ak) P(B│Ak)), (k=1,…n)
Д-во:
По теореме умножения вероятностей:
P(B Ak) = P(B) P(Ak│B) = P(Ak) P(B│Ak).
Поэтому P(Ak│B)= (P(Ak) P(B│Ak))/P(B).
Но по формуле полной вероятности:
P(B)= к=1∑n P(Ak) P(B│Ak).
Формулу Байеса можно интерпретировать следующим образом. Назовем события Аk гипотезами. Пусть событие В — результат некоторого эксперимента. Вероятности Р(Аk)— это априорные вероятности гипотез, вычисляемые до постановки опыта, а условные вероятности P(Ak│В) — это апостериорные вероятности гипотез, вычисляемые после того, как стал известен результат опыта В.
Пример.
Имеем 2 урны по N шаров в каждой. В 1-й — M1 белых шаров, а во второй М2 — белых шаров. Эксперимент состоит: сначала, с вероятностью ½ выбирается 1-я или 2-я урна, а затем из неё случайно извлекается (с возвращением) n шаров. Пусть событие В состоит в том, что вынутые шары — белые
Имеем 2 гипотезы:
1) А1={выбрана 1-я урна}
2) А2={выбрана 2-я урна}
По условию априорного распределения вероятностей:
P(A1)=P(A2)= 1/2
Далее, легко находим вероятности Р(В│Аk) = (Mk/N)n/
Формула Байеса дает апостериорные вероятности:
Р(Аk│В) = (1/2 (Mk/N)n)/(1/2 (M1/N)n + ½ (M2/N)n)=Mkn/(M1n+ M2n), k=1,2.
Если М1<M2, то при n→¥ P(A2│B)=1/(1+(M1/M2)n)→1, т.к. М1/M2<1
Понятие независимых событий. Схема независимых испытаний Бернулли, формула Бернулли, доказательство её корректности, примеры.
Опр. События А и В называются независимыми, если Р(АВ) = Р(А) Р(В). Если Р(АВ) ≠ Р(А) Р(В), события А и В называются зависимыми.
Если Р(В)=0, то событие В является независимым по отношению к любому событию А.
Пример.
Из колоды в 52 карты (13 карт каждой масти) случайно вынимается карта. Рассмотрим события А= вынут туз, В= вынута карта бубновой масти. Тогда событие АВ означает, что вынут бубновый туз.
Т.к. справедливо равенство Р(АВ)= Р(А)Р(В), события А и В независимы.
Опр. События А1, А2…Аn независимы в совокупности, если для любого набора 1≤i1<i2<…<im, 2≤m≤n справедливо равенство
Р(Ai1,Аi2…Аim)=P(Ai1) P(Ai2)…P(Aim).
Схема Бернулли.
Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только 2 возможных исхода, и вероятности исходов остаются неизменными для всех испытаний. Пусть один исход испытания называется успех (У), а другой — неудача (Н), вероятность успеха равна p, а вероятность неудачи равна q, q=1-p. Пусть испытание проводится n раз. Тогда вероятностное пространство имеет вид
Ω={ω=(x1,…xn), xk=У,Н, k=1,…n}.
Независимость испытаний означает, что Р(x1,…xn)=Р(x1)…Р(xn), где Р(xk)=p, если xk=У, Р(xk)=q, если xk=Н.
Часто нас интересует не порядок появления успехов вn независимых испытаниях Бернулли, а их общее число. Число успехов может быть равно 0,1,2,…n и задача состоит в том, чтобы найти вероятность события, состоящего в том, что в серии из nнезависимых испытаний Бернулли произошло k успехов.
Пусть Sn — число успехов из серии независимых испытаний Бернулли.
Т. При любом k = 0,1,…n справедливо равенство
P(Sn=k)=Cnkpkqn-k
Д-во:
В вероятностное пространство входят элементарные события вида:
ω=(Н…НУН…НУН…НУН…Н).
Сколько таких элементарных событий? Столько, сколькими способами можно выбрать из n номеров k номеров (без учета порядков), т.е. Cnk. Вероятность каждого такого события равна pkqn-k, т.к. испытания — независимы.
Замечание: В самом деле, справедливо равенство: k=0∑n Cnk pk qn-k =(p+q)n=1
Случайные величины: определение, функция распределения случайной величины и её свойства, независимые случайные величины, определение основных числовых характеристик случайной величины (дискретный и непрерывный случаи), примеры.
Введем центральное в теории вероятности понятие случайной величины.
Опр. Пусть (Ω, А, Р) — вероятностное пространство. Случайной величиной X называется числовая функция, определенная на Ω и такая, что определена вероятность F(x)=P{X<x}=P{ω│P(ω)<x}. F(x) называется функцией распределения случайной величины X.
Замечание:
Если вероятностное пространство Ω конечно, то любая числовая функция, заданная на Ω, является случайной величиной.
Свойства функции распределения:
1. При x1<x2 P{x1≤X<x2}=F(x2)-F(x1)
2. F(x)#(не обязательно строго).
3. limx→-∞F(x)=0, limx→∞F(x)=1
4. F(x) непрерывна слева(т.е. limx→x0 - 0F(x)=F(x0)).
Свойство 1 простое следствие из аксиом вероятностного пространства. Свойство 2 сразу следует из 1. Свойство 3 следует из аксиомы счетной аддитивности.
Опр. Случайные величины X и Y называются независимыми, если P{X<x, Y<y}= P{X<x}P{Y<y} (другими словами, события {X<x} и {Y<y} независимы)
Пространство элементарных событий дискретно, когда оно либо конечно, либо счетно.
Закон распределения дискретной случайной величины задается в виде таблицы ряда распределений
Пример:
Рассмотрим схему n независимых испытаний Бернулли. Определим случайные величины
Xi =1, если в i-м испытании успех, 0, если неудача.
Пусть Sn = X1+X2+…+Xn. Тогда случайная величина Sn — число успехов в серии n независимых испытаний Бернулли.
Опр. Математическим ожиданием дискретной случайной величины X называется сумма
MX=∑xi P{X=xi}, где суммирование ведется по всем значениям xi случайной величины X.
Опр. Дисперсия (рассеяние) случайной величины X — DX=M(X-MX)2, где X-MX отклонение случайной величины от мат. ожидания.
Опр. Cov(X,Y)=M((X-MX)(M-MY)) — ковариация случайных величин X и Y, заданных на одном и том же пространстве элементарных событий.
Опр. Пусть на одном и том же вероятностном пространстве заданы случайные величины X и Y. Коэффициентом корреляции X и Y называется число ρ (X,Y)=(Cov(X, Y))/√D X D Y