ВЕРОЯТНОСТЕЙ
Общие понятия и определения
Как мы уже говорили, теория вероятностей — это раздел
математики, который занимается изучением закономерностей
в случайных явлениях.
Случайное явление — это явление, которое при многократ-
ном проведении одного и того же опыта (эксперимента) каждый
раз протекает несколько по-иному. Теория вероятностей рас-
сматривает не сами явления, а их математические модели. Ма-
тематическая модель описывает изучаемое явление при помо-
щи определенных символов и операций над ними.
Под опытом (экспериментом) будем понимать некоторую
производимую совокупность условий, в которых наблюдается
изучаемое явление. Если результат опыта может варьировать-
ся при его повторении, то говорят об опыте со случайным ис-
ходом. Основные условия, при которых протекает опыт, долж-
ны сохраняться. Опыт не обязательно должен быть поставлен
людьми, человек может выступать и в качестве наблюдателя.
Примерами случайных явлений являются: курс националь-
ной валюты, выпадение грани с цифрой шесть при бросании
игральной кости, выигрыш на рулетке в казино, результат из-
мерения горизонтального угла с помощью теодолита, длитель-
ность работы стиральной машины и т. д.
Классификация событий
Если событие всегда происходит в результате опыта со слу-
чайным исходом, то оно называется достоверным. Такие собы-
тия мы будем обозначать буквой U. Если в урне лежат только
красные шары, то появление красного шара из урны есть досто-
верное событие. Надо иметь в виду, что в реальной действитель-
ности мы имеем дело с почти достоверными событиями.
Если событие никогда не происходит в результате опыта со
случайным исходом, то оно называется невозможным и обозна-
чается ∅. Если в урне лежат только белые шары, то появление
красного шара из урны есть невозможное событие. В реальной
жизни мы имеем дело с почти невозможными событиями.
Случайным событием называется событие, которое в ре-
зультате опыта со случайным исходом может произойти, а
может и не произойти. Случайные события мы будем обозна-
чать заглавными буквами латинского алфавита: А, В, С,… На-
пример, выпадение решки при бросании монеты — случайное
событие.
Событием, противоположным событию А, является собы-
тие, которое происходит тогда, когда не происходит собы-
тие А.
Например, производится стрельба по мишени. Собы-
тие А — попадание в мишень, а событие — промах.
Непосредственный исход опыта называется элементар-
ным событием и обозначается ω.
Множество всех элементарных событий данного конкрет-
ного опыта называется пространством элементарных событий
этого опыта и обозначается Ω.
Например, в опыте бросания игральной кости шесть эле-
ментарных исходов ω1, ω2,…, ω6, т. е. Ω = {ω1, ω2, ω3, ω4, ω5, ω6}.
Событие удобно иллюстрировать с помощью кругов Эйле-
ра. Достоверное событие U мы будем изображать прямоуголь-
ником, случайное событие А — кругом внутри прямоугольника,
а противоположное к нему событие — область внутри прямо-
угольника, но вне круга (рис. 2.1).
А
U
Рис. 2.1
Алгебра событий
Введем понятия суммы и произведения событий.
Определение. Суммой (объединением событий) А1, А2,... Аn
называется событие, происходящее только в том случае, когда
происходит хотя бы одно из данных событий (или А1 или А2, …,
или Аn, или все вместе). Обозначают сумму событий так:
.
На рис. 2.2. показано изображение
суммы двух событий А+В с помощью
кругов Эйлера.
Определение. Произведением (пе-
ресечением) событий А1, А2,... Аn назы-
вается событие, которое происходит
только в том случае, когда все указан-
ные события появляются одновремен-
но, т. е. происходит и событие А1, и А2...
и событие Аn. Обозначается произведение событий следующим
образом
U
А B
Рис. 2.2
.
На рис. 2.3. показано изображение
произведения двух событий А × В с
помощью кругов Эйлера.
Определение. События А1, А2,... Аn
называются несовместными, если их
произведение есть невозможное собы-
тие, т. е. А1, А2,... Аn = ∅. Заметим, что
если события попарно несовместны, то
они несовместны в совокупности. Не-
совместными являются все элементарные события некоторого
опыта со случайным исходом, например, А × = ∅.
На рис. 2.4. показаны два несов-
местных события А и В.
Определение. Полной группой
событий называется множество по-
парно несовместных событий, одно
из которых обязательно произойдет
в результате опыта со случайным ис-
ходом, т. е. сумма которых есть досто-
верное событие.
, АiАj = ∅ i ≠ j
Все элементарные события ωi про-
странства элементарных событий Ω
составляют полную группу событий.
Например, полную группу событий со-
ставляют события А и, т. е. А + = U.
Поэтому часто достоверные события
U обозначают символом Ω, так же как
пространство элементарных событий.
Определение. Событие А называ-
ется частным случаем события В, если при появлении собы-
тия А появляется и событие В, т. е. А влечет В. Обозначается
А В
U
Рис. 2.3
А В
U
Рис. 2.4
Рис. 2.5
В
U
А
этот факт следующим образом: А ⊂ В. На кругах Эйлера А есть
собственное подмножество множества В (рис. 2.5).
Приведем некоторые правила алгебры событий:
1) А + В = В + А; (А + В) + С = А + (В + С);
2) A + U = U; A + ∅ = A; A + A = A;
3) A × B = B × A; A × U = A; A × ∅ = ∅;
4) A × A = A; A × (B + C) = A × B + A × C;.
Приведенные правила следуют
из определения суммы, произведения
событий и противоположного события.
С помощью них можно, например, до-
казать, что сумму двух любых собы-
тий можно представить в виде сум-
мы двух несовместных событий, т. е.
А + В =А + × В (рис. 2.6).
Вероятность события
Вероятность события — это мера его объективной возмож-
ности. Но данное определение вероятности не является мате-
матическим, так как не дает возможности оценить вероятность
количественно. Существует несколько математических опре-
делений вероятности. Самыми старыми из этих определений
являются статистическое и классическое определения.
Статистическое определение вероятности. Предположим,
что мы можем проводить некоторый опыт со случайным исхо-
дом (например, бросание монеты на некоторую поверхность)
неоднократно, примерно в одних и тех же условиях. В резуль-
тате этого опыта может появиться событие А = {выпал герб}.
Определение. Относительной частотой (или, как говорят в
статистике, частостью) события А (f (А)) называется отноше-
ние числа опытов μ (его называют в статистике частотой собы-
тия А), в которых появилось событие А, к общему числу прове-
денных опытов (n), т. е.
Рис. 2.6
U
А А × В
. (2.1)
Практика показывает, что для широкого круга случайных
явлений при неограниченном увеличении числа опытов, т. е.
при n → ∞, относительная частота события А стабилизирует-
ся и по вероятности приближается к некоторому неслучайному
числу. Например, при бросании монеты относительная частота
появления орла при неограниченном увеличении числа опытов
стремится к числу 0,5. Приведем свойства относительной час-
тоты события А.
1) f (U) = 1, так как μ = 1.
2) f (∅) = 0, так как μ = 0.
3) 0 ≤ f (А) ≤ 1, т. е. относительная частота случайного собы-
тия заключена между нулем и единицей и в частном случае мо-
жет быть нулем или единицей.
4) Если события А1, А2,... Аn несовместны, то выполняется
равенство
f (А1 + А2 +…+ Аn) = f (А1) + f (А2) +…+ f (Аn).
Статистическое определение вероятности. Вероятностью
события А (Р (А)) называется число, около которого колеблется
относительная частота события А (f (А)) при неограниченном
увеличении числа опытов (n → ∞). То есть можно записать
(2.2)
или
, (2.3)
где ε > 0 — малое положительное число.
Устойчивость относительных частот при большом коли-
честве испытаний является следствием закона больших чисел.
Характер приближения относительной частоты к вероят-
ности при n → ∞ отличается “от стремления к пределу” в мате-
матическом анализе.
Нет ничего невозможного в том, что относительная частота
события при n → ∞ сильно отклонится от ее вероятности, но та-
кое отношение настолько маловероятно, что его можно не при-
нимать в расчет.
Заметим, что все свойства относительных частот верны и
для вероятностей.
Классическое определение вероятности. Оно было впер-
вые четко сформулировано в работе швейцарского математи-
ка Якоба Бернулли, опубликованной в 1713 г. Введем понятие
равновозможного события. События называются равновозмож-
ными, если по условиям обыта ни одно из них не является пред-
почтительным по отношению к другим с точки зрения возмож-
ности их появления.
В этом случае опыт будет обладать симметрией исходов по
отношению к этим событиям.
Классическое определение вероятности можно использо-
вать только в том случае, если опыт будет классическим. Опыт
называется классическим, если он приводит к множеству со-
бытий, которые удовлетворяют условиям:
1) они попарно несовместны;
2) равновозможны;
3) образуют полную группу событий.
Такие события называются случаями и обозначаются ω.
Заметим, что они могут быть элементарными событиями.
Определение. Если опыт является классическим, то веро-
ятность события А (Р (А)) находится как отношение числа слу-
чаев, благоприятствующих событию А (m), к общему числу
случаев (n 1).
. (2.4)
Формула (2.4) дает возможность непосредственно вычис-
лять вероятности, но недостатком ее является то, что в реаль-
ной действительности классические опыты встречаются редко
в искусственно созданных ситуациях. Примером классического
опыта является игра в кости, которые перед каждым броском
тщательно перемешиваются, чтобы соблюдалась равновозмож-
ность наблюдаемых событий. Если мы бросаем одну игральную
кость, то вероятность появления каждой ее грани равна 1/6.
Классический опыт может быть организован по так назы-
ваемой урновой схеме. Под урной понимают некоторый ящик, в
котором находятся одинаковые по весу и размерам шары раз-
личных цветов. После перемешивания шары вынимаются из
урны случайным образом. Поэтому вероятность вытащить ка-
кой-либо шар из n шаров будет равна 1/ n.
Для подсчета числа возможных исходов классического
опыта часто используют формулы комбинаторики, в частности
формулы числа сочетаний из n элементов по m:
− без повторений:
, (2.5)
где n! — читается n -факториал и вычисляется по формуле
n! = 1 × 2 × 3… × n;
− с повторениями:
.
Пример 2.1
Предположим, что в урне находятся 9 шаров: четыре крас-
ных шара и пять синих шаров. Из нее вынимаются два шара.
Надо найти вероятность того, что оба они будут красными.
Введем событие А = {оба шара красные} и используем фор-
мулу (2.4):
Здесь — количество исходов, благоприятствующих
событию А; — общее количество исходов.
Аксиоматическое определение вероятности. Как и другие
разделы математики, теорию вероятностей можно развивать
аксиоматическим методом.
Аксиоматическое построение теории вероятностей было
осуществлено в 30-х гг. XX в. А. Н. Колмогоровым. Приведем
его упрощенное определение.
Вероятностью называется функция событий, которая по-
рождена некоторым опытом и имеющая следующие свойства:
1) вероятность достоверного события равна единице Р (U) = 1;
2) вероятность невозможного события равна нулю Р (∅) = 0;
3) вероятность случайного события лежит между нулем
и единицей, в частности принимая значение ноль и единица
0 ≤ Р (А) ≤ 1;
4) если события А1, А2,... Аn попарно несовместны, то веро-
ятность их суммы равна сумме их вероятностей
;
5) Если счетное бесконечное число событий А1, А2,... Аn, …
попарно несовместно, то вероятность их суммы равна суме их
вероятностей, т. е.
.
Аксиома 5 вводится отдельно, так как она не выводится из
четвертой.
Кроме приведенного существуют и другие аксиоматичес-
кие определения вероятности.
Аксиоматическое определение, в отличие от статистичес-
кого и классического, не позволяет непосредственно вычислять
значение вероятности, но из него вытекает ряд следствий. На-
пример, можно получить формулу (2.4), установить, что сумма
вероятностей полной группы событий равна единице, т. е.
.
В частности получаем
Р (А) + Р () = 1, (2.6)
т. е. сумма вероятностей противоположных событий равна 1.
Субъективное определение вероятности. В тех случаях,
когда проводимый опыт не является классическим и отсутству-
ют данные статистических наблюдений или их недостаточное
количество для оценки вероятности, прибегают к экспертному
оцениванию вероятности на основе мнения экспертов.
Определение. Субъективным определением вероятности
называются вероятности, удовлетворяющие аксиомам 1−5 ак-
сиоматического определения, которые приписываются собы-
тиям на основе мнения экспертов.
Как правило, в оценке вероятности события участвуют не-
сколько экспертов, и их мнения усредняют, учитывая опыт каж-
дого из них. Оценка экспертов важна в тех случаях, если плани-
руемый исход связан с большими материальными затратами.
Алгебра вероятностей
Рассмотрим правила, которые позволяют по вероятностям
одних событий находить вероятности других событий.
Сначала введем понятие условной вероятности. Предполо-
жим, что А и В — события, являющиеся результатом некоторо-
го опыта, причем наступление события А зависит от появления
события В. Понятие условной вероятности вводится для харак-
теристики зависимости одних событий от других.
Определение. Условной вероятностью события А при ус-
ловии, что произошло событие В, называется отношение веро-
ятности произведения событий А и В к вероятности события В,
если последняя отлична от нуля. Обозначается условная веро-
ятность события А следующим образом: Р(А\В). И согласно оп-
ределению, она равна
, (2.7)
Р (В) ≠ 0.
Аналогично условная вероятность события В при условии,
что произошло событие А обозначается следующим образом:
Р(В\А) и находится по формуле
, (2.8)
Р (А) ≠ 0.
Из формул (2.7.) и (2.8) следует правило умножения веро-
ятностей для двух любых событий:
Р (А × В) = Р (А) × Р (В\А) = Р (В) × Р (А\В), (2.9)
т. е. вероятность произведения двух событий равна произведе-
нию вероятности одного из них на условную вероятность дру-
гого при условии, что первое событие произошло. Используя
формулу (2.9), получим правило умножения вероятностей для
трех событий А1, А2, А3:
Р (А 1 × А 2 × А 3) = Р ((А 1 × А 2) × А 3) =
= Р (А 1 × А 2) × Р (А 3 \А 1 × А 2) = (2.10)
= Р (А 1) × Р (А 2 \А 1) × Р (А 3 \А 1 × А 2)
В формуле (2.10) Р (А 3 \А 1 × А 2) означает условную вероят-
ность события А3, если произошли события А1и А2.
Используя принцип математической индукции, можно обоб-
щить формулу (2.10) на любое конечное количество событий.
В результате получаем
Р (А 1 × А 2 × А 3… × Аn) = Р (А 1) × Р (А 2 \А 1) ×
× Р (А 3 \А 1 × А 2) × … × Р (Аn\А 1 × А 2 × А 3 ×… × Аn -1)
(2.11)
Правило умножения вероятностей значительно упроща-
ется, если события, образующие произведение, независимы.
Событие В называется не зависимым от события А, если его
условная вероятность равна безусловной, т. е. Р(В\А) = Р (В).
Аналогично, событие А называется не зависимым от собы-
тия В, если его условная вероятность равна безусловной, т. е.
Р (А\В) = Р (А).
Лемма. Если событие В не зависит от события А, то и собы-
тие А не зависти от события В.
Если события А и В независимы, то правило умножения
вероятностей (2.9) примет вид
Р (А × В) = Р (А) × Р (В). (2.12)
т. е. вероятность произведения двух независимых событий рав-
на произведению их вероятностей.
Определение. События А1, А2, А3... Аn называются независи-
мыми в совокупности, если каждое из них не зависит от произве-
дения любого числа остальных и от каждого в отдельности.
Правило умножения вероятностей (2.11) в этом случае
примет вид:
Р (А 1 × А 2 × А3 × … × Аn) = Р (А 1) × Р (А 2) × Р (А 3) × … × Р (Аn),
или более кратко
(2.13)
т. е. вероятность произведения конечного числа независимых
событий равна произведению вероятностей этих событий.
Пример 2.2
Предположим, что студентка основательно проштудиро-
вала 70 из 90 вопросов к экзамену по теории вероятностей и ма-
тематической статистике. В каждом билете содержатся 3 воп-
роса. Найти вероятность того, что в билете, который вытащит
студентка, она будет знать ответы на все три вопроса.
Введем 3 события:
А1 = {студентка знает ответ на первый вопрос билета}.
А 2 \А 1 = {студентка знает ответ на второй вопрос билета
при выполнении события А1}.
А 3 \А 1 × А 2 = {студентка знает ответ на третий вопрос биле-
та при выполнении событий А1 и А2}.
Используя формулу (2.10) находим
Вероятности Р (А 1); Р (А 2 \А 1); Р (А 3 \А 1 × А 2) находятся по
формуле (2.4).
Теперь получим правило сложения для совместных со-
бытий.
Если рассматриваемые события попарно несовместны, то
для нахождения вероятности их суммы используется четвер-
тая аксиома аксиоматического определения вероятности.
Сначала рассмотрим правила сложения для двух совмест-
ных событий.
Теорема 2.1. Вероятность суммы двух совместных событий
равна сумме их вероятностей минус вероятность их произве-
дения, т. е.
Р (А + В) = Р (А) + Р (В) — Р (А × В) (2.14)
Доказательство этой теоремы мы не приводим, его можно
найти в любом учебнике по теории вероятности, например [1, 8,
25]. Используя формулу (2.14), получим правило сложения для
трех совместных событий А1, А2, А3:
Р (А 1 + А 2 + А 3) = Р (А 1 + А 2) + Р (А 3) −
− Р ((А 1 + А 2) × А 3) = Р (А 1) + Р (А 2) −
− Р (А1 × А2) + Р (А3) − (Р (А1 × А3) +
+ Р (А2 × А3)) = Р (А1) + Р (А2) + Р (А3) − Р (А1 × А2) −
− Р (А1 × А3) − Р (А2 × А3) + Р (А1 × А2 × А3). (2.15)
Используя метод математической индукции, получим пра-
вило сложения вероятностей для любого конечного количества
совместных событий.
Р (А 1 + А 2 + А 3 + … + Аn) = Р (А 1) +
+ Р (А 2) + Р (А 3) + … + Р (Аn) — (Р (А1 × А2) +
+ Р (А 1 × А 3) + … + Р (Аn -1 × Аn)) +
+ Р(А 1 × А 2 × А 3) + Р (А 1 × А 2 × А 4) + … +
+ Р (Аn -2 × Аn -1 × Аn)) + … + (-1) n -1 Р (А 1 × А 2 × … × Аn) (2.16)
Часто при больших n вместо формулы (2.16) используют
равенство
, (2.17)
где — событие, противоположное событию Ai.
Если события А1, А2,... Аn взаимно независимы, то равенс-
тво (2.17) примет вид
. (2.18)
Пример 2.3. Задача де Мере.
Найти вероятность выпадения хотя бы один раз двух шес-
терок при 24 бросаниях пары игральных костей.
Данный опыт является классическим, поэтому вероятность
выпадения двух шестерок при одном бросании пары игральных
костей будет равна.
Перейдем к противоположному событию, т. е. найдем веро-
ятность того, что при одном бросании пары игральных костей
две шестерки не выпадут.
По формуле (2.6) получим (1 − 1/36). А вероятность того,
что это событие не случится ни разу при 24 бросаниях в соот-
ветствии с формулой (2.13) будет равна
(1 − 1/36)24 ≈ 0,507.
Поэтому по формуле (2.18) вероятность того, что две шес-
терки выпадут хотя бы один раз при 24 бросаниях, будет равна
1 − (1 − 1/36)24 ≈ 1 − 0,507 = 0,493.
Случайные величины
Понятие случайные величины является одним из важней-
ших в теории вероятностей. Под случайной величиной понима-
ют величину, которая в результате опыта со случайным исхо-
дом принимает то или иное значение.
Случайные величины будем обозначать заглавными латин-
ским буквами X, Y, Z, …, а принимаемые ими значения — малы-
ми буквами x 1, x 2, …, y 1, y 2,..., z 1, z 2,… Все возможные значения
некоторой случайной величины образуют множество Е, кото-
рое назовем множеством возможных значений этой случайной
величины.
Примерами случайных величин являются:
1) Опыт — бросание игральной кости; случайная величи-
на Х — число выпавших очков; множество возможных значе-
ний Е = {1, 2, 3, 4, 5, 6}.
2) Опыт — выборы; случайная величина Y — число голо-
сов, которое набрал некоторый кандидат; множество Е — це-
лые положительные числа, максимальное значение не превы-
шает числа избирателей.
3) Опыт — измерение длины линии светодальномером;
случайная величина Z — результат измерения, выраженный
в сантиметрах; множество возможных значений — некоторый
участок действительной оси 0Z, Z > 0.
Из приведенных примеров видно, что случайные величины
бывают двух типов: у одних множество значений Е конечно или
счетно (примеры 1 и 2), а у других оно занимает какой-то учас-
ток числовой оси, границы которого могут быть как фиксиро-
ванными (теоретически это пример 3), так и нефиксированны-
ми, а множество Е является несчетным. Случайные величины
первого типа называют дискретными, а второго — недискрет-
ными. Недискретные случайные величины подразделяются на
непрерывные, у которых множество возможных значений не-
счетно, и смешанные, которые являются промежуточной раз-
новидностью между дискретными и непрерывными случайны-
ми величинами. Их мы в дальнейшем рассматривать не будем,
а желающие могут ознакомиться с ними, например, в книге [8].
В принятой в теории вероятностей теоретико-множест-
венной трактовке случайная величина Х является функцией
элементарного случайного события, т. е. Х = ϕ ( ω ), где ωεΩ; Ω —
пространство элементарных событий. Множество Е возмож-
ных значений случайной величины Х состоит из всех значений,
которые принимает функция ϕ ( ω ). Если множество Е конечно
или счетно, то случайная величина Х называется дискретной, а
если несчетно — непрерывной.
Реально значения случайной величины, полученные в ре-
зультате некоторого опыта, выражаются в определенных еди-
ницах: метрах, градусах, тоннах, амперах и измеряются с оп-
ределенной точностью, поэтому в реальной действительности
мы имеем дело с дискретными случайными величинами. Но в
тех случаях, когда точность измерения высока, количество из-
мерений велико и они расположены очень тесно на числовой
оси, проще рассматривать данную величину как непрерывную,
а множество ее возможных значений — сплошной отрезок (не-
счетное множество) числовой оси.
Для полного описания случайной величины необходимо
знать ее закон распределения. Законом распределения слу-
чайной величины называется любое правило (таблица, график,
функция), которое позволяет находить вероятности всевоз-
можных событий, связанных со случайной величиной. Закон
распределения случайной величины имеет ряд форм. Рассмот-
рим эти формы.
Для дискретной случайной величины в качестве закона
распределения можно использовать ряд распределения.
Рядом распределения дискретной случайной величины Х
называется таблица, в верхней строке которой расположены по
возрастанию все возможные значения случайной величины Х:
х 1, х 2, х 3..., хn, а в нижней — соответствующие им вероятности:
Р 1, Р 2, Р 3..., Рn, где Рi = P { X = хi } — вероятность того, что случай-
ная величина Х примет значение хi.
Ряд распределения случайной величины Х имеет вид
Х:
х 1 х 2 х 3 … х n
Р 1 Р 2 Р 3 … Р n
Так как события { Х = хi },, n попарно несовместны и
образуют полную группу событий, то
т. е. единица распределена между всеми возможными значени-
ями случайной величины.
Графическим изображением ряда распределения является
многоугольник распределения. На оси абсцисс откладываются
все возможные значения случайной величины Х, а на оси орди-
нат — соответствующие им значения вероятностей (рис. 2.7).
Недостатком ряда распределения является то, что он может
быть построен только для дискретных случайных величин.
Наиболее универсальной формой закона распределения,
которая может использоваться и для дискретных, и для не-
прерывных случайных величин, является функция распреде-
ления.
Определение. Функцией распределения случайной величи-
ны Х называется вероятность того, что данная случайная вели-
чина примет значение меньшее, чем некоторое заданное х, т. е.
F (x) = P { X < x }. (2.19)
Функцию F (x) иногда называют интегральной функцией
распределения. Геометрически формула (2.19), интерпретиру-
емая как вероятность того, что случайная точка X попадет ле-
вее заданной точки х, показана на рис. 2.8.
x
X < x
x
Рис. 2.8
P
Pne1
0 xn e1 xn x
P2
Pn
P1
P3
x 3 x 2 x 1
Рис. 2.7
Из геометрической интерпретации можно получить основ-
ные свойства функции распределения:
1) F (x) является неубывающей функцией своего аргумен-
та, т. е. при х 2 > х 1 F (х 2) ≥ F (х 1);
2) F (-∞) = 0;
3) F (+∞) = 1;
4) вероятность попадания на промежуток [ a, b ] равна при-
ращению функции распределения на этом промежутке, т. е.
Р { a ≤ X ≤ b } = F (b) − F (a);
5) множество значений функции распределения распола-
гается на отрезке [0;1], т. е. 0 ≤ F (x) ≤ 1.
Формула для вероятности отдельного значения случайной
величины Х через функцию распределения имеет вид:
. (2.20)
Значение предела (2.20) зависит от того, непрерывна фун-
кция F (x) в точке а или разрывна. Если функция F (x) в некото-
рой точке а непрерывна, то предел (2.20) равен нулю. Если же
функция распределения в точке а имеет разрыв первого рода,
то предел (2.20) равен величине этого скачка. Но в любом слу-
чае вероятность события { X = a } равна величине скачка функ-
ции распределения в точке а (равен этот скачок нулю или нет).
В этом случае, если функция распределения на своей облас-
ти определения непрерывна, вероятность каждого отдельного
значения случайной величины Х равна нулю.
Заметим, что отрезок [ a, b ] содержит несчетное количество
элементов, а аксиомы Колмогорова вводились для счетного ко-
личества событий. Поэтому из того, что событие { X = a } имеет
вероятность, равную нулю, не следует, что это событие не по-
явится, оно при неоднократном воспроизведении опыта будет
появляться, но достаточно редко.
Если известен ряд распределения случайной величины Х,
можно получить ее функцию распределения, и наоборот. Для
этого можно использовать формулу
. (2.21)
Пример 2.4
Дан ряд распределения случайной величины Х
X:
x 1 2 3 4 5
P 0,2 0,1 0,4 0,1 0,2
Используя формулу (2.21) найдем функцию распределе-
ния и изобразим ее на рис. 2.9.
1,2
0,8
0,6
0,4
0,2
0 1 2 3 4 5 6 7
F (x)
x
Рис. 2.9
Можно сделать вывод, что функция распределения любой
дискретной случайной величины — это разрывная ступенча-
тая функция, скачки которой находятся в точках, которые со-
ответствуют возможным значениям случайной величины Х, и
равны вероятностям этих значений.
Если число возможных значений дискретной случайнос-
ти величины Х велико, а интервалы между этими значениями
малы, то число скачков функции распределения увеличива-
ется, а сами эти скачки уменьшаются. Ступенчатая функция
распределения будет приближаться к плавной кривой. Поэ-
тому естественно аппроксимировать функцию распределения
непрерывной кривой. Условимся также считать функцию рас-
пределения F (Х) не только непрерывной в каждой точке своей
области определения, но и дифференцируемой везде, кроме
отдельных точек. График непрерывной функции распределе-
ния показан на рис. 2.10.
F (x)
0,8
0,6
0,4
0,2
x
Рис. 2.10
Так как непрерывная функция F (Х) не имеет скачков, то
вероятность любого значения непрерывной случайной величи-
ны равна нулю, т. е. P { Х = a } = 0 для ∀ a. Поэтому для непрерыв-
ной случайной величины вводится специальная разновидность
закона распределения — плотность распределения вероятнос-
тей (плотность распределения, плотность вероятностей), ко-
торую мы обозначим f (x). Она равна производной от функции
распределения, т. е.
. (2.22)
Функцию f (х) часто называют дифференциальной функ-
цией распределения. График плотности распределения назы-
вается кривой распределения (рис. 2.11).
f (x)
x dx x
Рис. 2.11
На рис. 2.11 dх — это элементарный участок, который при-
мыкает к точке х. Вероятность попадания случайной величи-
ны х на участок dх с точностью до бесконечно малых высших
порядков равна f (х) dх. Величина f (х) dх называется элементом
вероятности для точки x и геометрически равна площади эле-
ментарного заштрихованного прямоугольника. Приведем неко-
торые основные свойства плотности распределения:
1. f (х) — неотрицательная функция своего аргумента х,
т. е. f (x) ≥ 0.
2. Площадь, ограниченная кривой распределения и осью
абсцисс равна единице, т. е.
. (2.23)
3. Вероятность попадания случайной величины в интервал
(а;b) будет выражаться через плотность распределения следу-
ющим образом:
. (2.24)
Так как для непрерывной случайной величины вероят-
ность события {X = а } равна нулю, то мы ставим строгое нера-
венство в формуле (2.24).
4. Функция распределения выражается через плотность
распределения следующим образом:
. (2.25)
Данное равенство следует из формулы (2.24). Замети, что
функция распределения размерности не имеет, а размерность
плотности распределения обратна размерности случайной ве-
личины X.
Закон распределения полностью характеризует изучае-
мую случайную величину. Например, известно, что случайные
ошибки астрономических или геодезических измерений подчи-
няются нормальному закону. Но очень часто мы не знаем закона
распределения изучаемой случайной величины. В этом случае
мы можем охарактеризовать изучаемую случайную величину
набором числовых параметров, которые характеризуют наибо-
лее существенные черты закона распределения случайной ве-
личины. Эти параметры и называют числовыми характеристи-
ками случайной величины.
Сначала рассмотрим характеристики положения, которые
фиксируют положение случайной величины на числовой оси. К
ним относятся математическое ожидание, мода, медиана.
Математическиv ожиданием, или средним взвешенным
значением дискретной случайной величины X, называется
сумма произведений всех ее значений на вероятность этих зна-
чений, т. е.
. (2.26)
Вместо обозначения M [ х ] часто применяется Мх, mх, m.
Например, для данных примера 2.4 получим:
M [ х ] = 1 × 0,2 + 2 × 0,1 + 3 × 0,4 + 4 × 0,1 + 5 × 0,2 = 3.
Если случайная величина X непрерывна, то ее математи-
ческое ожидание находится по формуле
. (2.27)
Математическое ожидание случайной величины тесно
связано со средним арифметическим ее наблюдаемых зна-
чений при большем числе наблюдений. При большом числе
опытов среднее арифметическое наблюдаемых значений слу-
чайной величины приблизительно приравнивается к ее мате-
матическому ожиданию. Это одно из проявлений закона боль-
ших чисел.
Модой случайной величины Х называются ее наиболее ве-
роятные значения, т. е., то значение, для которого вероятность
Pi или плотность распределения f (x) достигает максимального
значения. Мода будет обозначена Mo. Для данных примера 2.4
мода равна 3, т. е. Mo = 3.
В том случае, если вероятность или плотность распреде-
ления достигает максимума не в одной, а в нескольких точках,
распределение называют полимодальным (рис. 2.12).
x
f(x)
Рис. 2.12
Медиана, которую мы будем обозначать Ме, применяется,
как правило, для непрерывных случайных величин. Медианой
случайной величины Х называется такое ее значение, для ко-
торого выполняется равенство
. (2.28)
Геометрически медиана — абсцисса такой точки на оси 0Х,
для которой площади под кривой распределения слева и спра-
ва от нее одинаковы и равны 1/2 (рис 2.13).
f(x)
Me x
1/2 1/2
Рис. 2.13
Если распределение симметрично, то математическое
ожидание, мода и медиана совпадают.
Кроме характеристик положения используются началь-
ные и центральные моменты различных порядков.
Начальным моментом k- го порядка случайной величины X
называется математическое ожидание k -й степени этой вели-
чины, т. е.
α k = M[ Xk ]. (2.29)
Если рассматриваемая случайная величина дискретна, то
ее начальный момент k- го порядка находится по формуле
. (2.30)
Если случайная величина непрерывна, то
. (2.31)
Из приведенных формул (2.30) и (2.31) видно, что математи-
ческое ожидание — это начальный момент первого порядка, т. е.
α1 = M[ X ].
Введем понятие центрированной случайной величины, ко-
торую будем обозначать, т. е. центрированная слу-
чайная величина Х есть отклонение случайной величины Х от
ее математического ожидания. Математическое ожидание цен-
трированной случайной величины равно нулю, т. е.
Моменты центрированной случайной величины называют-
ся центральными моментами. Центральным моментом порядка
k случайной величины X называется математическое ожида-
ние k- й степени центрированной случайной величины, т. е.
. (2.32)
Если рассматриваемая случайная величина Х дискретна,
то для нахождения центрального момента k- го порядка исполь-
зуется формула
, (2.33)
а если непрерывна, то применяется формула
. (2.34)
Для любой случайной величины первый центральный мо-
мент равен нулю, т. е.
μ1 = M [ X − M [ X ]] = 0.
Начальные и центральные моменты можно выражать
друг через друга. Например, для второго центрального момен-
та имеем:
μ1 = α2 − (M [ X ])2 = M [ X 2] − (M [ X ])2. (2.35)
Особое значение имеет второй центральный момент μ2. Он
называется дисперсией случайной величины и обозначается
следующим образом
μ2 = D [ X ] = Dx.
Согласно формуле 2.32 дисперсия находится по формуле
D [ X ] = M [(X − M [ X ])2]. (2.36)
То есть дисперсия — это математическое ожидание квад-
рата соответствующей центрированной величины. Дисперсия
характеризует разброс значений случайной величины относи-
тельно ее математического ожидания. Из формул (2.33) и (2.34)
следует, что для дискретной случайной величины она находит-
ся из выражения
, (2.37)
а для непрерывной случайной величины — из соотношения
. (2.38)
Часто для вычисления дисперсии используют формулу
(2.35).
Размерность дисперсии равна квадрату размерности слу-
чайной величины, а для характеристики рассеивания удобно
иметь параметр, который бы имел ту же размерность, что и
изучаемая величина. Поэтому из дисперсии извлекают ариф-
метический квадратный корень и получают еще одну числовую
характеристику, называемую средним квадратическим откло-
нением (стандартом), которую обозначаем σ[ X ] = σ x.
Следовательно, имеем
. (2.39)
Зная M [ X ] и σ[ X ] изучаемой случайной величины X, мож-
но приблизительно судить о разбросе ее возможных значений.
Значения случайной величины X достаточно редко выходят за
пределы интервала
M [ X ] Ѓ} 3σ[ X ]. (2.40)
Выражение (2.40) называется “правило трех сигм” и сле-
дует из закона больших чисел. Часто в качестве характеристи-
ки степени случайности изучаемой случайной величины при-
меняют коэффициент вариации
. (2.40a)
Например, для рассмотренного нами примера 2.4 имеем:
= (1 − 3)2 × 0,2 + (2 − 3)2 × 0,1 +
+ (3 − 3)2 × 0,4 + (4 − 3)2 × 0,1 + (5 − 3)2 × 0,2 =
= 0,8 + 0,1 + 0 + 0,1 + 0,8 = 1,8;
;
.
Для более полного описания распределения используют
моменты высших порядков. Для характеристики асимметрии
(скошенности) распределения используют центральный мо-
мент третьего порядка. Заметим, что если распределение сим-
метрично относительно математического ожидания, то все цен-
тральные моменты нечетного порядка равны нулю, а так как
первый центральный момент всегда равен нулю, то и исполь-
зуют третий центральный момент. Его размерность равна кубу
размерности изучаемой случайной величины, поэтому, для того
чтобы получить безразмерный коэффициент μ3 делят на (σ[ X ])3
и получают коэффициент асимметрии или скошенности.
. (2.41)
Коэффициент Ax может быть как положительным, так и
отрицательным (рис. 2.14).
-20 0 20 40 60 80 100
Ax > 0
Ax < 0
f (x)
x
Рис. 2.14
Четвертый центральный момент применяется для харак-
теристики “островершинности” распределения. С его помощью
вычисляют так называемый коэффициент эксцесса
. (2.42)
Число 3 вычитается из отношения, так как для нор-
мального распределения, очень важного в теории вероятнос-
тей, отношение и, следовательно, для нормального рас-
пределения.
Если изучаемое распределение более островершинное, то
для него Ex > 0, а если плосковершинное, то Ex < 0 (рис. 2.15).
Ex > 0
Ex = 0
Ex < 0
f(x)
x
Рис. 2.15