Ћекции.ќрг


ѕоиск:




 атегории:

јстрономи€
Ѕиологи€
√еографи€
ƒругие €зыки
»нтернет
»нформатика
»стори€
 ультура
Ћитература
Ћогика
ћатематика
ћедицина
ћеханика
ќхрана труда
ѕедагогика
ѕолитика
ѕраво
ѕсихологи€
–елиги€
–иторика
—оциологи€
—порт
—троительство
“ехнологи€
“ранспорт
‘изика
‘илософи€
‘инансы
’ими€
Ёкологи€
Ёкономика
Ёлектроника

 

 

 

 


 оррел€ци€ случайных величин




ѕр€мое токование термина коррел€ци€ Ч стохастическа€, веро€тна€, возможна€ св€зь между двум€ (парна€) или несколькими (множественна€) случайными величинами.

¬ыше говорилось о том, что если дл€ двух —¬ (X и Y) имеет место равенство P(XY) =P(X) P(Y), то величины X и Y считаютс€ независимыми. Ќу, а если это не так!?

¬едь всегда важен вопрос Ч а как сильно зависит одна —¬ от другой? » дело в не присущем люд€м стремлении анализировать что-либо об€зательно в числовом измерении. ”же пон€тно, что системный анализ означает непрерывные вы „»—Ћ ени€, что использование компьютера вынуждает нас работать с числами, а не пон€ти€ми.

ƒл€ числовой оценки возможной св€зи между двум€ случайными величинами: Y (со средним My и среднеквадратичным отклонением Sy) и Ч X (со средним Mx и среднеквадратичным отклонением Sx) прин€то использовать так называемый коэффициент коррел€ции

Rxy= . {2 - 11}

Ётот коэффициент может принимать значени€ от -1 до +1 Ч в зависимости от тесноты св€зи между данными случайными величинами.

≈сли коэффициент коррел€ции равен нулю, то X и Y называют некоррелированными. —читать их независимыми обычно нет оснований Ч оказываетс€, что существуют такие, как правило Ч нелинейные св€зи величин, при которых Rxy = 0, хот€ величины завис€т друг от друга. ќбратное всегда верно Ч если величины независимы, то Rxy = 0. Ќо, если модуль Rxy = 1, то есть все основани€ предполагать наличие линейной св€зи между Y и X. »менно поэтому часто говор€т о линейной коррел€ции при использовании такого способа оценки св€зи между —¬.

ќтметим еще один способ оценки коррел€ционной св€зи двух случайных величин Ч если просуммировать произведени€ отклонений каждой из них от своего среднего значени€, то полученную величину Ч

xy= S (X - Mx) Ј (Y - My)

или ковариацию величин X и Y отличает от коэффициента коррел€ции два показател€: во-первых, усреднение (деление на число наблюдений или пар X, Y) и, во-вторых, нормирование путем делени€ на соответствующие среднеквадратичные отклонени€.

“ака€ оценка св€зей между случайными величинами в сложной системе €вл€етс€ одним из начальных этапов системного анализа, поэтому уже здесь во всей остроте встает вопрос о доверии к выводу о наличии или отсутствии св€зей между двум€ —¬.

¬ современных методах системного анализа обычно поступают так. ѕо найденному значению R вычисл€ют вспомогательную величину:

W = 0.5 Ln[(1 + R)/(1-R)] {2 - 12}

и вопрос о доверии к коэффициенту коррел€ции свод€т к доверительным интервалам дл€ случайной величины W, которые определ€ютс€ стандартными таблицами или формулами.

¬ отдельных случа€х системного анализа приходитс€ решать вопрос о св€з€х нескольких (более 2) случайных величин или вопрос о множественной коррел€ции.

ѕусть X, Y и Z - случайные величины, по наблюдени€м над которыми мы установили их средние Mx, My, Mz и среднеквадратичные отклонени€ Sx, Sy, Sz.

“огда можно найти парные коэффициенты коррел€ции Rxy, Rxz, Ryz по приведенной выше формуле. Ќо этого €вно недостаточно - ведь мы на каждом из трех этапов попросту забывали о наличии третьей случайной величины! ѕоэтому в случа€х множественного коррел€ционного анализа иногда требуетс€ отыскивать т. н. частные коэффициенты коррел€ции Ч например, оценка вил€ни€ Z на св€зь между X и Y производитс€ с помощью коэффициента

Rxy.z = {2 - 13}

», наконец, можно поставить вопрос Ч а какова св€зь между данной —¬ и совокупностью остальных? ќтвет на такие вопросы дают коэффициенты множественной коррел€ции Rx.yz, Ry.zx, Rz.xy, формулы дл€ вычислени€ которых построены по тем же принципам Ч учету св€зи одной из величин со всеми остальными в совокупности.

Ќа сложности вычислений всех описанных показателей коррел€ционных св€зей можно не обращать особого внимани€ - программы дл€ их расчета достаточно просты и имеютс€ в готовом виде во многих ѕѕѕ современных компьютеров.

ƒостаточно пон€ть главное Ч если при формальном описании элемента сложной системы, совокупности таких элементов в виде подсистемы или, наконец, системы в целом, мы рассматриваем св€зи между отдельными ее част€ми, Ч то степень тесноты этой св€зи в виде вли€ни€ одной —¬ на другую можно и нужно оценивать на уровне коррел€ции.

 

¬ заключение заметим еще одно Ч во всех случа€х системного анализа на коррел€ционном уровне обе случайные величины при парной коррел€ции или все при множественной считаютс€ "равноправными" Ч т. е. речь идет о взаимном вли€нии —¬ друг на друга.

“ак бывает далеко не всегда - очень часто вопрос о св€з€х Y и X ставитс€ в иной плоскости Ч одна из величин €вл€етс€ зависимой (функцией) от другой (аргумента).

 





ѕоделитьс€ с друзь€ми:


ƒата добавлени€: 2015-05-08; ћы поможем в написании ваших работ!; просмотров: 621 | Ќарушение авторских прав


ѕоиск на сайте:

Ћучшие изречени€:

∆изнь - это то, что с тобой происходит, пока ты строишь планы. © ƒжон Ћеннон
==> читать все изречени€...

2004 - | 1801 -


© 2015-2024 lektsii.org -  онтакты - ѕоследнее добавление

√ен: 0.012 с.