В модели факторного анализа выводят гипотетические компоненты, которые объясняют линейную зависимость между наблюдаемыми переменными1. Модель факторного анализа требует, чтобы зависимость между переменными была линейной, а переменные имели ненулевые корреляции между собой. Выводимые гипотетические компоненты обладают следующими свойствами.
1. Они образуют линейно независимый набор переменных. Ни один из гипотетических компонент не выводится из других гипотетических компонент, как их линейная комбинация.
2. Переменные, являющиеся гипотетическими компонентами, можно разделить на два основных вида — общие факторы и характерные факторы. Они отличаются структурой весов в линейном уравнении, которое выводит значение наблюдаемой переменной из гипотетических компонент. Общий фактор имеет несколько переменных с ненулевым весом или факторной нагрузкой, соответствующей этому фактору. (Фактор называется общим, если хотя бы две его нагрузки значительно отличаются от нуля.) Характерный фактор имеет только одну переменную с ненулевым весом. Следовательно, только одна переменная зависит от характерного фактора.
3. Всегда принимают, что общие факторы не коррелируют с характерным фактором. Также обычно принимают, что характерные факторы взаимно некоррелированы, но общие факторы могут или не могут коррелировать между собой.
4. Обычно принимают, что число общих факторов немного меньше, чем число наблюдаемых переменных. Однако число характерных факторов обычно принимают равным числу наблюдаемых переменных.
Используют следующие условные обозначения:
X— п х 1 — случайный вектор наблюдаемых случайных переменных^, Х2, Хъ,... Х„. Принимают, что ДА) = 0 и
Е(ХХ) = R^ — корреляционная матрица с единицами на главной диагонали. /*= т х 1 — вектор т общих факторов F{, F2,... Fm. Принимают, что
E(F) = 0 и
E(FF) = Rff— корреляционная матрица.
U= п х 1 — случайный вектор п характерных факторов переменных U{, U2,... Un.
Принимают, что
Характерные факторы нормированы с единичными дисперсиями и взаимно некорре-лированы.
А = п х т — матрица коэффициентов, называемая матрицей факторных нагрузок (матрицей факторной модели).
Y= п х п — диагональная матрица коэффициентов для характерных факторов.
Наблюдаемые переменные, которые являются координатами X, представляют собой вз! шенные комбинации общих факторов и характерных факторов. Основное уравнение факте ного анализа можно записать так:
X=AF + VU
Корреляции между переменными, выраженные факторами, можно вывести следующ] образом:
Я„= Е(ХХ') = E{(AF + YU) (AF + YU)'} =
= E{(AF + YU)(F'A' + U'Y')} = = Е (AFF'A'+ AFU'Y' + VUF'A') = VUU'V) = = ARjA'+ARfuY' + VRUJA'+ Y1.
Задав, что общие факторы не коррелированы с характерными факторами, получим: R^ = Rj = Следовательно, R^ = ARjjA ' + Y1.
Предположим, что мы вычли матрицу дисперсии характерного фактора V- из обеих част уравнения. В результате получим:
R^ зависит только от переменных общего фактора, и корреляции между переменными ев заны только с общим фактором. Пусть Rc = Я„ - И~ вычисленная корреляционная матрица.
Мы уже определили матрицу факторной модели А. Коэффициенты матрицы модели фа торов представляют собой веса, присвоенные общим факторам, когда наблюдаемые переме ные выражены линейными комбинациями общего и характерного факторов. Теперь мы ощ делим матрицу факторной структуры. Коэффициенты матрицы факторной структуры пре ставляют собой ковариации между наблюдаемыми переменными и факторами. Матри факторной структуры полезна при интерпретации факторов, так как она показывает, какие г ременные аналогичны по отношению к переменной общего фактора. Матрицу факторн* структуры Д. определяют по формуле:
А, = E(XFf) = E[(AF + VU)P] = ARff+ VRHf = ARff
Таким образом, матрица факторной структуры эквивалентна матрице модели факторов умноженной на матрицу ковариации между факторами Rff Заменив Arff на А, получим вычи ленную (редуцированную) матрицу как произведение матрицы факторной структуры на мг рицу модели факторов.
1 Приложение подготовлено на основании Stanley A. Muliak. The Foudations of Factor Analysis (New york: McGraw-Hill, 1972).