Оглавление
c.
1 Регрессионный анализ 4
1.1 Парная и множественная регрессия 5
1.2 Линейная регрессия 6
1.3 Построение эмпирических рядов регрессии 10
1.4 Полигон и гистограмма 13
2 Статистический анализ зависимости 14
3 Решение с помощью MS Excel 27
Заключение 28
Список литературы 29
Введение
Цель данной курсовой работы – провести статистический анализ зависимости величины средней заработной платы населения от количества часов работы в неделю.
Решение данной задачи позволит определить существует ли зависимость между количеством часов работы в неделю и размером средней заработной платы, а рассмотрение статистического анализа позволит осуществлять поиск зависимости переменных друг от друга в различных областях деятельности человека.
В задачах математического программирования нужно определить значение целевой функции. Практически в любой ситуации обнаруживается несколько целей противоречащих друг другу. Поэтому для эффективного решения любой из задач в первую очередь необходимо построить математическую модель, которую затем нужно оптимизировать, предварительно выбрав подходящий для этого метод.
Различных форм и видов корреляционных связей много. Задача сводится к тому, чтобы в каждом конкретном случае выявить форму связи и выразить ее соответствующим корреляционным уравнением, что позволяет предвидеть возможные изменения одного признака Y на основании известных изменений другого X, связанного с первым корреляционно.
В ходе написания курсовой работы будут решены следующие задачи:
- раскрыть понятие регрессионного анализа;
- построить диаграмму рассеивания;
- рассмотреть понятия парной регрессии и корреляции.
Во введении раскрывается актуальность темы курсовой работы, формируются цели и задачи. В теоретической части будут рассмотрены методы и этапы корреляционного анализа. В заключении дается общий вывод по проделанной работе.
1 Регрессионный анализ
Статистика – это наука, которая занимается получением, обработкой, а также анализом данных и публикацией информации, характеризующей количественные закономерности жизни общества в неразрывной связи с их качественным содержанием. В более узком смысле статистика – это совокупность данных о каком-либо процессе или явлении. Задача математической статистики состоит в создании методов сбора и обработки статистических данных для получения научных и практических выводов. Установление закономерностей, которым подчинены массовые случайные явления, основано на изучении методами теории вероятностей статистических данных – результатов наблюдений [1].
Теория вероятностей – раздел математики, в котором по данным вероятностям одних случайных событий находят вероятности других событий, связанных каким-либо образом с первыми. Теория вероятностей изучает также случайные величины и случайные процессы. Одна из основных задач теории вероятностей состоит в выяснении закономерностей, возникающих при взаимодействии случайных факторов.
Зависимость между переменными величинами x и y может быть описана разными способами. В частности, любую форму связи можно выразить уравнением общего вида , где y рассматривается в качестве зависимой переменной, или функции от другой – независимой переменной величины x, называемой аргументом. Соответствие между аргументом и функцией может быть задано таблицей, формулой, графиком. Изменение функции в зависимости от изменения одного или нескольких аргументов называется регрессией. Все средства, применяемые для описания корреляционных связей, составляет содержание регрессионногоанализа.
Для выражения регрессии служат корреляционные уравнения, или уравнения регрессии, эмпирические и теоретически вычисленные ряды регрессии, их графики, называемые линиями регрессии, а также коэффициенты линейной и нелинейной регрессии.
Показатели регрессии выражают корреляционную связь двусторонне, учитывая изменение усредненных значений признака Y при изменении значений xi признака X, и, наоборот, показывают изменение средних значений признака X по измененным значениям yi признака Y. Исключение составляют временные ряды, или ряды динамики, показывающие изменение признаков во времени. Регрессия таких рядов является односторонней.
Различных форм и видов корреляционных связей много. Задача сводится к тому, чтобы в каждом конкретном случае выявить форму связи и выразить ее соответствующим корреляционным уравнением, что позволяет предвидеть возможные изменения одного признака Y на основании известных изменений другого X, связанного с первым корреляционно [2].
Парная и множественная регрессия
Парная регрессия представляет собой модель, где среднее значение зависимой (объясняемой) переменной у, рассматривается как функция одной независимой (объясняющей) переменной х, формула (1):
(1)
Основные гипотезы, лежащие в основе классической линейной модели парной регрессии:
1. Спецификация модели
2. детерминированная величина
Вектор не коллинеарен вектору
3. , т.е. математическое ожидание ошибок (остатков) равно нулю.
4. неизменность дисперсий ошибок (остатков), дисперсия не зависит от i.
5. при некоррелированность ошибок для разных наблюдений
6. Ошибки имеют совместное нормальное распределение
Комментарии к основным гипотезам:
Спецификация модели отражает наше представление о механизме зависимости от и сам выбор объясняющей переменной .
Условие означает, что , т.е. при фиксированном среднее ожидаемое значение равно a+bxi.
Условие при указывает на некоррелированность ошибок для разных наблюдений. Это условие часто нарушается в случае, когда наши данные являются временными рядами.
В случае, когда это условие не выполняется, говорят об автокорреляции ошибок.
Линейная регрессия
Уравнение регрессии. Результаты наблюдений, проведенных над тем или иным биологическим объектом по корреляционно связанным признакам x и y, можно изобразить точками на плоскости, построив систему прямоугольных координат. В результате получается некая диаграмма рассеяния, позволяющая судить о форме и тесноте связи между варьирующими признаками. Довольно часто эта связь выглядит в виде прямой или может быть аппроксимирована прямой линией [3].
Линейная зависимость между переменными x и y описывается уравнением общего вида , где a, b, c, d, … – параметры уравнения, определяющие соотношения между аргументами x1, x2, x3, …, xm и функций .
В практике учитывают не все возможные, а лишь некоторые аргументы, в простейшем случае – всего один, представленный на формуле (2):
(2)
В уравнении линейной регрессии (2) a – свободный член, а параметр b определяет наклон линии регрессии по отношению к осям прямоугольных координат. В аналитической геометрии этот параметр называют угловым коэффициентом, а в биометрии – коэффициентом регрессии. Наглядное представление об этом параметре и о положении линий регрессии Y по X и X по Y в системе прямоугольных координат дает рис.1.
Рис. 1- Линии регрессии Y по X и X по Y в системе
прямоугольных координат
Линии регрессии, как показано на рис.1, пересекаются в точке О (, ), соответствующей средним арифметическим значениям корреляционно связанных друг с другом признаков Y и X. При построении графиков регрессии по оси абсцисс откладывают значения независимой переменной X, а по оси ординат – значения зависимой переменной, или функции Y. Линия АВ, проходящая через точку О (, ) соответствует полной (функциональной) зависимости между переменными величинами Y и X, когда коэффициент корреляции . Чем сильнее связь между Y и X, тем ближе линии регрессии к АВ, и, наоборот, чем слабее связь между этими величинами, тем более удаленными оказываются линии регрессии от АВ. При отсутствии связи между признаками линии регрессии оказываются под прямым углом по отношению друг к другу и .
Поскольку показатели регрессии выражают корреляционную связь двусторонне, уравнение регрессии (2) следует записывать так:
и (3)
По первой формуле определяют усредненные значения при изменении признака X на единицу меры, по второй – усредненные значения при изменении на единицу меры признака Y [4].
Коэффициент регрессии. Коэффициент регрессии показывает, насколько в среднем величина одного признака y изменяется при изменении на единицу меры другого, корреляционно связанного с Y признака X. Этот показатель определяют по формуле (4):
или (4)
Здесь значения s умножают на размеры классовых интервалов λ, если их находили по вариационным рядам или корреляционным таблицам.
Коэффициент регрессии можно вычислить, минуя расчет средних квадратичных отклонений sy и sx по формуле (4):
или (5)
Если же коэффициент корреляции неизвестен, коэффициент регрессии определяют следующим образом:
или . (6)
Связь между коэффициентами регрессии и корреляции. Эта связь выражается равенством (7):
(7)
Таким образом, коэффициент корреляции равен средней геометрической из коэффициентов byx и bxy. Формула (7) позволяет, во-первых, по известным значениям коэффициентов регрессии byx и bxy определять коэффициент регрессии Rxy, а во-вторых, проверять правильность расчета этого показателя корреляционной связи Rxy между варьирующими признаками X и Y.
Как и коэффициент корреляции, коэффициент регрессии характеризует только линейную связь и сопровождается знаком плюс при положительной и знаком минус при отрицательной связи.
Определение параметров линейной регрессии. Известно, что сумма квадратов отклонений вариант xi от средней есть величина наименьшая, т.е. . Эта теорема составляет основу метода наименьших квадратов. В отношении линейной регрессии [см. формулу (2)] требованию этой теоремы удовлетворяет некоторая система уравнений, называемых нормальными:
Совместное решение этих уравнений относительно параметров a и b приводит к следующим результатам:
, откуда и
Учитывая двусторонний характер связи между переменными Y и X, формулу для определения параметра, а следует выразить так:
(8)
Параметр b, или коэффициент регрессии, определяют по следующим формулам:
(9)
(10)