36. Проверка гипотез при полиномиальной аппроксимации: о равноточности измерений, о степени полинома, аппроксимирующего экспериментальные данные (ковариационная матрица погрешностей измерений известна, измерения равноточные и неравноточные).
Полагаем, что известны характеристики погрешностей измерения значений аппроксимируемой функции:- при равноточных измерениях - дисперсия ,- при неравноточных измерениях - ковариационная матрица .
В частном случае ковариационная матрица может быть диагональной, i - ми элементами диагонали являются дисперсии погрешностей измерения значений аппроксимируемой функции. При каждом значении аргумента , i = 1,2,...,k, выполняется n измерений функции. Обозначим результаты этих измерений, через , где j -номер эксперимента, j = 1,2,..., n. Вычисляются средние арифметические значения ,из которых составляется вектор , после чего в зависимости от обстоятельств вычисляются МНК(методом наименьших квадратов) или ОМНК(обобщенным -\\-) - оценки коэффициентов аппроксимирующего полинома по формулам п. 2.3.7.2, где вместо вектора следует использовать вектор . В силу центральной предельной теоремы плотность распределения среднего арифметического стремится к нормальной довольно быстро при любых плотностях распределения исходных погрешностей, которые не слишком сильно различаются по дисперсии (см. п. 1.6.6.4). Поэтому при многократных измерениях требование к нормальности распределения погрешностей измерений значительно смягчается.Как известно из п. 2.3.4.1, дисперсии средних арифметических . Точно так же из п. 2.3.4.4 следует, что ковариационная матрица вектора средних арифметических . В связи с этими обстоятельствами формулы пп. 2.3.7.2, 2.3.7.3 несколько изменятся.
a) В случае применения МНК.
,
,
но, как и прежде, . b) В случае применения ОМНК. , , , ,но, как и прежде, .
37. Проверка гипотез при полиномиальной аппроксимации: о равноточности измерений, о степени полинома, аппроксимирующего экспериментальные данные (ковариационная матрица погрешностей измерений неизвестна, измерения равноточные и неравноточные).
При многократных измерениях предоставляется возможность оценить дисперсии при каждом i: или ковариационную матрицу в целом.Корректная оценка всех элементов ковариационной матрицы , не только диагональных, но и внедиагональных возможна лишь при выполнении специально организованного эксперимента.Выполняется один цикл измерений в такой последовательности:- воспроизводится значение физической или иной величины, соответствующее первому значению аргумента и выполняется измерение (определение) значения функции, полученный результат - ,- воспроизводится значение физической или иной величины, соответствующее второму значению аргумента и выполняется измерение (определение) значения функции, полученный результат - ,- описанная процедура продолжается до достижения последнего, k - го значения аргумента х, таким образом будет получен первый вектор результатов измерений ,- устанавливается значение физической величины x, превышающее значение , затем вновь устанавливается значение , и процесс повторяется, но в обратном порядке, при уменьшении значений x; таким образом будет получен второй вектор результатов ,- в конечном итоге так будет получено четное количество n векторов вида , j = 1, 2,..., n. По этому массиву экспериментальных данных вычисляются оценки (см. пп. 2.3.4.3, 2.3.4.4): , .Оценка ковариационной матрицы построена в соответствии с ее математическим определением, приведенным в п. 1.7.3. Поскольку при реализации ОМНК эту матрицу придется обращать, она не должна быть особенной. Для этого необходимо, чтобы n > k. Но если по техническим, экономическим или иным причинам это условие выполнить невозможно, то придется ограничиться вычислением только оценок дисперсий при каждом значении . По этим значениям строится диагональная матрица , в диагонали которой на i - ом месте стоит оценка дисперсии . В таком случае не учитывается ковариация между измерениями в точках , что приводит к незначительной потере в эффективности оценок коэффициентов, но они остаютсянесмещенными (см. п.2.3.7.4, замечание 1).
После этого для вычисления оценок коэффициентов аппроксимирующего полинома применяется ОМНК с заменой во всех формулах п. 2.3.7.5 матрицы на : , , , .Вследствие случайности исходных данных величина также случайна. Из-за участия в формуле для вместо генеральной ковариационной матрицы ее оценки в данном случае распределение “хи - квадрат” неприменимо. Вместо него здесь применяется плотность F - распределения Фишера (иногда она именуется, как плотность распределения Фишера - Снедекора), и обозначается, как , где и - количества степеней свободы. Плотность распределения Фишера имеет случайная величина [5] F = ,что записывается в виде F = .Нетрудно увидеть, что величина также, в некотором смысле есть отношение дисперсий. Функция распределения Фишера табулирована, таблицы приводятся в специальных таблицах математической статистики (например, [1,13, 14]). Из последних выражений для величины F следует, что при подготовке эксперимента по аппроксимации зависимостей необходимо обеспечивать выполнение неравенства n > k - q -1, то есть превышение количества повторных измерений над числом степеней свободы квадратичной формы . Иногда по техническим, экономическим или иным объективным причинам это условие оказывается невыполнимым. В таком вынужденном случае придется формировать диагональную матрицу : , , и применять ее при вычислении оценок коэффициентов.В этой ситуации F - распределению Фишера подчиняется случайная величина F = .Число степеней свободы k - q - 1 и n - 1. В частном случае, когда по результатам проверки по критерию Кочрена (п. 2.5.6.1) гипотезы о равенстве дисперсий будет принято решение о применении МНК, тогда вычисляется средняя оценка дисперсии ,которая подставляется вместо во всех соответствующих формулах п. 2.3.7.5: , ,И в этом случае случайная величина F = .распределена в соответствии с F - распределением Фишера с числом степеней свободы k - q - 1 и n - 1.
38.Обусловленность задачи полиномиальной аппроксимации, методы обеспечения устойчивости решения 2.3.7.7. Особенности вычислений при реализации МНК и ОМНК Как следует из пп. 2.3.7.2, 2.3.7.3, в процессе оценивания коэффициентов аппроксимирующих полиномов приходится обращать матрицы и . Из линейной алгебры и вычислительной математики известно, что устойчивость результатов подобных действий в сильной степени зависит от обусловленности обращаемых матриц. Что касается матриц и , то здесь следует опасаться того, что они могут оказаться особенными. В частности, одна из причин появления особенности у матрицы указана в предыдущем пункте.Обусловленность матриц характеризуется числом обусловленности, которое есть не что иное, как коэффициент “усиления” погрешностей экспериментальных данных и погрешностей округления к погрешностям результатов вычислений. Для квадратных симметричных матриц, каковыми являются матрицы, перечисленные выше, число обусловленности определено равенствами , где , - наибольшее и наименьшее собственные числа соответствующей матрицы. Число обусловленности матриц, используемых в МНК или в ОМНК, может достигать значений и выше.Известно, что число обусловленности указанных матриц монотонно возрастает с увеличением количества столбцов матрицы X, то есть с увеличением порядка q или, что то же самое, с увеличением числа коэффициентов полинома (см. конструкцию матрицы X в п. 2.3.7.2). Максимального значения число обусловленности достигает при q + 1 = k. Особенно опасной оказывается ситуация, когда количество оцениваемых коэффициентов превышает их фактическое количество, то есть при завышении степени полинома. Можно рекомендовать три способа повышения устойчивости оценок коэффициентов МНК и ОМНК.
1. Не стремиться к излишне высокому порядку аппроксимирующего полинома, использовать априорную информацию о гладкости аппроксимируемой функции. 2. При необходимости аппроксимации функции y = f(x) полиномом высокого порядка вплоть до q = k - 1 использовать метод регуляризации А.Н.Тихонова.Применительно к МНК и ОМНК этот метод заключается в следующем [7].Исходное уравнение преднамеренно искажается таким образом, чтобы это искажение заведомо улучшало обусловленность. Таким регуляризирующим искажением является, по Тихонову, увеличение диагональных элементов матрицы системы уравнений. Регуляризированное таким образом решение имеет вид .
Число a называется параметром регуляризации. Оценка называется ридж-оценкой. В отечественной литературе встречается калькоподобный.Эта оценка, конечно, смещена. Ее смещение примерно равно .Проблема состоит в выборе такого значения параметра регуляризации, при котором результирующая погрешность, вызванная смещением оценки и плохой обусловленностью матрицы системы, была минимальной.На рис. показана принципиальная возможность такого выбора. Однако, универсального практического рецепта выбора оптимального значения параметра регуляризации пока не существует. 3. Третий способ заключается в таком размещении значений аргумента x, при котором число обусловленности матрицы или было минимальным. Основные принципы планирования эксперимента, выполняемого с целью полиномиальной аппроксимации. Снова обратимся к конструкции матрицы X, приведенной в п. 2.3.7.2, и к одной из формул вычисления ковариационной матрицы оценок коэффициентов полинома, например, . Из конструкции матрицы X видно, что ее элементы изменяют свои значения в зависимости от значений аргумента полинома: . Стало быть, можно надеяться на то, что существует такой план расстановки этих значений, при котором погрешности в каком-либо смысле будут минимальными. Такие планы, действительно, существуют. Назовем некоторые из них. А - оптимальный план эксперимента - план, при котором достигается min следа матрицы , то есть min суммы ее диагональных элементов. D - оптимальный план эксперимента - план, при котором достигается min значение определителя матрицы . С - оптимальный план эксперимента - план, при котором достигается min значение числа обусловленности матрицы . С - оптимальный план эквивалентен D - оптимальному плану. Расширение класса аппроксимирующих полиномов. Материал, изложенный выше, в равной степени относится к оценке коэффициентов обобщенных аппроксимирующих полиномов с заменой понятия “степень полинома” на “порядок полинома”. Обобщенным полиномом называется полином вида , - система базисных функций.Если эти ф-и ортогональны и соответствуют характеру аппроксимируемой зависимости лучше, чем степени x, то для достижения необходимой точности аппроксимации может понадобиться меньше членов, чем в случае аппроксимации степенным полиномом. А это обстоятельство способствует улучшению обусловленности задачи и является четвертым средством повышения устойчивости оценок МНК и ОМНК.Матрица X в этом случае будет иметь следующую конструкцию: .Это единственное отличие от изложенного выше.
39. Интервальные оценки, их практическое значение и преимущества перед точечными, понятие доверительной вероятности, доверительные интервалы для математического ожидания (дисперсия генеральной совокупности известна и неизвестна).
Целью интервального оценивания является вычисление по выборочным данным объема n такого интервала с границами: нижней - и верхней , чтобы ,где Q - вероятность, близкая к единице, например Q = 0.8 ¸ 0.95. Такой интервал называется доверительным интервалом (confidenceinterval), вероятность Q - доверительной вероятностью. Границы доверительного интервала являются функциями выборочных значений, они случайны. Поэтому говорят, что доверительный интервал накрывает значение искомой генеральной характеристики (параметра) с вероятностью, не меньшей, чем Q. Пусть выборка извлечена из нормальной генеральной совокупности, образованной случайной величиной , известна. Несмещенная, состоятельная и эффективная точечная оценка математического ожидания - среднее арифметическое .Это линейная функция выборочных значений, извлеченных из нормальной генеральной совокупности, нормальное распределение безгранично делимо, поэтому распределено нормально: .Вычтем из его математическое ожидание и разделим результат на его среднеквадратическое значение. Получим новую случайную величину, которая также нормально распределена: .Пусть - a×100 - процентная квантиль, - процентная квантиль нормального распределения. Вероятностная мера интерквантильного промежутка есть
.
Пусть Q - доверительная вероятность, , . В силу симметрии нормального распределения . .Следует обратить пристальное внимание на две тенденции поведения границ доверительного интервала: 1. С увеличением объема выборки при фиксированном значении доверительной вероятности ширина доверительного интервала уменьшается и в пределе стремится к нулю, что вполне естественно. 2. При фиксированном значении объема выборки с увеличением доверительной вероятности ширина доверительного интервала увеличивается, и в пределе при Q = 1 доверительным интервалом становится вся ось, что также вполне естественно, ибо для покрытия неизвестного значения с большой вероятностью требуется широкий интервал. Дисперсия генеральной совокупности неизвестна. Пусть как и ранее, , . Поскольку дисперсия неизвестна, будем использовать ее несмещенную оценку .По аналогии с п. 2.4.3 сформируем случайную величину .Плотность распределения этой случайной величины есть плотность распределения.Стъюдента с (n – 1) степенью свободы, которая имеет следующий вид: .Это одномодальная симметричная плотность распределения. При значительных объемах выборки n математическое ожидание, дисперсия и эксцесс случайной величины τ, распределенной по Стъюденту, равны:
.Единственный параметр плотности распределения Стъюдента - число степеней свободы.
Частный вид плотности распределения Стъюдента при n = 2 - плотность распределения Коши. При n ®¥ плотность распределения Стъюдента стремится к нормальному распределению. Удовлетворительная близость к нормальному распределению начинается уже с n = 20. Квантили распределения Стъюдента с числом степеней свободы (n - 1): и - суть границы интерквантильного промежутка, такого, что
В силу симметрии плотности распределения Стъюдента
= - .С учетом этого факта и выражая вероятность a через Q, решим неравенство, стоящее в скобках, относительно a: .Получен доверительный интервал для математического ожидания в условиях, когда вместо дисперсии применяется ее несмещенная оценка.
В этом случае также проявляется полезное свойство центральной предельной теоремы, позволяющее при значительных объемах выборки (начиная с n = 20) пользоваться полученным доверительным интервалом для оценки математического ожидания широкого класса наиболее употребительных случайных величин, плотность распределения которых отличается от нормальной.
Как и в предыдущем пункте, обращаем внимание на две тенденции поведения границ доверительного интервала:
1. С увеличением объема выборки при фиксированном значении доверительной вероятности ширина доверительного интервала уменьшается и в пределе стремится к нулю, что вполне естественно.
2. При фиксированном значении объема выборки с увеличением доверительной вероятности ширина доверительного интервала увеличивается, и в пределе при Q = 1 доверительным интервалом становится вся ось, что также вполне естественно, ибо для покрытия неизвестного значения с большой вероятностью требуется широкий интервал.
40. Параметрические доверительные интервалы для дисперсии и для интерквантильного промежутка.
Пусть как и ранее, . Математическое ожидание неизвестно, для его оценки применено среднее арифметическое . Точечная несмещенная оценка дисперсии .
В п. 2.3.4.2 с) мы выяснили, что плотность распределения случайной величины есть плотность распределения с (n - 1) степенями свободы. Квантили этой плотности распределения и суть границы интерквантильного промежутка, который определяется равенством .
Как видно из рис. 33 и из рис. 28 п. 2.3.4.2 с), плотность распределения “хи - квадрат” несимметрична, поэтому после решения неравенства, стоящего в скобках, получим доверительные интервалы с несимметричными границами:
,
.Расположение квантилей, использованных в этих формулах, показано на рис. 33. Материалы настоящего пункта справедливы только для случаев, когда выборка извлечена из нормальной генеральной совокупности. Доверительные интервалы для интерквантильного промежутка.