Реферат Курсовая Конспект
Нормальные уравнения и оценки наименьших квадратов - раздел Образование, Статистический анализ ЭКСПЕРИМЕНТАЛЬНЫХ данных МЕТОДОМ наименьших квадратов Для Линейной Модели Наблюдения (8.3.1) Квадратичная Функция (8.2.6), При Мини...
|
Для линейной модели наблюдения (8.3.1) квадратичная функция (8.2.6), при минимизации которой отыскиваются оценки компонентов вектора A, будет иметь вид
, (8.3.9)
а нормальные уравнения (8.2.9) – вид
. (8.3.10)
Можно показать, что система нормальных уравнений (8.3.10) всегда совместна [10]. Будем считать, что матрица X имеет ранг k (предполагается, что n ³ k), а матрица весов Q – невырожденная. Тогда матрица будет невырожденной, а потому из равенства (8.3.10) можно получить выражение для оценки вектора A:
. (8.3.11)
Если весовая матрица единичная (Q = E), то вместо соотношения (8.3.11) получим равенство
. (8.3.12)
Если относительно вектора ошибок ничего не известно, то ничего нельзя сказать и о свойствах оценок (8.3.11) или (8.3.12). Если же соотношение (8.3.2) выполняется, то оценки (8.3.11), (8.3.12) являются несмещёнными. Действительно
поскольку = 0.
Пусть корреляционная матрица вектора ошибок наблюдений имеет вид (8.3.4). Вычислим корреляционную матрицу вектора оценок . Обозначим
; .
В этих обозначениях формула для МНК-оценки (8.3.11) перепишется в виде
,
где .
Тогда корреляционная матрица вектора оценок вычисляется по формуле
(8.3.13)
В процессе преобразований в выражении (8.3.13) учтено, что
, .
Если Q = E, то
. (8.3.14)
На практике наиболее часто используется вариант МНК-оценивания, при котором в качестве весовой матрицы Q выбирается матрица , поскольку в таком случае МНК-оценка получается эффективной. Доказательство этого факта можно найти, например, в [10]. Для такого варианта корреляционная матрица оценки вычисляется по формуле
,
которая при совпадает с выражением (8.3.14).
Когда величина s2 известна, формулы (8.3.13), (8.3.14) позволяют отыскать корреляционную матрицу вектора . Из данных формул следует, что даже при некоррелированных равноточных наблюдениях компоненты вектора оценок оказываются коррелированными. Для их некоррелированности необходима ещё ортогональность столбцов матрицы наблюдений X (при Q = E) или столбцов матрицы в общем случае.
Если дисперсия наблюдений s2 неизвестна, её необходимо оценить наряду с компонентами вектора A, иначе невозможно отыскать корреляционную матрицу вектора , которая даёт характеристики точности оценивания.
Покажем, каким образом можно получить оценку величины s2. В математической статистике доказывается, что остаточная сумма квадратов
(8.3.15)
(– МНК-оценка при линейной модели наблюдения) имеет закон распределения , если вектор ошибок наблюдения характеризуется корреляционной матрицей s2E (n – размерность вектора , k – число оцениваемых параметров).
В скалярной форме выражение (8.3.15) имеет вид
.
На основании свойств - распределения получается, что
,
а потому оценку для величины s2 можно приближённо вычислять по формуле
. (8.3.16)
Отметим, что это оценка несмещённая.
Без доказательства укажем, что МНК-оценки не всегда получаются эффективными. Ранее уже отмечалось со ссылкой на работу [10], что свойством эффективности обладают МНК-оценки для моделей наблюдения (8.3.3), (8.3.4) при Q = E, (8.3.3), (8.3.5) при Q = G–1 и (8.3.3), (8.3.8) при Q = R–1. Это следует, в частности, для нормального распределения вектора ошибок из эффективности оценок, получаемых по методу максимального правдоподобия, поскольку МНК и ММП-оценки совпадают при указанном способе выбора весовых матриц. При всех остальных способах выбора матрицы весов МНК-оценки неэффективны. Однако это не означает, что варианты выбора матрицы весов Q, приводящие к неэффективным оценкам, нецелесообразны. Различные соображения могут привести к выбору матрицы весов в другой форме.
П р и м е р 8.2. Известно, что величина a – постоянная, схема оценивания имеет вид
, ,
где – наблюдаемая величина, – ошибка наблюдения. Требуется по результатам наблюдения определить оценку величины a с использованием МНК, а также получить характеристики точности оценивания при известных моментных характеристиках ошибки :
, , .
Данная задача совпадает с задачей из примера 8.1, однако там ничего не говорилось о статистических свойствах ошибок измерения .
▼ Случайную величину представим в виде вектора
.
Роль вектора оцениваемых параметров играет скалярная величина a, т.е. k = 1. Поэтому матрица X, имеющая размерность n´k, представляет собой вектор-столбец, состоящий из единиц:
В качестве матрицы весов Q выбираем единичную матрицу E[n]. МНК-оценку скалярной величины a вычисляем по формуле (8.3.12). Предварительно найдём матрицы и :
;
;
.
Окончательно получим
.
Заметим, что решение совпадает с полученным в примере 8.1.
Эта оценка является несмещённой и эффективной. Определим точность оценки . На основании формулы (8.3.14) получим
,
. (8.3.17)
Если бы величина s2 не была априори известной, то её оценку можно было бы получить на основании формулы (8.3.16):
.
Затем можно найти дисперсию оценки по формуле (8.3.17) с заменой s2 на .
Данный пример фактически указывает, каким образом следует оценивать математическое ожидание случайной величины и каковы при этом точечные характеристики этих оценок. Напомним, что ранее тот же результат для оценки математического ожидания был получен с помощью предельных теорем.
▲
П р и м е р 8.3. Рассмотрим задачу, аналогичную приведённой в примере 8.2, с тем отличием, что независимые измерения величины a производятся с различной от эксперимента к эксперименту точностью, которая характеризуется дисперсией , .
▼ Итак, имеем схему неравноточных наблюдений:
; ; .
Корреляционная матрица взята в диагональной форму в силу независимости измерений.
Данную задачу сводим к предыдущей, используя преобразования (8.3.6), (8.3.7). При этом
,
где D – диагональная матрица с диагональю
.
Тогда формула (8.3.7) приводит к новому вектору
.
Легко убедиться, что корреляционная матрица вектора получается при этом единичной, а задача сводится к предыдущей. Уравнение (8.3.3) записывается в виде
,
где .
Далее находим, как и в примере 8.2:
; ; ;
.
Данная оценка является несмещённой и эффективной, причём
.
▲
Сравнивая полученное решение с решением задачи 8.1 или 8.2, видим, что учёт неравноточности измерений приводит к иному решению. Возвращаясь к замечанию, указанному в примере 8.1, можно опять же подчеркнуть, что учёт статистических свойств ошибок измерений приводит к необходимости иного выбора функции V(a), чем это было сделано в примере 8.1 или 8.2.
– Конец работы –
Эта тема принадлежит разделу:
На сайте allrefs.net читайте: "Статистический анализ ЭКСПЕРИМЕНТАЛЬНЫХ данных МЕТОДОМ наименьших квадратов"
Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Нормальные уравнения и оценки наименьших квадратов
Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:
Твитнуть |
Новости и инфо для студентов