рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Нормальные уравнения и оценки наименьших квадратов

Нормальные уравнения и оценки наименьших квадратов - раздел Образование, Статистический анализ ЭКСПЕРИМЕНТАЛЬНЫХ данных МЕТОДОМ наименьших квадратов Для Линейной Модели Наблюдения (8.3.1) Квадратичная Функция (8.2.6), При Мини...

Для линейной модели наблюдения (8.3.1) квадратичная функция (8.2.6), при минимизации которой отыскиваются оценки компонентов вектора A, будет иметь вид

, (8.3.9)

а нормальные уравнения (8.2.9) – вид

. (8.3.10)

Можно показать, что система нормальных уравнений (8.3.10) всегда совместна [10]. Будем считать, что матрица X имеет ранг k (предполагается, что n ³ k), а матрица весов Q – невырожденная. Тогда матрица будет невырожденной, а потому из равенства (8.3.10) можно получить выражение для оценки вектора A:

. (8.3.11)

Если весовая матрица единичная (Q = E), то вместо соотношения (8.3.11) получим равенство

. (8.3.12)

Если относительно вектора ошибок ничего не известно, то ничего нельзя сказать и о свойствах оценок (8.3.11) или (8.3.12). Если же соотношение (8.3.2) выполняется, то оценки (8.3.11), (8.3.12) являются несмещёнными. Действительно

поскольку = 0.

Пусть корреляционная матрица вектора ошибок наблюдений имеет вид (8.3.4). Вычислим корреляционную матрицу вектора оценок . Обозначим

; .

В этих обозначениях формула для МНК-оценки (8.3.11) перепишется в виде

,

где .

Тогда корреляционная матрица вектора оценок вычисляется по формуле

(8.3.13)

В процессе преобразований в выражении (8.3.13) учтено, что

, .

Если Q = E, то

. (8.3.14)

На практике наиболее часто используется вариант МНК-оценивания, при котором в качестве весовой матрицы Q выбирается матрица , поскольку в таком случае МНК-оценка получается эффективной. Доказательство этого факта можно найти, например, в [10]. Для такого варианта корреляционная матрица оценки вычисляется по формуле

,

которая при совпадает с выражением (8.3.14).

Когда величина s2 известна, формулы (8.3.13), (8.3.14) позволяют отыскать корреляционную матрицу вектора . Из данных формул следует, что даже при некоррелированных равноточных наблюдениях компоненты вектора оценок оказываются коррелированными. Для их некоррелированности необходима ещё ортогональность столбцов матрицы наблюдений X (при Q = E) или столбцов матрицы в общем случае.

Если дисперсия наблюдений s2 неизвестна, её необходимо оценить наряду с компонентами вектора A, иначе невозможно отыскать корреляционную матрицу вектора , которая даёт характеристики точности оценивания.

Покажем, каким образом можно получить оценку величины s2. В математической статистике доказывается, что остаточная сумма квадратов

(8.3.15)

(– МНК-оценка при линейной модели наблюдения) имеет закон распределения , если вектор ошибок наблюдения характеризуется корреляционной матрицей s2E (n – размерность вектора , k – число оцениваемых параметров).

В скалярной форме выражение (8.3.15) имеет вид

.

На основании свойств - распределения получается, что

,

а потому оценку для величины s2 можно приближённо вычислять по формуле

. (8.3.16)

Отметим, что это оценка несмещённая.

Без доказательства укажем, что МНК-оценки не всегда получаются эффективными. Ранее уже отмечалось со ссылкой на работу [10], что свойством эффективности обладают МНК-оценки для моделей наблюдения (8.3.3), (8.3.4) при Q = E, (8.3.3), (8.3.5) при Q = G–1 и (8.3.3), (8.3.8) при Q = R–1. Это следует, в частности, для нормального распределения вектора ошибок из эффективности оценок, получаемых по методу максимального правдоподобия, поскольку МНК и ММП-оценки совпадают при указанном способе выбора весовых матриц. При всех остальных способах выбора матрицы весов МНК-оценки неэффективны. Однако это не означает, что варианты выбора матрицы весов Q, приводящие к неэффективным оценкам, нецелесообразны. Различные соображения могут привести к выбору матрицы весов в другой форме.

П р и м е р 8.2. Известно, что величина a – постоянная, схема оценивания имеет вид

, ,

где – наблюдаемая величина, – ошибка наблюдения. Требуется по результатам наблюдения определить оценку величины a с использованием МНК, а также получить характеристики точности оценивания при известных моментных характеристиках ошибки :

, , .

Данная задача совпадает с задачей из примера 8.1, однако там ничего не говорилось о статистических свойствах ошибок измерения .

▼ Случайную величину представим в виде вектора

.

Роль вектора оцениваемых параметров играет скалярная величина a, т.е. k = 1. Поэтому матрица X, имеющая размерность n´k, представляет собой вектор-столбец, состоящий из единиц:

В качестве матрицы весов Q выбираем единичную матрицу E[n]. МНК-оценку скалярной величины a вычисляем по формуле (8.3.12). Предварительно найдём матрицы и :

;

;

.

Окончательно получим

.

Заметим, что решение совпадает с полученным в примере 8.1.

Эта оценка является несмещённой и эффективной. Определим точность оценки . На основании формулы (8.3.14) получим

,

. (8.3.17)

Если бы величина s2 не была априори известной, то её оценку можно было бы получить на основании формулы (8.3.16):

.

Затем можно найти дисперсию оценки по формуле (8.3.17) с заменой s2 на .

Данный пример фактически указывает, каким образом следует оценивать математическое ожидание случайной величины и каковы при этом точечные характеристики этих оценок. Напомним, что ранее тот же результат для оценки математического ожидания был получен с помощью предельных теорем.

П р и м е р 8.3. Рассмотрим задачу, аналогичную приведённой в примере 8.2, с тем отличием, что независимые измерения величины a производятся с различной от эксперимента к эксперименту точностью, которая характеризуется дисперсией , .

▼ Итак, имеем схему неравноточных наблюдений:

; ; .

Корреляционная матрица взята в диагональной форму в силу независимости измерений.

Данную задачу сводим к предыдущей, используя преобразования (8.3.6), (8.3.7). При этом

,

где D – диагональная матрица с диагональю

.

Тогда формула (8.3.7) приводит к новому вектору

.

Легко убедиться, что корреляционная матрица вектора получается при этом единичной, а задача сводится к предыдущей. Уравнение (8.3.3) записывается в виде

,

где .

Далее находим, как и в примере 8.2:

; ; ;

.

Данная оценка является несмещённой и эффективной, причём

.

Сравнивая полученное решение с решением задачи 8.1 или 8.2, видим, что учёт неравноточности измерений приводит к иному решению. Возвращаясь к замечанию, указанному в примере 8.1, можно опять же подчеркнуть, что учёт статистических свойств ошибок измерений приводит к необходимости иного выбора функции V(a), чем это было сделано в примере 8.1 или 8.2.

– Конец работы –

Эта тема принадлежит разделу:

Статистический анализ ЭКСПЕРИМЕНТАЛЬНЫХ данных МЕТОДОМ наименьших квадратов

На сайте allrefs.net читайте: "Статистический анализ ЭКСПЕРИМЕНТАЛЬНЫХ данных МЕТОДОМ наименьших квадратов"

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Нормальные уравнения и оценки наименьших квадратов

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Статистический анализ и обработка данных
В предыдущих разделах были рассмотрены методы определения характеристик, описывающих свойства случайных объектов (величин, векторов, функций). Однако цель обработки экспериментальных данных в конеч

Сущность метода наименьших квадратов
Метод наименьших квадратов (МНК) получил широкое распространение при обработке экспериментальных данных в целях исследования различных функциональных зависимостей, определения параметров распределе

Линейная модель наблюдения
Рассматриваемый ниже метод наименьших квадратов при линейной модели наблюдения получил название схемы Гаусса–Маркова. Пусть наблюдаемые параметры и параметры искомой функциональной зависим

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги