Реферат Курсовая Конспект
Конспект лекций по теории вероятностей И математической статистике - раздел Математика, Конспект Лекций По Теории Вероятностей ...
|
Конспект лекций по теории вероятностей
И математической статистике
Для специальности “Управление информационными
ресурсами”
(Курс – 40 л, 34 практических, 8 лабораторных работ (ПЭВМ))
Список литературы
1. Вентцель Е.С. Теория вероятностей. М. Высш. школа, 2002.
2. Гмурман В.Е. Теория вероятностей и математическая статистика. М. Высш. Шк. 2002-09-03
3. Мацкевич И.П., Свирид Г.П. Высшая математика. Теория вероятностей и математическая статистика. Минск. Выш. Школа, 1993.
4. Колемаев В.А., Калинина В.Н. Теория вероятностей и математическая статистика. М. Инфра-М. 2000.
5. Общий курс высшей математики для экономистов. Под ред. В. И. Ермакова. М. Инфра-М, 2001 г.
6. В.И. Малыхин Математика в экономике. Уч. Пособие. М. Инфра-М, 2002.
7. Гринберг А.С., Плющ О.Б. Теория вероятностей и математическая статистика. Курс лекций. (Система открытого образования)
8. Кротов В.Г. Математика для менеджера, ч.VI. Лекции по теории вероятностей и математической статистике
Лекция 1. Предмет теории вероятностей и математической статистики и их роль в экономике и менеджменте. 4
Лекция 2. Аксиоматика теории вероятности.. 11
Понятие случайного эксперимента. 11
Пространство элементарных событий. 11
Совместные и несовместные события. 12
Операции над событиями (сумма, разность, произведение). 13
Свойства операций над событиями. 15
Алгебра и сигма-алгебра событий. 16
Лекция 3. Методы определения вероятностей событий.. 18
Классическое определение вероятности события. Случаи равновероятных исходов. 18
Статистическое определение вероятности события. Случаи неравновероятных исходов. 20
Геометрические вероятности. 21
Аксиоматическое построение теории вероятностей. 22
Вероятностное пространство. 23
Лекция 4. Основные теоремы теории вероятностей. Формула полной вероятности и формула Байеса. 24
Полная группа событий. 24
Условная вероятность. 24
Формула умножения вероятностей. 25
Формула сложения вероятностей. 25
Независимость событий. 26
Формула полной вероятности. 27
Формула Байеса. 28
Основные понятия комбинаторики. 29
Правила суммы и произведения. 29
Лекция 5. Схема независимых испытаний Бернулли.. 31
Случай непостоянной вероятности появления события в опытах. 31
Наивероятнейшее число наступления событий в схеме Бернулли. 32
Предельные теоремы для схемы Бернулли. 33
Теорема Пуассона. 33
Понятие потока событий. 34
Локальная теорема Муавра –Лапласа. 35
Интегральная (глобальная) теорема Муавра – Лапласа. 36
Лекция 6. Виды случайных величин и расчет вероятностей.. 38
событий с использованием функций и плотностей распределения. 38
Закон распределения дискретной случайной величины. 39
Функция распределения случайной величины и ее свойства. 39
Свойства функции распределения. 41
Плотность распределения вероятностей. 42
Лекция 7. Основные параметры распределений.. 44
одномерных случайных величин. 44
Математическое ожидание случайной величины.. 44
Свойства математического ожидания: 45
Дисперсия случайной величины и ее свойства. 46
Среднее квадратическое отклонение. 48
Лекция 8. Основные законы распределений случайных величин.. 51
Биномиальное распределение, его математическое ожидание и дисперсия. 51
Распределение Пуассона. 52
Геометрическое распределение. 53
Гипергеометрическое распределение (урновая схема) 54
Равномерное распределение. 56
Показательное распределение. 57
Лекция 9. Нормальное распределение и его свойства. 59
Свойства функции Гаусса. 61
Вероятность попадания нормальной случайной величины в заданный интервал. 62
Функция Лапласа и ее свойства. 63
Отклонение нормальной случайной величины от ее математического ожидания. Правило «трех сигм». 64
Лекция 10. Многомерные случайные величины.. 67
Закон распределения вероятностей двумерной случайной величины.. 67
Совместная функция распределения двух случайных величин. 68
Свойства совместной функции распределения двух случайных величин. 69
Плотность совместного распределения вероятностей. 69
непрерывной двумерной случайной величины.. 69
Свойства двумерной плотности вероятности. 70
Независимые случайные величины.. 70
Числовые характеристики системы двух случайных величин. 71
Корреляционный момент. 71
Коэффициент корреляции. 72
Свойства коэффициента корреляции. 73
Лекция 11. Предельные теоремы теории вероятностей. 75
Неравенство Чебышева. 75
Теорема Чебышева. 76
Центральная предельная теорема. 79
Лекция 12. Выборочный метод анализа свойств генеральной совокупности. 81
Выборочный метод и его основные понятия. Случайная выборка и ее объем.. 82
Способы отбора. 83
Вариационный ряд для дискретных и непрерывных случайных величин. 85
Полигон и гистограмма. 87
Лекция 13. Понятие о статистических оценках случайных величин.. 89
Эмпирическая функция распределения. 89
Важнейшие свойства статистических оценок. 90
Надежность и доверительный интервал. 94
Лекция 14. Доверительные интервалы для математического. 96
ожидания и дисперсии.. 96
Доверительный интервал для математического ожидания нормального распределения при известной дисперсии. 96
Доверительный интервал для математического ожидания нормального распределения при неизвестной дисперсии 97
. Доверительный интервал для оценки среднего квадратического отклонения s нормального распределения. 99
Лекция 15. Проверка статистических гипотез. 102
Статистический критерий. 104
Критическая область. Область принятия гипотезы. 105
Критические точки. 105
Критерий согласия Пирсона о виде распределения. 106
Лекция 16. (УИР) Понятие о регрессионном анализе. 111
Понятие о регрессионном анализе. 111
Выборочные уравнения регрессии. 113
Линейная регрессия. 114
Множественная линейная регрессия. 116
Нелинейная регрессия. 116
Лекция 17 (УИР). Понятие о корреляционном анализе. 119
А. Парная корреляция. 122
Б. Множественная корреляция. 126
Лекция 18 (УИР). Цепи Маркова с дискретным временем.. 129
Однородные цепи Маркова. 130
Переходные вероятности. Матрица перехода. 131
Равенство Маркова. 131
Лекция 19 (УИР). Цепи Маркова с непрерывным временем. 135
Уравнения Колмогорова. 136
Финальные вероятности состояний системы.. 137
Схема гибели и размножения. 140
Лекция 20 (УИР). Системы массового обслуживания. 144
Расчет характеристик систем массового обслуживания. 147
Одноканальные модели. 147
А. Одноканальная модель с отказами. 147
Б. Одноканальная модель с ожиданием.. 150
Многоканальные модели. 152
Лекция 2. Аксиоматика теории вероятности
Операции над событиями (сумма, разность, произведение).
С каждым испытанием связан ряд событий, которые, вообще говоря, могут появляться одновременно. Например, при бросании игральной кости событие есть выпадение двойки, а событие – выпадение четного числа очков. Очевидно, что эти события не исключают друг друга.
Пусть все возможные результаты испытания осуществляются в ряде единственно возможных частных случаев, взаимно исключающих друг друга. Тогда
ü каждый исход испытания представляется одним и только одним элементарным событием;
ü всякое событие , связанное с этим испытанием, есть множество конечного или бесконечного числа элементарных событий;
ü событие происходит тогда и только тогда, когда реализуется одно из элементарных событий, входящих в это множество.
Произвольное, но фиксированное пространство элементарных событий , можно представить в виде некоторой области на плоскости. При этом элементарные события – это точки плоскости, лежащие внутри . Поскольку событие отождествляется с множеством, то над событиями можно совершать все операции, выполнимые над множествами. По аналогии с теорией множеств строится алгебра событий. При этом могут быть определены следующие операции и сотношения между событиями:
AÌB (отношение включения множеств: множество А является подмножеством множества В) – событие A влечет за собой событие В. Иначе говоря, событие В происходит всякий раз, как происходит событие A. Пример - выпадение двойки влечет за собой выпадение четного числа очков.
(отношение эквивалентности множеств) – событие тождественно или эквивалентно событию . Это возможно в том и только в том случае, когда и одновременно , т.е. каждое из них происходит всякий раз, когда происходит другое. Пример – событие А – поломка прибора, событие В – поломка хотя бы одного из блоков (деталей) прибора.
() – сумма событий. Это событие, состоящее в том, что произошло хотя бы одно из двух событий или (логическое "или"). В общем случае, под суммой нескольких событий понимается событие, состоящее в появлении хотя бы одного из этих событий. Пример – цель поражена первым орудием, вторым или обоими одновременно.
() – произведение событий. Это событие, состоящее в совместном осуществлении событий и (логическое "и"). В общем случае, под произведением нескольких событий понимается событие, состоящее в одновременном осуществлении всех этих событий. Таким образом, события и несовместны, если произведение их есть событие невозможное, т.е. . Пример – событие А – вынимание из колоды карты бубновой масти, событие В – вынимание туза, тогда - появление бубнового туза.
– разность событий. Это событие, состоящее из исходов, входящих в , но не входящих в . Оно заключается в том, что происходит событие , но при этом не происходит событие . Пример – А – сдача экзаменационной сессии, В – получение степени, тогда А-В – сдача сессии с недостаточно высоким для получения стипендии результатом.
Противоположным (дополнительным) для события (обозначается ) называется событие, состоящее из всех исходов, которые не входят в .
Наступление события означает просто что событие не наступило.
Часто оказывается полезной геометрическая интерпретация операций над событиями. Графическая иллюстрация операций называется диаграммами Венна.
Лекция 3. Методы определения вероятностей событий
Вероятность является количественной мерой возможности появления события. Наиболее широкое распространение получили два определения вероятности события: классическое и статистическое.
Классическое определение вероятности события. Случаи равновероятных исходов.
Классическое определение вероятности связано с определением благоприятствующего исхода. Исход называется благоприятствующим данному событию, если его появление влечет за собой наступление этого события. Вероятность события равна отношению числа равновозможных благоприятствующих элементарных исходов к общему числу всех равновозможных элементарных исходов данного испытания:
,
где – число благоприятствующих событию исходов;
– общее число возможных исходов.
Примеры:1. Кубик, 2. Какова вероятность того, что в произвольном двузначном числе две цифры одинаковы (9/90 = 0.1), 3. Из букв слова “дифференциал” выбирается одна буква. Какова вероятность того, что это а) гласная, б) буква “ф”.
Из определения вероятности события следует, что , поэтому всегда выполняются неравенства , т.е. вероятность любого события есть неотрицательное число, не превышающее единицы.
ü Если , то событие невозможное.
ü Если , то событие достоверное.
ü Равновозможные элементарные события являются равновероятными, т.е. обладают одной и той же вероятностью.
Теорема. Если , то .
Доказательство. Пусть и – число благоприятных элементарных исходов соответственно для событий и , а – общее число элементарных исходов. Так как каждый элементарный исход для события является также элементарным исходом для события , то и, следовательно, . Пример: выпадение четного числа очков более вероятно, чем выпадение двойки.
Теорема. Вероятность события , противоположного событию равна
.
Доказательство. Пусть полная система равновозможных элементарных исходов содержит событий, из которых (), благоприятны событию . Тогда исходов неблагоприятны событию , т.е. благоприятствуют событию . Таким образом,
.
Классическое определение вероятности предполагает, что
Ø число элементарных исходов конечно;
Ø эти исходы равновозможны.
Однако на практике встречаются испытания с бесконечным числом возможных исходов. Кроме того, нет общих методов, позволяющих результат испытания, даже с конечным числом исходов, представить в виде суммы равновозможных элементарных исходов. Поэтому применение классического определения вероятности весьма ограничено. Пример: кубик со смещенным центром тяжести.
Вероятностью события в статистическом смысле называется число , относительно которого стабилизируется (устанавливается) относительная частота при неограниченном увеличении числа опытов.
Поэтому, на практике за вероятность события принимается относительная частота при достаточно большом числе испытаний.
Свойства вероятности, вытекающие из классического определения вероятности, сохраняются и при статистическом определении вероятности.
Если вероятность некоторого события близка к нулю, то, в соответствии со сказанным следует, что при единичном испытании в подавляющем большинстве случаев такое событие не наступит. Возникает вопрос: насколько малой должна быть вероятность, чтобы можно было пренебречь вероятностью наступления некоторого события в единичном испытании (например, землетрясение в Минске)? Достаточно малую вероятность, при которой наступление события можно считать практически невозможным, называют уровнем значимости. На практике уровень значимости обычно принимают равным 0,05 (пятипроцентный уровень) или 0,01 (однопроцентный уровень).
Вероятностное пространство
Будем говорить, что задано вероятностное пространство, если задано пространство элементарных исходов W, сигма алгебра и для каждого элементарного события задана его вероятность.
Иначе говоря, Вероятностным пространством называется тройка (, где - вероятностная мера на .
Лекция 4. Основные теоремы теории вероятностей. Формула полной вероятности и формула Байеса
.
Формула умножения вероятностей.
Теорема: Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие произошло:
.
Теорему умножения вероятностей легко обобщить на любое конечное число событий.
Теорема: Вероятность произведения конечного числа событий равна произведению их условных вероятностей относительно произведения предшествующих событий:
.
Для доказательства этой теоремы можно использовать метод математической индукции.
.
Доказательство: Событие наступит, если наступит одно из несовместных событий , , . По теореме сложения вероятностей несовместных событий
Событие произойдет, если наступит одно из двух несовместных событий: , . Вновь применяя теорему сложения вероятностей несовместных событий, получаем: . Следовательно, .
Аналогично для события получаем . Откуда .
Следовательно .
Независимость событий.
Если при наступлении события вероятность события не меняется, то события и называются независимыми.
Теорема: Вероятность совместного появления двух независимых событий и (произведения и ) равна произведению вероятностей этих событий.
Действительно, так как события и независимы, то . В этом случае формула вероятности произведения событий и принимает вид .
События называются попарно независимыми, если независимы любые два из них.
События называются независимыми в совокупности (или просто независимыми), если независимы каждые два из них и независимы каждое событие и все возможные произведения остальных.
Основные понятия комбинаторики.
При решении ряда теоретических и практических задач требуется из конечного множества элементов по заданным правилам составлять различные комбинации и производить подсчет числа всех возможных таких комбинаций. Такие задачи принято называть комбинаторными.
При решении задач комбинаторики используют правила суммы и произведения.
Лекция 5. Схема независимых испытаний Бернулли
Серия повторных независимых испытаний, в каждом из которых данное событие имеет одну и ту же вероятность , не зависящую от номера испытания, называется схемой Бернулли. Таким образом, в схеме Бернулли для каждого испытания имеются только два исхода: событие (успех), вероятность которого и событие (неудача), вероятность которого .
Вероятность того, что событие наступит в испытаниях, определяется по формуле Бернулли
.
Пример. Вероятность поражения цели стрелком при одном выстреле равна 0,8. Найти вероятность того, что при 10 выстрелах цель будет поражена 8 раз. Ответ
Наивероятнейшее число наступления событий в схеме Бернулли.
Число наступлений события называется наивероятнейшим, если оно имеет наибольшую вероятность по сравнению с вероятностями наступления любое другое количество раз.
Теорема. Наивероятнейшее число наступлений события в независимых испытаниях заключено между числами и .
Следует отметить, что наивероятнейших чисел может быть два или одно в зависимости от того, является np+p целым числом или нет. Если это число нецелое, то наивероятнейшее число (целая часть), в противном случае имеется два значения и
Предельные теоремы для схемы Бернулли.
Если число испытаний велико, формулу Бернулли применять неудобно. В этом случае можно применять приближенные формулы, точность которых увеличивается с возрастанием .
Теорема Пуассона.
Теорема: Если вероятность наступления события в каждом испытании постоянна и мала, а число независимых испытаний достаточно велико, то вероятность того, что событие наступит раз, приближенно равна
,
Где .
Доказательство:
Введем обозначение , выразим отсюда и подставим это выражение в формулу Бернулли:
.
При все выражения в скобках, за исключением предпоследнего, можно принять равными единице, т.е.
.
При
,
поэтому
,
что и требовалось доказать.
Локальная теорема Муавра –Лапласа.
Лапласом была получена важная приближенная формула для вероятности появления события точно раз, при условии, что достаточно велико. В отличие от формулы Пуассона здесь нет ограничения на малость величины в отдельном испытании, т.е. область применимости формулы Лапласа шире.
Теорема. Вероятность того, что в условиях схемы Бернулли событие при испытаниях появится точно раз, выражается приближенной формулой Лапласа
Где .
Формулу Лапласа иногда называют асимптотической формулой, поскольку доказано, что относительная ошибка формулы Лапласа стремится к нулю при .
Интегральная (глобальная) теорема Муавра – Лапласа.
Интегральная теорема Муавра-Лапласа содержит приближенную формулу для вероятности того, что событие появится не менее раз и не более раз.
Теорема. Вероятность того, что событие появится в испытаниях от до раз, приближенно равна определенному интегралу
,
где ;
.
Доказательство. На основании теоремы сложения вероятностей несовместных событий
.
Или, используя локальную теорему Лапласа,
,
Введем обозначение ,
И запишем в виде .
Очевидно, при величина и последняя сумма стремится к определенному интегралу:
,
что и требовалось доказать.
Введем стандартный интеграл Лапласа(функцию Лапласа):
,
который, очевидно, является первообразной функции Гаусса
.
Тогда на основании формулы Ньютона – Лейбница можно записать
.
Значения функций и обычно находятся из таблиц, причем таблицы обычно даны лишь для неотрицательных значений , поскольку – четная функция, а – нечетная.
Лекция 6. Виды случайных величин и расчет вероятностей
Плотность распределения вероятностей.
Для непрерывных случайных величин, кроме функции распределения вводится также понятие плотности распределения вероятностей, или плотности вероятности.
Плотностью распределения вероятностей непрерывной случайной величины называется производная от ее функции распределения
.
Зная плотность распределения вероятностей, можно найти функцию распределения, интегрируя плотность вероятности в общем случае от до рассматриваемого значения , т.е.
.
Лекция 7. Основные параметры распределений
Одномерных случайных величин.
Во многих практических случаях информация о случайной величине, которую дают закон распределения, функция распределения или плотность вероятностей, является избыточной. Часто проще и удобнее пользоваться числами, которые описывают случайную величину суммарно. К числу наиболее важных из таких числовых характеристик случайных величин относятся математическое ожидание, дисперсия и среднее квадратическое отклонение.
.
Следствие. Если – постоянная величина, то
3. Математическое ожидание произведения двух независимых случайных величин и равно произведению их математических ожиданий:
.
Следствие. Математическое ожидание произведения нескольких взаимно независимых случайных величин равно произведению математических ожиданий этих величин.
Следствие. Постоянный множитель можно выносить за знак математического ожидания, т.е..
Свойства дисперсии
1.Дисперсия постоянной величины равна нулю.
2.Постоянный множитель можно выносить за знак дисперсии, возводя его при этом в квадрат:
.
3. Дисперсия суммы (разности) двух независимых случайных величин равна сумме дисперсий этих величин:
.
Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин.
Следствие 2. Если – постоянная величина, то .
Математическое ожидание и дисперсия случайной величины являются ее основными числовыми характеристиками.
Пример 1. Пусть закон распределения дискретной случайной величины имеет вид
0,07 | 0,21 | 0,55 | 0,16 | 0,01 |
Найти математическое ожидание и дисперсию случайной величины X.
Решение: Рассчитаем вначале математическое ожидание
Дисперсия равна
Пример 2. Плотность вероятности непрерывной случайной величины равна
, где
Найти ее математическое ожидание и дисперсию.
Решение: Найдем математическое ожидание:
Далее,
Найдем дисперсию, используя формулу
.
Пример.
Пусть имеется два варианта инвестирования со следующими характеристиками
Ожидаемая чистая прибыль инвестирования определяется математическим ожиданием и составляет:
Инвестиция 1:
Инвестиция 2:
По ожидаемой прибыли предпочтительнее 1-й вариант.
Однако мы не учли риск, связанный с инвестициями. Этот риск может быть определен с помощью дисперсии и (или) среднего квадратического отклонения. Используя результаты таблицы, получим
Инвестиция 1:
Инвестиция 2:
Т.е. риск по варианту для инвестиции 1 меньше. Выбор – за ЛПР.
Лекция 8. Основные законы распределений случайных величин
Случайную величину полностью задает закон ее распределения (в дискретном случае), а также функция распределения или плотность вероятностей (для непрерывной случайной величины).
Наиболее важными законами распределения дискретной случайной величины являются биномиальный закон, закон распределения Пуассона, геометрическое и гипергеометрическое распределение, а непрерывной – нормальное, равномерное и показательное распределения. Нормальное распределение будет рассмотрено в одной из последующих лекций.
Функция Лапласа и ее свойства.
Функция Лапласа не выражается через элементарные функции:
.
Для ее вычисления используются специальные таблицы или методы приближенного вычисления.
Функция обладает следующими свойствами:
1. ;
2. ;
3. функция – нечетная, т.е. , поэтому в таблицах обычно приводятся значения только для положительных ;
4. функция – монотонно возрастающая функция ( это следует из того, что ).
Пример 2.
Магазин продает мужские костюмы. По данным статистики известно, что распределение по размерам является нормальным с математическим ожиданием и средним квадратическим отклонением, равными 48 и 2 соответственно.
Определить процент спроса на 50-й размер, при условии разброса значений этой величины в интервале (49,51).
Решение
По условию, a=48, s = 2, a = 49, b =51. Используя формулу
получаем, что вероятность спроса на 50-й размер в заданном интервале равна
Вывод: спрос на 50-й размер составит примерно 24% и магазину нужно предусмотреть это в общем объеме закупки.
Плотность совместного распределения вероятностей
Свойства двумерной плотности вероятности
1. Двумерная плотность вероятности неотрицательна: .
2. Двойной несобственный интеграл с бесконечными пределами от двумерной плотности вероятности равен единице:.
Для независимых случайных величин справедливы соотношения
.
Числовые характеристики системы двух случайных величин
Для системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих используют и другие характеристики, такие как корреляционный момент и коэффициент корреляции.
Коэффициент корреляции
Коэффициентом корреляции случайных величин x и y называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин:
Для независимых и коэффициент корреляции равен нулю.
Лекция 11. Предельные теоремы теории вероятностей.
Несмотря на то, что заранее нельзя предсказать, какое из возможных значений примет случайная величина в результате опыта, при некоторых условиях суммарное поведение достаточно большого числа случайных величин становится закономерным. Иными словами, при очень большом числе случайных явлений их средний результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.
Для практики очень важно знание условий, при выполнении которых это может происходить. Эти условия указываются в теоремах, носящих общее название закона больших чисел, важнейшей из которых является теорема Чебышева. Для доказательства теоремы Чебышева используется неравенство Чебышева, которое мы сейчас рассмотрим.
Выборочный метод и его основные понятия. Случайная выборка и ее объем
Пусть требуется изучить совокупность однородных объектов относительно некоторого качественного или количественного признака, характеризующего эти объекты. Например, для партии деталей качественным признаком может служить стандартность детали, а количественным – контролируемый размер детали.
В принципе, возможно проведение сплошного обследования, т.е. обследование всех объектов. На практике такое обследование применяется редко, например,
ü из–за большого числа объектов
ü из–за дороговизны проведения операции контроля,
ü из–за того, что контроль часто связан с разрушением объекта (проверка электролампы на долговечность ее работы), и т.д.
В таких случаях случайно отбирается и изучается ограниченное число объектов из совокупности.
Выборочной совокупностью или случайной выборкой называют совокупность случайно отобранных объектов.
Генеральной совокупностью называют совокупность объектов, из которых производится выборка.
Объемом совокупности (выборочной или генеральной) называют число объектов этой совокупности. Например, если из 1000 деталей отбирается для обследования 100, то объем генеральной совокупности N=1000, а объем выборки n = 100.
Пример: Число единиц товара N, произведенного некоторым предприятием в течение года, есть генеральная совокупность. Для исследования качества продукции на практике рассматривается выборка, состоящая из n единиц товара. Признаком, или случайной величиной, может быть число единиц товара, удовлетворяющих сертификационным требованиям.
При составлении выборки можно поступать двумя способами: после того как объект отобран и исследован, его можно возвратить или не возвращать в генеральную совокупность. В связи с этим выборки подразделяются на повторные и бесповторные.
Повторнойназывают выборку, при которой отобранный объект (перед отбором следующего) возвращается в генеральную совокупность. При бесповторной выборке отобранный объект в генеральную совокупность не возвращается.
Для того чтобы по данным выборки можно было достаточно уверенно судить об интересующем признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его представляли. Выборка должна правильно представлять пропорции генеральной совокупности, т.е. выборка должна быть репрезентативной (представительной). Пример – изучение общественного мнения.
В силу закона больших чисел можно утверждать, что выборка будет репрезентативной, если ее осуществить случайно: каждый объект выборки отобран случайно из генеральной совокупности, если все объекты имеют одинаковую вероятность попасть в выборку.
Если объем выборки достаточно велик, а выборка составляет лишь незначительную часть совокупности, то различие между повторной и бесповторной выборкой стирается.
Лекция 13. Понятие о статистических оценках случайных величин
Лекция 14. Доверительные интервалы для математического
Ожидания и дисперсии
Статистический критерий
Для проверки нулевой гипотезы используют специально подобранную случайную величину, точное или приближенное распределение которой известно.
Статистическим критерием(или просто критерием) называют случайную величину (K), которая служит для проверки нулевой гипотезы. Например, если проверяют гипотезу о равенстве дисперсий двух нормальных генеральных совокупностей, то в качестве критерия K принимают отношение исправленных выборочных дисперсий
.
Очевидно, что эта величина случайная, т.к. в различных опытах исправленные дисперсии принимают различные, заранее неизвестные значения.
Наблюдаемым значением критерияKнабл называют значение критерия, вычисленное по выборкам. Например, если в вышеприведенном случае ,то Kнабл = 20/5 = 4.
Критическая область. Область принятия гипотезы.
Выборочные уравнения регрессии.
Для определения значений теоретических коэффициентов, входящих в уравнения регрессии, необходимо знать и использовать все значения переменных генеральной совокупности, что практически невозможно. В связи с этим по выборке ограниченного объема строится так называемое выборочное (эмпирическое) уравнение регрессии. Из-за ограниченности выборки оценки коэффициентов, входящих в выборочное уравнение регрессии, отличаются от истинных (теоретических) значений, что приводит к несовпадению эмпирической и теоретической линий регрессии. Различные выборки из одной и той же генеральной совокупности обычно приводят к отличающимся друг от друга оценкам. Задача состоит в том, чтобы по конкретной выборке найти оценки неизвестных параметров так, чтобы построенная линия регрессии являлась наилучшей среди всех других линий.
Пример.
Для анализа зависимости объема потребления Y(у.е.) хозяйства от располагаемого дохода X(у.е.) отобрана следующая выборка объема
Необходимо определить вид уравнения регрессии и по методу наименьших квадратов оценить параметры уравнения регрессии, а также спрогнозировать потребление при доходе X=160.
План решения. Строится корреляционное поле. По расположению точек на корреляционном поле предполагается, что зависимость Y от X – линейная. По МНК определяются коэффициенты . Таким образом, уравнение парной регрессии имеет вид:
Множественная линейная регрессия
На экономический показатель чаще всего оказывает влияние не один, а несколько факторов. Например, спрос на некое благо определяется не только ценой данного блага, но и ценами на замещающие и дополняющие блага, доходом потребителей и многими другими факторами. В этом случае рассматривается множественная регрессия
.
Теоретическое линейное уравнение регрессии имеет вид
.
Для оценки параметров уравнения множественной линейной регрессии также, как правило, используется метод наименьших квадратов.
Нелинейная регрессия
Многие экономические зависимости не являются линейными. Например, при анализе эластичности спроса по цене применяется так называемая логарифмическая модель, при анализе издержек от объема выпуска – полиномиальная (кубическая) модель. Часто применяются и другие модели – например, обратная и экспоненциальная. Кратко рассмотрим некоторые из моделей нелинейной регрессии.
Логарифмическая модель.
Пусть некоторая экономическая зависимость моделируется формулой
где A, b - параметры модели. Эта функция может отражать зависимость спроса Y на благо от его цены X (в этом случае b < 0) или от дохода X (b>0 – функция Энгеля). Прологарифмировав обе части последнего соотношения, получим ; замена переменных позволяет свести уравнение к линейному виду
.
По МНК можно рассчитать значения параметров аналогично случаю линейной модели (при этом вместо рассматриваются ).
Обратная модель.
Обратная модель имеет вид
.
Заменой эта модель сводится к линейной. Обратная модель применяется, например, для характеристики связи удельных расходов сырья, материалов, топлива с объемом выпускаемой продукции.
Степенная модель.
Степенная функция вида
при m=3 (кубическая функция) в микроэкономике моделирует зависимость общих издержек от объема выпуска; квадратичная функция (m=2) отражает зависимость между объемом выпуска и средними или предельными издержками. Модель может быть сведена к линейной модели множественной регрессии с помощью замены . Параметры модели определяют с помощью МНК.
Пример
Имеются ежемесячные данные наблюдений за состоянием погоды и посещаемостью музея и парка, приведенные в таблице
Число ясных дней (X1) | Количество посетителей музея (X2) | Количество посетителей парка (X3) |
Необходимо определить, существует ли взаимосвязь между состоянием погоды и посещаемостью музеев и парков. В результате расчета получим корреляционную матрицу
Из корреляционной матрицы видно, что корреляция между состоянием погоды и посещаемостью музея равна -0,921, а между состоянием погоды и посещаемостью парка 0,975. Таким образом, выявлена отрицательная корреляция между посещаемостью музея и количеством солнечных дней и практически линейная положительная корреляция между посещаемостью парка и состоянием погоды.
Чрезвычайно важным понятием корреляционного анализа является остаточная дисперсия. Фактически, выбор вида уравнения регрессии осуществляется экспериментальным методом – путем сравнения величины остаточной дисперсии, рассчитанной при разных моделях.
Если кривая регрессии проходит через все точки корреляционного поля (что возможно лишь при функциональной связи), то фактические значения результативного признака Y совпадают с теоретическими. При этом значения результативного признака полностью обусловлены влиянием рассматриваемого фактора и остаточная дисперсия равна нулю.
На практике, как правило, наблюдается некоторое рассеяние точек относительно линии регрессии из-за влияния не учитываемых в уравнении регрессии факторов и ошибок измерений. Иными словами, имеют место отклонения фактических данных от теоретических (). Величина этих отклонений и определяет величину остаточной дисперсии
,
где - фактические, - теоретические данные.
Чем меньше величина остаточной дисперсии, тем меньше влияние не учитываемых в уравнении регрессии факторов, и тем лучше уравнение регрессии соответствует исходным данным. При обработке статистических данных на компьютере перебираются разные математические функции, и из них выбирается та, для которой остаточная дисперсия является наименьшей.
Рассмотрим сначала случай парной корреляции.
Схема гибели и размножения
Марковский процесс с дискретными состояниями называется процессом гибели и размножения, если все состояния можно вытянуть в цепочку, в которой каждое из промежуточных состояний может переходить только в соседние состояния, а крайние состояния переходят лишь в состояния и соответственно. Граф состояний такой системы приведен на рис. 4.
Рис. 4. Граф состояний для процесса гибели и размножения.
Название схемы взято из биологических задач, где состояние популяции означает наличие в ней особей.
На рис. 4 переход вправо соответствует увеличению популяции, влево – ее уменьшению. Таким образом можно определить как интенсивности размножения, а - как интенсивности гибели. Используется следующее соглашение: буквам и приписывается индекс того состояния, из которого выходит стрелка.
Процессом чистого размножения называется такой процесс, у которого интенсивности всех потоков гибели равны нулю; аналогично процессом чистой “гибели” называется процесс, у которого равны нулю интенсивности всех потоков размножения.
Предельные (финальные) вероятности состояний для простейшего эргодического процесса гибели и размножения, находящегося в стационарном режиме, определяются по следующим формулам:
В качестве примера решения системы уравнений схемы гибели и размножения рассмотрим эксплуатацию автомобилей в крупной транспортной фирме.
Интенсивность поступления автомобилей на предприятие равна . Каждый поступивший на предприятие автомобиль списывается через случайное время . Срок службы автомобиля распределен по показательному закону с параметром . Процесс эксплуатации автомобилей является случайным процессом. - число автомобилей данной марки, находящихся в эксплуатации в момент времени .
Рассмотрим два случая: 1) нет ограничений на число эксплуатируемых автомобилей, 2) на предприятии может эксплуатироваться не более автомобилей.
Если в начальный момент на предприятии не было ни одного автомобиля, то решать систему уравнений нужно при начальных условиях
.
Аналогично, если при эксплуатировалось автомобилей, то начальные условия имеют вид
Решение системы дифференциальных уравнений Колмогорова при произвольном виде функции не может быть найдено в аналитическом виде. Однако при постоянных интенсивностях потоков гибели и размножения и конечном числе состояний будет существовать стационарный режим. Система в этом случае является простейшей эргодической системой.
Если интенсивности потока поступления и списания автомобилей постоянны, то оказываются справедливы формулы:
1. Максимальное число автомобилей не ограничено
.
Математическое ожидание (среднее значение) числа эксплуатируемых автомобилей
;
2. При ограниченном
В этом случае математическое ожидание равно
Расчет характеристик систем массового обслуживания
Одноканальные модели
– Конец работы –
Используемые теги: Конспект, лекций, Теории, вероятностей, математической, статистике0.083
Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Конспект лекций по теории вероятностей И математической статистике
Если этот материал оказался полезным для Вас, Вы можете сохранить его на свою страничку в социальных сетях:
Твитнуть |
Новости и инфо для студентов