рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

ТеМА №2

ТеМА №2 - раздел Математика, ТЕОРІЯ ЙМОВІРНОСТЕЙ ТА МАТЕМАТИЧНА СТАТИСТИКА 1. Події Залежні Та Незалежні. 2. Умовна Ім...

1. Події залежні та незалежні.

2. Умовна імовірність.

3. Теорема добутку та наслідки з неї.

4. Теорема додавання та наслідки з неї.

5. Формула повної імовірності.

6. Імовірність гіпотез. Формули Байєса.

 

Означення. Події і називаються незалежними, якщо поява або непоява однієї з них не впливає на імовірність настання іншої. У супротивному випадку події називаються залежними.

Приклад 2.1. В урні знаходяться 3 білих і 3 чорних кулі. Із урни навмання дістають одну кулю і розглядають подію - куля біла. Потім цю кулю повертають до урни (схема «повернених куль») і дістають навмання одну із куль. Розглядається подія - куля чорна. Очевидно, що у цьому випадку імовірність появи події : і не залежить від появи чи непояви події , оскільки події незалежні.

Приклад 2.2. В урні знаходяться 3 білих і 3 чорних кулі. Із урни навмання дістають одну кулю і розглядають подію - куля біла. Першу витягнуту кулю не повертають до урни (схема «неповернених куль») і дістають навмання наступну кулю. Розглядається подія - куля чорна. Очевидно, що у цьому випадку імовірність появи події буде залежати від того, якого кольору була перша куля, тобто необхідно розглядати умовні імовірності:

а) імовірність події при умові, що настала подія : ;

б) імовірність події при умові, що не настала подія (тобто, настала подія ): ;

Отже у другому прикладі події залежні.

Означення. Події називаються незалежними у сукупності(або простонезалежними), якщо імовірність появи кожної з них не залежить від того, відбулись чи ні будь-які інші події. У супротивному випадку події називаються залежними.

Теорема добутку.

Теорема (добутку імовірностей). Імовірність добутку двох подій і дорівнює добутку імовірності однієї з них на умовну імовірність іншої, при умові, що настала перша подія:

.

Доведення. Нехай - кількість подій (елементарних наслідків) у просторі елементарних подій, з яких подій сприяють появі , - сприяють появі , а - сприяють появі (див.схему).

 

За класичним означенням імовірності:

.

Аналогічно доводиться, що .

Теорема легко розповсюджується на випадок фіксованої кількості співмножників-подій. Наприклад, для трьох подій:

.

Наслідок 1 (формули визначення умовних імовірностей). Якщо імовірності подій відмінні від нуля, то

.

Зауважимо, що теорема добутку справедлива навіть у випадку нульових імовірностей подій.

Наслідок 2. Якщо подія не залежить від події , то і навпаки, подія не залежить від події , тобто вони взаємно незалежні.

Доведення.

 

 

Наслідок 3. Із незалежності подій і випливає незалежність пар подій : і , і , і .

Наслідок 4. Імовірність добутку двох незалежних подій дорівнює добутку їх імовірностей:

.

Наслідок легко розповсюджується на випадок фіксованої кількості співмножників-подій.

Приклад 2.3.

 

 

Теорема додавання.

Теорема. Імовірність суми двох подій і дорівнює сумі імовірностей цих подій без імовірності їх добутку. Іншими словами, імовірність появи хоча б однієї із двох подій дорівнює сумі їх імовірностей без імовірності їх сумісної появи:

.

Доведення. Для доведення скористуємось діаграмою теореми добутку (див.вище). За класичним означенням :

.

 

Зауважимо, що теорема досить важко розповсюджується на випадок скінченної кількості доданків-подій. Так, наприклад, для трьох подій:

.

Наслідок 1. Імовірність суми двох несумісних подій дорівнює сумі їх імовірностей:

.

Наслідок легко розповсюджується на випадок фіксованої кількості несумісних подій-доданків.

Наслідок 2. Сума імовірностей подій , що утворюють повну групу, дорівнює одиниці:

.

Доведення.

 

Наслідок 3. Для взаємно протилежних подій і :

.

Доведення випливає із попереднього наслідка 2.

Наслідок 4 . Імовірність появи хоча б однієї із подій дорівнює:

.

Зокрема, якщо події незалежні в сукупності, то:

.

Доведення.

Приклад 2.4.


Дерево імовірностей. Дерево рішень.

Дерево імовірностей.

Обчислювати імовірності складних подій за класичним означенням буває досить складно, а іноді взагалі неможливо. Тому доводиться використовувати теореми додавання та добутку. При цьому важливо ураховувати всі можливі наслідки, для чого складається так зване «дерево імовірностей» , на якому випробування позначають кругами, а можливі наслідки-події – лініями-«гілками».

Приклад 2.5. При прийомі хворих в лікарні встановлено, що 80% пацієнтів відправляють додому після обстеження та надання необхідної допомоги. Інші 20% розміщують наступним чином: 60% попадають до корпусу А і 40% - до корпусу В. Щоденно лікар Синиця оглядає 70% пацієнтів корпусу А і тільки 10% пацієнтів корпусу В. Лікар Руденко оглядає усіх інших пацієнтів. Які імовірності того, що пацієнт, який надійшов до лікарні, буде під наглядом того чи іншого лікаря?

Розв’язування. Зобразимо дану ситуацію, скористувавшись деревом імовірностей:

 

 

Дерево рішень.

Дерево рішень – це графічне зображення ситуації, яка має декілька альтернативних рішень. Його складовими частинами є «рішення» (зображаються прямокутниками) та «ймовірністні події» (круги). Дерево рішень дозволяє уявити конкретну проблему та встановити імовірності настання подій та їх очікуванних значень. Такі діаграми призводять до побудови більш простих дерев імовірностей, що пов’язані з послідовностями наслідків. Дерево рішень ілюструє результати з точки зору критичних факторів (таких, як прогнозні доходи та витрати тощо).

Приклад 2.6. Дехто володіє акціями вартістю 1000 у.о. Він повинен прийняти рішення відносно того, чи тримати йому акції, або продати їх усі, або придбати ще акції на суму 500 у.о. Ймовірність 20% росту курсової вартості акцій становить 0,6 , а ймовірність зниження курсової вартості на 20% - 0,4. Яке рішення необхідно прийняти, щоб максимізувати очікуваний прибуток?

Розв’язування. ОПР (особі, що приймає рішення) потрібно обрати один із трьох варіантів: продати усі акції, тримати їх або купити ще. Зобразимо ці варіанти за допомогою діаграми - дерева рішень і підрахуємо для кожного із варіантів очікувані значення прибутків:

 

 


Формула повної ймовірності.

 

Теорема. Нехай подія може настати лише сумісно з хоча б однією із подій-гіпотез , які утворюють повну групу. Тоді імовірність (повна імовірність) події дорівнює:

,

тобто сумі добутків імовірностей гіпотез на умовні ймовірності події, при умові, що настала відповідна гіпотеза.

Доведення.

 

 

Приклад 2.7. Кожна із двох урн містить по 3 білих та 5 чорних куль. Із першої урни до другої переклали дві кулі. Знайти імовірність того, що навмання взята із другої урни куля буде біла.

Розв’язування.

 

Приклад 2.8. Статистика запитів на отримання кредитів у банку наступна: 20% - державні органи, 30% - інші банки, інші – фізичні особи. Дослідженнями встановлено, що імовірності неповернення кредитів відповідно дорівнюють 0,01 ; 0,05 ; 0,2 . Знайти імовірність неповернення чергового кредита.

Розв’язування.

 

 

Формули Байєса.

Теорема. Нехай подія може настати лише сумісно з хоча б однією із подій-гіпотез , які утворюють повну групу. Якщо подія настала, то умовні (уточнені) імовірності гіпотез дорівнюють:

,

 

де повна імовірність .

Доведення. Зазначимо, що виконуються усі умови теореми – формули повної ймовірності. Розглянемо одну із подій і скористуємось теоремою добутку:

.

Звідси:

,

де - повна імовірність.

Зауваження. Доведені формули називають формулами переоцінки гіпотез. В них приймають участь апріорні (до випробування) імовірності гіпотез та їх апостеріорні (після випробування) ймовірності , тобто формули дають можливість переоцінити ймовірності гіпотез після настання події.

Приклад 2.9. За умовами попереднього приклада до банку надійшло повідомлення про неповернення чергового кредита, але у факсовому повідомленні атрибути клієнта погано відпечатались. Визначити, до якої категорії клієнтів (державні органи, інші банки, фізичні особи) імовірніше за все належить “неповерненик”.

Розв’язування.


ТеМА №3

1. Дискретні випадкові величини (ДВВ).

2. Закон розподілу ДВВ.

3. Операції над незалежними ДВВ.

4. Математичне сподівання ДВВ та його властивості.

5. Дисперсія ДВВ та її властивості. Середнє квадратичне відхилення.

6. Початкові та центральні моменти розподілу та пов’язані з ними числові характеристики ДВВ.

Поняття випадкової величини (ВВ) – є одним із фундаментальних в теорії ймовірностей. ВВ на відміну від події (яка характеризує результат випробування), є кількісною характеристикою випадкового результату випробування.

Означення. Випадковою величиною (ВВ) називається величина, яка в результаті випробування в залежності від випадкових обставин може набувати деякого (але тільки одного) значення.

Приклад 3.1. а) число попадань в мішень із 10 пострілів – ВВ, яка може набувати значень 0,1,2,…,10;

б) число пострілів у мішень до першого попадання – ВВ, яка може приймати значення 1,2,3,… ;

в) відстань від центра круглої (радіуса R) мішені до точки попадання в неї – ВВ, яка може приймати будь-яке (але тільки одне) значення з проміжка [0;R].

ВВ позначають великими літерами, а їх значення – відповідними малими з певними індексами. Приклад показує, що є дискретні ( а) і б) ) та неперервні ( в) ) ВВ.

Означення. Дискретною випадковою величиною (ДВВ) називається ВВ, яка може приймати окремі ізольовані значення з певними ймовірностями (причому кількість можливих значень або скінченна, або нескінченна, але злічена). На відміну від ДВВ, значення неперервних ВВ повністю заповнюють деякий проміжок (скінченний або нескінченний).

ВВ вважається заданою, якщо задано її закон розподілу.

Означення. Законом розподілу ДВВ називається відповідність між множиною її можливих значень та відповідними імовірностями (тобто, імовірностями, з якими можуть набуватись ці значення).

Основними способами задання законів розподілу ДВВ є табличний, графічний та аналітичний.

ДВВ задано таблицею:

. . .
. . .

де – можливі (різні) значення ВВ , а – відповідні ймовірності, причому, + + … + , оскільки події утворюють повну групу. Останню умову часто називають основною властивістю розподілу або умовою нормування ДВВ.

Зауважимо, що у випадку зліченої множини значень ДВВ:

...
...

 

умовою нормування буде збіжність до одиниці ряду відповідних імовірностей: .

Наочною формою задання ДВВ є графічний спосіб, при якому в системі координат відкладають точки і з’єднують їх відрізками:

 

Отриману фігуру називають полігоном розподілу ймовірностей або многокутником розподілу. Зауважимо, що на проміжках ВВ не набуває значень, тому імовірності появи її можливих значень дорівнююь нулю, а з’єднання точок відрізками робиться для наочності.

При аналітичному способі задання закону розподілу ДВВ вказують формулу (функцію), за якою знаходяться відповідні ймовірності , або задають так звані функції розподілу.

Приклад 3.2. Імовірності попадання в мішень для першого стрілка – 0,8 , а для другого – 0,9. Обидва стрілки роблять по одному пострілу. Скласти закон розподілу ВВ – кількості попадань в мішень, побудувати полігон розподілу.

Розв’язування.

 

 

ОПЕРАЦІЇ НАД ДВВ.

Дві ВВ називаються незалежними, якщо закон розподілу однієї із них не залежить від того, які можливі значення прийняла інша ВВ.

Нехай незалежні ДВВ та задані таблицями розподілу:

. . .
. . .

 

. . .
. . .

 

Добутком ВВ на сталий множник називається ВВ , яка набуває можливих значень з тими ж імовірностями , що і ВВ .

-им степенем () ВВ називається ВВ , яка приймає значення з тими ж імовірностями , що і ВВ .

Сумою (різницею або добутком) двох незалежних ВВ та називається ВВ ( або ), яка приймає всі можливі значення (або ) з імовірностями , що знаходяться за теоремою добутку: .

Приклад 3.3. ДВВ задані таблицями розподілу

 

 

 

Знайти закони розподілу ВВ .

Розв’язування.


ЧИСЛОВІ ХАРАКТЕРИСТИКИ ДВВ.

У багатьох практичних задачах немає необхідності мати закон розподілу ВВ, а достатньо знати лише деякі її числові характеристики: математичне сподівання, дисперсію, середнє квадратичне відхилення, початкові та центральні моменти.

Нехай ДВВ задана таблицею:

. . .
. . .

Означення. Математичним сподіванням (середнім значенням або центром розподілу) ДВВ називається сума добутків всіх її значень на відповідні ймовірності, тобто

.

Зауваження. Для будь-якої ДВВ із скінченною множиною значень математичне сподівання існує (і є невипадковим, сталим числом) і має таку саму розмірність, що й сама ДВВ. У випадку нескінченної зліченої множини значень ДВВ її математичне сподівання (МС) визначається як сума ряда, який може розбігатись, і тому МС може не існувати.

Приклад 3.4. Згідно статистичним даним, імовірність смерті 25-річної людини протягом року дорівнює 0,008. Страхова компанія пропонує застрахувати життя на 5000грн. Якою повинна бути величина річного внеску, щоб ця страховка була для компанії незбитковою?

Розв’язування.

Приклад 3.5. (дохідність портфеля цінних паперів). Дохідність портфеля характеризується середньозваженою дохідністю його складових. Наприклад, середня очікувана дохідність портфеля із двох активів і розраховується як середньо-зважена його складових:

,

де - питомі вагові коефіцієнти активів (), а - їх середні очікувані дохідності.

Приклад 3.6 (середня дохідність фінансової операції). Перший варіант фінансової операції передбачає початкові витрати – інвестиції розміром 10000грн та отримання прибутку в 3000грн з імовірністю 0,9. Другий варіант при витратах 20000грн дає прибуток в 10000грн з імовірністю 0,1. Якою буде середня очікувана дохідність всієї фінансової операції?

Розв’язування. У детермінованому фінансовому аналізі дохідність операції визначається як , де - грошова оцінка початку операції (початкові витрати, інвестиції) , - грошова оцінка кінця операції (дохід, нарощений капітал), а - прибуток від операції.

 

 

ВЛАСТИВОСТІ МАТЕМАТИЧНОГО СПОДІВАННЯ.

 

1.МС сталої ВВ дорівнює самій цій сталій: .

Доведення.

 

 

2. Сталий множник виноситься за знак МС: .

Доведення.

 

3.МС суми ВВ дорівнює сумі їх МС: .

Доведення. Для спрощення розглянемо ДВВ, задані таблицями:

 

 

Наслідок. МС різниці ВВ дорівнює різниці їх МС: .

 

4. МС добутку (незалежних) ВВ дорівнює добутку їх МС: .

Доведення.

 

Властивості 3,4 та наслідок легко розповсюдити на випадок фіксованої кількості доданків (співмножників), зокрема, неважко довести, що МС середнього арифметичного ВВ дорівнює середньому арифметичному їх МС.

5.МС центрованої ВВ дорівнює нулю: .

Доведення.

 

ДИСПЕРСІЯ ДВВ ТА ЇЇ ВЛАСТИВОСТІ. СЕРЕДНЄ КВАДРАТИЧНЕ ВІДХИЛЕННЯ.

 

Означення. Дисперсією ДВВназивається МС квадрата відхилення ВВ від свого МС, тобто:

.

 

Дисперсія (якщо вона існує) має розмірність квадрата ВВ, є невипадковою сталою невід’ємною величиною, що характеризує розсіювання значень ВВ від центру розподілу – МС.

Для того, щоб мати аналогічну характеристику такої ж розмірності як сама ВВ, розглядають середнє квадратичне відхилення (стандарт): .

ВЛАСТИВОСТІ ДИСПЕРСІЇ.

1. Дисперсію можна знаходити за формулою: .

Доведення.

 

 

2. Дисперсія сталої дорівнює нулю: .

Доведення.

 

 

3. Сталий множник виноситься за знак дисперсії в квадраті: .

Доведення.

 

 

4. Дисперсія суми незалежних ВВ дорівнює сумі їх дисперсій: .

Доведення.

 

 

Наслідок. Дисперсія різниці незалежних ВВ дорівнює сумі їх дисперсій: .

 

 

Наслідок. Дисперсія центрованої ВВ співпадає із дисперсією самої ВВ , а дисперсія стандартизованої ВВ дорівнює одиниці.

 

 

5. Якщо ВВ та залежні, то: , де - коваріація між ВВ та .

Доведення.

 

 

6. Дисперсія добутку незалежних ВВ дорівнює: .

Доведення.

 

 

7. Дисперсія середнього арифметичного незалежних ВВ дорівнює:

.

Доведення.

 

 

Важливий висновок.

 

 

СПРОЩЕНИЙ МЕТОД ДЛЯ ОБЧИСЛЕННЯ ЧИСЛОВИХ ХАРАКТЕРИСТИК .

Нехай значення ДВВ задані з рівномірним кроком . Вибираючи так званий “умовний нуль” (близький до середнього арифметичного), розглянемо допоміжну ВВ , яка прийматиме цілі значення . Числові характеристики вихідної та допоміжної ВВ пов’язані між собою наступними формулами :

,

,

.

Доведення.

 

 

МОМЕНТИ РОЗПОДІЛУ ТА ПОВ’ЯЗАНІ З НИМИ ЧИСЛОВІ ХАРАКТЕРИСТИКИ ВВ.

Означення. Початковим моментом порядку ВВ називають МС ВВ і позначають

.

Означення. Центральним моментом порядку ВВ називають МС ВВ і позначають

.

 

Моменти мають властивість: якщо існує момент порядку ВВ , то існують її моменти усіх порядків .

Відмітимо, що

;

 

 

.

 

Початковий момент першого порядку дорівнює математичному сподіванню ВВ і характеризує «центр розподілу». Центральні моменти використовують для характеристики розсіювання значень ВВ відносно її центра розподілу – МС (напр., дисперсія ).

Центральний момент третього порядку застосовують для оцінювання асиметрії (скісності) закону розподілу відносно прямої, що паралельна осі ординат і проходить через МС. Для цього використовують безрозмірну величину – коефіцієнт асиметрії:

.

Якщо розподіл ВВ симетричний відносно МС, то його . Якщо , то у розподілі «довга частина» полігона розташована праворуч МС – скісність вправо, а у випадку спостерігається скісність розподілу вліво.

Центральний момент четвертого порядку використовують для оцінювання крутості (гостровершинності або плосковершинності) розподілу за допомогою коефіцієнта ексцесу:

.

Число 3 віднімається від частки, оскільки для нормального розподілу (розглядатиметься далі), який зустрічається найчастіше, тому .

Зазначимо, що використовуються також абсолютні початкові та центральні моменти порядку ВВ , які визначаються як МС випадкових величин та .

Модою ДВВ називається таке можливе її значення , якому відповідає найбільша імовірність, тобто: ( для неперервних ВВ мода визначається як точка локального максимума щільності розподілу ). Якщо розподіл імовірностей (або щільність) має один максимум, то він називається унімодальним. Бувають також бімодальні та мультимодальні розподіли, а також такі, що не мають моди – антимодальні. Для унімодального розподілу мода є, у певному розумінні найімовірнішим значенням.

Медіаною ВВ називається таке значення , яке «ділить» розподіл навпіл, тобто:

.

Відмітимо, що математичне сподівання ВВ може не існувати, а медіана існує завжди і має властивість: , тобто сума абсолютних величин відхилень значень ДВВ від медіани менша, ніж від будь-якої іншої величини. Ця властивість медіани часто використовується на практиці.

Для описування ВВ застосовуються також інші її числові характеристики – квантилі рівня (або -квантилі), тобто такі можливі значення ВВ , для яких .

Деякі квантилі отримали особливі назви. Так, напр., та називають відповідно нижнім та верхнім квартилями. Використовують децилі та перцентилі (десяті та соті), а також процентні точки ( точка – це квантиль , тобто можливе значення ВВ , при якому ).

 


– Конец работы –

Эта тема принадлежит разделу:

ТЕОРІЯ ЙМОВІРНОСТЕЙ ТА МАТЕМАТИЧНА СТАТИСТИКА

МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ... ОДЕСЬКИЙ ДЕРЖАВНИЙ ЕКОНОМІЧНИЙ УНІВЕРСИТЕТ... В М МАЦКУЛ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: ТеМА №2

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Одеса 2010
  УДК 519.2 ББК 22.17я73 М 36     Рецензенти:   С.В.Левинський –кандидат фізико-мат

Переставлення (перестановки).
  Нехай потрібно підрахувати число способів, за якими можна розмістити в ряд

Приклади.
Властивості: 1.Для довільної події

Приклади.
Геометричне означення імовірності. Означення. Імовірність події

Приклади.
Статистичне означення імовірності. Означення.Нехай проводиться

ТЕМА №4
1. Незалежні повторні випробування (НПВ). 2. Формула Бернуллі. 3. Біноміальний закон розподілу (закон Бернуллі).

ТЕМА №5
1. Інтегральна функція розподілу та її властивості. 2. Диференціальна функція розподілу та її властивості. 3. Числові характеристики непе

Центральна гранична теорема.
4. Інтегральна теорема Муавра-Лапласа та її частинні випадки.   Група теорем, які встановлюють відповідність між теоретичними та експериментальними характери

Система випадкових величин.
2. Закон розподілу двохвимірної ДВВ. 3. Функції розподілу двохвимірної ВВ. Залежність та незалежність ВВ. 4. Числові характеристики двохв

ТЕМА №8
1. Предмет математичної статистики. Статистичні сукупності (генеральна та вибіркова). 2. Способи відбору. Проста випадкова вибірка. Впорядкування даних та їх розпо

Приклади.
  Часто необхідно знати закон розподілу ознаки у генеральній сукупності. Наприклад, є підстави вважати, що він має вигляд А. Тоді висувають гіпотезу (припущення): генеральна с

ТЕМА №10
  1. Функціональна, статистична та кореляційна (регресійна) залежності. 2. Проста лінійна регресія. Основні положення. 3. О

Прогнозування.
Після побудови моделі (теоретичної регресійної залежності) та перевірки її адекватності можна виконувати прогнозування. При цьому отримуємо точкові та інтервальні прогнози. Точковий прогноз дає оці

ТЕМА №11
1. Множинний регресійний аналіз. Багатофакторна лінійна регресія. 2. Кореляційна матриця та її вибіркова оцінка. 3. Оцінка взаємозв’язку

Теорема добутку.
ЗАДАЧІ ДЛЯ РОЗВ’ЯЗУВАННЯ В АУДИТОРІЇ. Приклад 1.1. Дана множина

Теореми добутку (продовження) та суми.
2. Повна імовірність. 3. Формула Байєса. ЗАДАЧІ ДЛЯ РОЗВ’ЯЗУВАННЯ В АУДИТОРІЇ.   Приклад 2.1. Два

ПРАКТИЧНЕ ЗАНЯТТЯ №3
1. Дискретні випадкові величини (ДВВ), їх закони розподілу. 2. Операції над ДВВ. 3. Числові характеристики ДВВ та їх властивості.

Локальна формула Лапласа, формула Пуассона.
15. Закон Пуассона (закон рідкісних подій). ЗАДАЧІ ДЛЯ РОЗВ’ЯЗУВАННЯ В АУДИТОРІЇ. Приклад 4.1. В середньому 30% пакетів акцій продаються н

ПРАКТИЧНЕ ЗАНЯТТЯ №5
1. Функція розподілу імовірностей (інтегральна функція) та її властивості. 2. Щільність розподілу імовірностей (диференціальна функція) та її властивості.

Центральна гранична теорема.
4. Інтегральна теорема Муавра-Лапласа та її частинні випадки. ЗАДАЧІ ДЛЯ РОЗВ’ЯЗУВАННЯ В АУДИТОРІЇ   Приклад 6.1. Середня кі

Система випадкових величин.
2. Закон розподілу двохвимірної ДВВ. 3. Функції розподілу двохвимірної ВВ. Залежність та незалежність ВВ. 4. Числові характеристики двохв

ПРАКТИЧНЕ ЗАНЯТТЯ №8
1. Статистичні сукупності (генеральна та вибіркова), ознаки та їх розподіли. Числові характеристики статистичних розподілів. 2. Точкові та інтервальні оцінк

ПРАКТИЧНЕ ЗАНЯТТЯ №9
1. Статистичні гіпотези. Похибки перевірки гіпотез. 2. Критерії узгодження для перевірки гіпотез. Критична область та її знаходження. 3.

ПРАКТИЧНЕ ЗАНЯТТЯ №10
5. Функціональна, статистична та кореляційна (регресійна) залежності. 6. Проста лінійна регресія. Основні положення. 7. Оцінка щільності

ПРАКТИЧНЕ ЗАНЯТТЯ №11
1. Багатофакторна регресія. Основні положення. Особливості (відмінності від однофакторної). 2. Оцінка взаємозв’язку між змінними. Матриця коефіцієнтів парної корел

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги