рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Экономических объектов

Экономических объектов - раздел Экономика, ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ ОПИСАНИЯ ЭКОНОМИЧЕСКИХ ОБЪЕКТОВ 2.1. Вероятностное Описание Экономических Объектов. Характерн...

2.1. Вероятностное описание экономических объектов.

Характерные неопределенности, встречающиеся в описании состояний ЭО как помехи, условно можно разделить на два класса: вероятностные и нечеткие.

Вероятностные помехи различных значений динамических переменных ЭО описываются статистически обоснованными законами распределений вероятности их наступления, или первыми моментами – математическими ожиданиями, дисперсиями.

Нечеткие помехи различных значений динамических переменных ЭО задаются лишь диапазонами их значений и некоторыми гипотетическими степенями принадлежности значений этим диапазонам.

Случайные события и их вероятности.

При испытании (наблюдении, опыте) каждому случайному событию, возможному в данном испытании, приписывают числовые меры его правдоподобия – частость и вероятность.

Пусть, например какая-то динамическая переменная S ЭО(например, доход)имеет некоторое частотное распределение wk своих «k»-ых разрядных значений (исходов) при максимальном значении исходов K, как показано на рис. 2.1.1.

 
 

 

 


Рис. 2.1.1

Естественно, что для построения частот распределений, показанных на рисунке 2.1.1, первоначально необходимо иметь ряд эмпирических данных различных (и не всегда упорядоченных) значений {Sk} исследуемой переменной.

Каждому частотному распределению wk по теореме Бернулли может быть поставлена в соответствие эмпирическая или выборочная вероятность или частость wk/wå события «sk», где wå – общее число испытаний (объем выборки). Очевидно, что åKk wk = wå .

При wå ® ¥ выборочная вероятность будет стремиться к теоретической вероятности Prk (сокращенное от Probability). Однако на практике уже при wå @ 300 можно считать, что

Prk @ wk /wå = wkKk wk . (2.1.1)

Таким образом, под вероятностью PrA события A понимают отношение числа kA случаев, когда это событие наступило при испытании (динамическая переменная S ЭО приняла значение A, т.е. S = A), к общему числу K всевозможных случаев в испытании

PrA = kA / K . (2.1.2)

Отсюда видно, что для любого события 0 £ Pr(A) £ 1, где вероятность невозможного события (которое никогда не происходит) принимается равной 0, а вероятность достоверного события (которое происходит всегда) принимается равной 1.

При расчете вероятностей событий полезны следующие определения теории вероятностей.

Объединением, или суммой событий A и B называют событие С, которое состоит в том, что происходит хотя бы одно из событий A или B (С происходит тогда и только тогда, когда происходит либо A , либо B, либо оба вместе). Объединение событий обозначается как

С = A È B, или С = A + B. (2.1.3)

Пересечением, или произведением событий A и B называют событие С, которое состоит в том, что происходит оба событий A и B. Пересечение событий обозначается как

С = A Ç B или С = A · B или просто С = A B. (2.1.4)

Отрицанием события A называют такое событие, которое состоит в том, что A не происходит. Отрицание события обозначается как .

Если события A и B не могут произойти одновременно, т.е. если AB – невозможное событие, то их называют несовместными. Несовместны, например, события A и . Событие A + – событие достоверное.

Свойства (аксиомы) вероятностей событий: (2.1.5)

1) 0 £ Pr(A) £ 1 для любого (") события A;

2) Pr(достоверного события) = 1, Pr(невозможного события) = 0;

3) Pr(A + B) = Pr(A) + Pr(B) если события A и B – несовместны;

4) Pr(A + B) = Pr(A) + Pr(B) – Pr(AB) в общем случае.

Из свойства 4) следует важное свойство, получаемое обращением формулы

Pr(A B) = Pr(A) + Pr(B) – Pr(A +B). (2.1.6)

Независимые события. События A и B называются независимыми, если

Pr(AB) = Pr(A) Pr(B). (2.1.7)

Рассмотренные определения легко трактовать с помощью понятий теории множеств и диаграмм Венна (по имени австрийского математика), показанных на рис. 2.1.2.

Понятие множества.

Множеством называют совокупность определенных различаемых объектов, таких что для любого объекта можно установить принадлежит ли этот объект данному множеству.

Примеры: – множество яблок;

– множество апельсинов;

– множество фруктов = множество яблок +

+ множество апельсинов.

Каждый объект множества может описываться сколь угодно сложным образом с помощью характерных признаков или атрибутов. Из определения множества следует, что объекты могут также описываться и признаками, по которым их различить нельзя.

Примеры: – признаки яблок = {цвет; вкус; размер};

– признаки апельсинов = {цвет; вкус; размер}.

Очевидно, что во множестве фруктов яблоки нельзя отделить от апельсинов лишь по признаку «размер».

Если объект принадлежит множеству, то он является элементом данного множества.

Существует несколько общепринятых способов записей множеств:

X = {x1, x2, … xN}, где X – множество, содержащее элементы x1, x2, … xN ;

X = {x: x – целое число и 6 < x < 10}, где X – множество всех x таких, что они все целые и заключены в пределах (6 ¸ 10);

X = {7, 8, 9, 10, 11}, где X – упорядоченное множество пяти натуральных чисел;

X = {1, 8, 2, 10}, где X – неупорядоченное множество четырех натуральных чисел.

Из определения множества следует, что запись X = {6, 6, 6, 6} не описывает множество, т.к. не ясно как различать элементы. В то же время, запись «множество теннисных мячей в сумке = {мяч1, мяч2, … мяч10}» описывает множество, так как каждый мяч занимает свою пространственную позицию и легко различается.

Мощностью множества A называется количество N составляющих его элементов. Обозначается как NA или ú Aú.

Простейшие операции над множествами.

Объединение («È» или «+»):

A È B = {x: x Î A или x Î B}, где «Î» – символ (квантор) принадлежности;

Пересечение («Ç» или «·»):

A Ç B = {x: x Î A и x Î B}.

 

Примеры: {1, 2} È {2, 3} = {1, 2, 3};

{1, 2} Ç {2, 3} = {2};

Разность множеств(«»):

A B = {x: x Î A и x Ï B}, где «Ï» – квантор не принадлежности.

Запись A B читается также, как «дополнение B до A».

Пример: если A = {1, 2, 3}, B = {2, 3, 4}, то A B = {1}.

Симметрическая разность множеств(«D»):

A D B = (A È B) (A Ç B );

A D B º B D A.

Примеры: если A = {1, 2, 3}, B = {2, 3, 4}, то

A D B = {1, 2, 3, 4} {2, 3} = {1, 4};

если A – множество товаров, доступных менеджеру M1,

B – множество товаров, доступных менеджеру M2, то

A È B – множество товаров, доступных или M1 или M2,

A Ç B – множество товаров, доступных M1 и M2,

A B – множество товаров, доступных только M1 ,

B A – множество товаров, доступных только M2,

A D B – множество товаров, доступных только одному из менеджеров.

Универсальное множество E – множество всех рассматриваемых в данной задаче элементов.

Пустое множество Æ – множество не содержащее ни одного элемента.

Например, {1, 2} Ç {3, 4} = Æ.

Отсюда следует, что два множества A и B не пересекаются, если A Ç B = Æ.

Дополнением множества A является множество A’ = E A = {x: x Î A}.

Отсюда следует, что A È A’ = E и A Ç A’ = Æ.

 

Диаграммы Венна для множеств (рис. 2.1.2):

 
 

 

 


Универсальное множество. Множества А, B.

 
 

 

 


Множество А È B. Множество А Ç B.

 
 

 


Множество А’ . Множества А, B, C .

Множество B’ Ç C . Множество A È (B’ Ç C) .

Рис. 2.1.2

Подмножества. A Í B ‑ множество A является подмножеством множества B, если из x Î A ® x Î B, где «®» ‑ символ «следует».

A Ì B ‑ множество A является собственным подмножеством множества B, если существует x Î B такой, что x Ï A.

Примеры: если A = множество всех яблок = {анис, антоновка, мельба, …}, С = множество всех фруктов, то A Í С;

если A = множество вех яблок = {анис, антоновка, мельба, …}, B = множество всех цитрусовых = = {апельсин, лимон, …}, С = множество всех фруктов, то A + + B Í C, а A Ì C и B Ì C.

На диаграмме Венна подмножества изображаются в виде рис. 2.1.3.

 
 

 


Рис. 2.1.3

Сочетательные правила алгебры множеств:

A Ç (B È C) = (A Ç B) È (A Ç C),

A · (B + C) = A · B + A · C.

Правила де’ Моргана:

(A Ç B)= A’ + B’, (A È B)= A’ Ç B’.

Степень множества ‑ множество всех подмножеств данного множества. Обозначение – P(A).

Например, если A = {1, 2, 3}, то

P(A) = {Æ, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}.

P(A)ú = 23 = 8.

Покрытие множестваA = , где Ak Ç Am = Æ для k ¹ m. Покрытие разбивает любое множество A на непересекающиеся подмножества Ak .

На диаграмме Венна покрытия изображаются в виде рис. 2.1.4.

 

Рис. 2.1.4.

 

Произведение множеств. Если A = {a, b, c, d, …}, а B = {1, 2, 3, …}, то произведение множеств определяется как

A ´ B = {a1, a2, a3, …, b1, b2, b3, …, c1, c2, c3, …}.

Широко известным примером рассмотренного произведения множеств букв и цифр является совокупность квадратов, покрывающих шахматную доску. Если добавить множество шахматных фигур С = {фб1, фб2, …, фб8, фч1, фч2, …, фч8}, то произведением множеств A ´ B ´ С = {фб1 a2, фб2 b4, …}будет множество всевозможных игровых позиций ‑ положений фигур, сформированных с учетом правил ходов фигур и их начальных позиций.

В общем случае справедливо правило

A ´ B ¹ B ´ A.

Действительно, пусть A = {0, 1}, B = {x, y).

Тогда A ´ B = {(0, x), (0, y), (1, x), (1, y)},

B ´ A = {(x, 0), (x, 1), (y, 0), (y, 1)}.

Множественные произведения записывают в виде

A ´ A ´ A ´ A ´ A ´ A … = A n,

A1 ´ A2 ´ A3 ´ ´ An = .

Отношения на множествах. Отношением «R» – го типа или просто отношением R на множествах A и B (записывается как ARB) называется «R»-ое подмножество прямого произведения A ´ B множеств A и B.

Отношения на множествах A и B являются бинарными или парными отношениями. По аналогии с такими отношениями легко ввести отношения на множествах A и B и C (триарные отношения), A и B и C и D (четыреарные отношения) и т.д..

Любое отношение устанавливает определенную связь между элементами множеств. Для парных отношений такая связь может быть описана с помощью рис. 2.1.5.

 
 

 

 


Рис. 2.1.5

 

В отношениях выделяют области определения и области значений, устанавливая тем самым несимметричную связь между элементами множеств, входящих в отношения

X(R) = {x: x Î A, (x, y) Î R} ‑ область определения отношения R включает все элементы множества A, входящие в множество ARB;

Y(R) = {y: y Î B, (x, y) Î R} ‑ область значений отношения R включает все элементы множества B, входящие в множество ARB.

 

Пример:

множество родителей = A = {Иванов И.И., Иванова А.А., Петров П.П., Петрова В.В.},

множество детей = B = {Иванов С.И., Петрова Г.П.}.

Семья Ивановых описывается отношением R1

R1 Иванов И.И. Иванова А.А.
Иванов С.И. Иванов И.И., Иванов С.И. Иванова А.А., Иванов С.И.

Семья Петровых описывается отношением R2

R2 Петров П.П. Петрова В.В.
Петрова Г.П. Петров П.П., Петрова Г. П. Петрова В.В., Петрова Г.П.

Отношения можно описывать также с помощью направленных графов. Так, например, если X = {x1, x2, x3, x4}, а Y = {y1, y2, y3, y4), то отношение XRY = {(x1, y1), (x1, y4), (x4, y2)} можно изобразить, как показано на рис. 2.1.6.

 
 

 


Рис. 2.1.6

 

Функции и отображения множеств. Если между X и Y установлено однозначное отношение f, то это отношение является функцией или функциональным отношением. Функциональное отношение X f Y записывается как y = f(x) или f : X ® Y.

Функция f : X ® Y является отображением, если ее область определения совпадает с X.

 

Примеры:

1) Товары и цены (см. рис. 2.1.7):

Товары = X = {телевизор Sony, магнитофон Panasonic, фотокамера Samsung},

Цены = Y = {$500, $200, $2000},

 
 

 

 

 
 

 


Рис. 2.1.7

 

2) Образы (см. рис. 2.1.8 а, б, в):

 
 

 

 


Рис. 2.1.8 а

 
 

 


Рис. 2.1.8 б

 
 

 


Рис. 2.1.8 в

 

Алгебра событий

(теоремы сложения и умножения).

Алгебра событий строится путем их отождествления с элементами множеств.

Сложения вероятностейвероятность объединения множеств:

Несовместные события (рис.2.1.9):

 
 

 

 


Рис.2.1.9

Pr() = или

Pr() = . (2.1.8)

Очевидно, что если = E (полная группа несовместных событий), то Pr() = 1, что следует из определения универсального множества. Действительно, т.к. универсальное множество это множество всех возможных событий, то какое либо событие обязательно достоверно.

Пример: пусть E = множество фруктов = {апельсины, бананы, яблоки}. При этом известно количество фруктов каждого сорта, как показано на рис. 2.1.10.

Необходимо найти вероятности появления фруктов каждого сорта при их выборке по отдельности и в парных сочетаниях.

 
 

 


апельсины бананы яблоки

Рис. 2.1.10

Очевидно, что Pr (+ ) = Pr (+ б + я) = 1, Pr () = = 10(10 + 30 + 20) = 1/6, Pr (б) = 30/(10 + 30 + 20) = 1/2, Pr (я) = = 10/(10 + 30 + 20) = 1/3, Pr (+ б) = Pr () + Pr (б) = 1/6 + 1/2 = = 4/6, Pr (+ я) = Pr () + Pr (я) = 1/6 + 1/3 = 3/6, Pr (б + я) = = Pr (б) + Pr (я) = 1/2 + 1/3 = 5/6.

Совместные события (рис. 2.1.11 и 2.1.12):

 
 

 


Рис. 2.1.11

Pr(A + B) = Pr(A) + Pr(B) – Pr(AB). (2.1.9)

 
 

 


Рис. 2.1.12

 

Pr(A + B + С) = Pr((A + B) + С) = (2.1.10)

= Pr(A + B) + Pr(C) – Pr((A + B) C) =

= Pr(A) + Pr(B) – Pr(AB) + Pr(C) –

Pr(A C + B C) = Pr(A) + Pr(B) + Pr(C) –

Pr(AB) – Pr(A C) – Pr(B C) + Pr(ABC).

Применяя (2.1.9) и (2.1.10) к общему случаю, получим

Pr() = +

+ – … +

+ (-1)K-1 Pr(A1A2AK). (2.1.11)

Умножение вероятностей.

Pr(A B) = Pr(A) Pr(B÷ A), где Pr(B÷ A) ‑ условная вероятность события B,

Pr(B A) = Pr(B) Pr(A÷ B), где Pr(A÷ B) ‑ условная вероятность события A.

Если события A и B независимы, то Pr(B÷ A) = Pr(B) и Pr(A÷ B) = Pr(A), а

Pr(A B) = Pr(A) Pr(B).

В общем случае для независимых событий Ak справедливо

Pr() = Pr() =, (2.1.12)

В общем случае для зависимых событий справедливо

Pr(A1 A2 … AK) = Pr(A1) Pr(A2÷ A1) Pr(A3÷ A1 A2) Pr(A4÷ A1 A2 A3) …Pr(AK÷ A1 A2 … AK-1). (2.1.13)

 

2.2. Вероятностное описание экономических объектов

при однократных опытах. Формулы Байеса.

Так как Pr(A B) = Pr(B A), то Pr(A) Pr(B÷ A) = Pr(B) Pr(A÷ B). Следовательно справедливы формулы (Байеса)

Pr(B÷ A) = Pr(B) Pr(A÷ B) / Pr(A), (2.2.1)

Pr(A÷ B) = Pr(A) Pr(B÷ A) / Pr(B) .

Пример 2.2.1: предприятие производит N = x + y + z + w автомобилей с различными двигателями и кузовами, как показано в таблице 2.2.1.

Таблица 2.2.1

Автомобили Тип двигателя
A B
Тип кузова C x y
D z w

 

Какова вероятность покупки автомобиля с кузовом типа C при условии, что двигатель будет типа А?

Решение: используя понятие частости событий и формулы Байеса (2.2.1) получим

Pr(С÷ A) = ,

Pr(С÷ A) = Pr(С) Pr(A÷ С) / Pr(A) = .

Формула полной вероятности.

Пусть событие A происходит вместе (совместно) с одним из событий Г1, Г2, …, ГK, образующих полную группу несовместных событий. Напомним, что для полной группы несовместных событий справедливо

= E, (2.2.2)

Pr() = = = 1.

Будем называть такие события гипотезами, а вероятности Pr(Гk) – априорными вероятностями гипотез.

Тогда возможно определить полную вероятность наступления события A

Pr(A) º Pr(A Г1 + A Г2 + …+ A ГN ) = (2.2.3)

= = .

 

Пример 2.2.2: фирма управляется двумя менеджерами. Предположим, что при работе двух менеджеров отрицательные эффекты происходят с вероятностью q12, 1-го менеджера – с вероятность q1, 2-го менеджера – с вероятность q2, при отсутствии менеджеров – с вероятностью q0. Пусть 1-ый менеджер имеет частоту принятия верных решений по парированию отрицательных эффектов p1, 2-ой ‑ p2. Все отрицательные эффекты независимы друг от друга. Найти вероятность парирования отрицательных эффектов в фирме.

Решение: рассмотрим гипотезы

Г12 ‑ работают оба менеджера;

Г1 ‑ работает лишь 1-ый менеджер;

Г2 ‑ работает лишь 2-ой менеджер;

Г0 ‑ ни один из менеджеров не работает.

Введем событие A, как парирование отрицательных эффектов в фирме. Тогда

Pr(Г12) = p1 p2; Pr(Aú Г12) = 1 - q12;

Pr(Г1) = p1 (1 - p2); Pr(Aú Г1) = 1 - q1;

Pr(Г2) = p2 (1 - p1); Pr(Aú Г2) = 1 - q2;

Pr(Г0) = (1 - p1) (1 - p2); Pr(Aú Г0) = 1 – q0.

Используя формулу (2.2.3), получим

Pr(A) = Pr(Г12) Pr(Aú Г12) + Pr(Г1) Pr(Aú Г1) +

+ Pr(Г2) Pr(Aú Г2) + Pr(Г0) Pr(Aú Г0) =

= p1 p2 (1 - q12) + p1 (1 - p2) (1 - q1) +

+ p2 (1 - p1) (1 - q2) + (1 - p1) (1 - p2) (1 – q0).

 

Полная формула Байеса.

Как изменятся априорные вероятности гипотез Pr(Гk) после опыта, в результате которого наблюдается событие A ?

Заменяя в формуле Байеса (2.2.1) B на Гk и используя (2.2.3), получим апостериорную вероятность (вероятность после опыта)

Pr(Гk ÷ A) = Pr(Гk) Pr(A÷ Гk) / . (2.2.4)

Пример 2.2.3: на рынок поставляются приборы (стиральные машины). Известно, что 40% из них собираются из высококачественных деталей. Для приборов, собранных из высококачественных деталей, вероятность безотказной работы за время гарантии – 95%. Для приборов, собранных из обычных деталей, вероятность безотказной работы за время гарантии – 70%. Фирма закупила прибор и испытала его в течении времени гарантии. Прибор работал безотказно.

Какова вероятность того, что прибор собран из высококачественных деталей?

Решение: введем гипотезы

Г1 ‑ прибор собран из высококачественных деталей;

Г2 ‑ прибор собран из обычных деталей.

Априорные вероятность гипотез до опыта:

Pr(Г1) = 0,4; Pr(Г2) = 0,6.

Пусть A – событие безотказной работы в течение времени гарантии. Тогда

Pr(Aú Г1) = 0,95; Pr(Aú Г2) = 0,7. Следовательно, на основании (2.2.3) получим

Pr(Г1 ÷ A) = =

== 0,475.

Отсюда видно, что испытание повысило вероятность априорной гипотезы.

Пример 2.2.4: два брокера на бирже независимо друг от друга делают ставки. Вероятность выигрыша для 1-го – 80%, для 2-го – 40%. Обнаружен выигрыш одного из них. Каковы апостериорные вероятности выигрышей брокеров?

Решение: примем за A событие выигрыша одним из брокеров и введем априорные вероятности

Г0 ‑ оба брокера проиграли; Pr(Г0) = 0,2 * 0,6 = 0,12;

Г12 ‑ оба выиграли; Pr(Г12) = 0,8 * 0,4 = 0,32;

Г1 ‑ выиграл 1-ый; Pr(Г1) = 0,8 * 0,6 = 0,48;

Г2 ‑ выиграл 2-ой; Pr(Г2) = 0,4 * 0,2 = 0,08;

Pr(Aú Г0) = 0; Pr(Aú Г12) = 0; Pr(Aú Г1) = 1; Pr(Aú Г2) = 1.

Pr(Г1 ÷ A) = = 6/7 = 86%,

Pr(Г2 ÷ A) = = 1/7 = 14%.

Таким образом, факт выигрыша повышает шанс выигрыша брокера, обладающего большей квалификацией.

Пример 2.2.5: фирма-производитель утверждает, что надежность ее оборудования – 98%. Заказчик назначает аудитора (эксперта) и тот утверждает, что надежность ‑ 90%. Заказчик сам считает, что заявление изготовителя верно на 40%, а эксперта ‑ на 60%. Далее заказчик проводит испытание двух единиц оборудования. Если оба испытания неудачны, то каково будет мнение заказчика о производителе и эксперте?

Решение: примем за A событие двух неудач;

Г1 ‑ прав производитель; Pr(Г1) = 0,4;

Г2 ‑ прав эксперт; Pr(Г2) = 0,6;

Pr(Aú Г1) = 0,02 *0,02 = 0,0004; Pr(Aú Г2) = 0,1 *0,1 = 0,01.

Тогда

Pr(A) = Pr(Г1) Pr(Aú Г1) + Pr(Г2) Pr(Aú Г2) =

= 0,4*0,0004 + 0,6*0,01 = 0,00616;

Pr(Г1 ÷ A) = = 0,03;

Pr(Г2÷ A) = = 0,97.

 

2.3. Вероятностное описание экономических объектов

при повторении опытов.

Пусть производятся сделки с различными фирмами. Результатом каждой сделки может быть некоторое событие A (успех). Нас интересует общее число успехов.

В общем случае говорят, что производят несколько опытов, приводящих к событию A в каждом из них. Необходимо уметь определять вероятность любого заданного числа появления события A в результате серии опытов.

Частная теорема и повторение опытов.

Задача решается наиболее просто, когда опыты являются независимыми.

Например, мы выбрали наугад несколько магазинов Москвы и хотим купить один и тот же товар. Если все данные магазины получают товар от различных поставщиков (с различных баз), то наши опыты независимы. Вероятность того или иного исхода каждого из опытов не зависит от того, какие исходы имели другие опыты.

В этом случае вероятность события A во всех опытах одинакова – Pr(A) = p.

Пример 2.3.1: проводятся переговоры о заключении сделки с тремя фирмами. Вероятность заключения сделки – p.

Найти вероятность того, что мы заключим хотя бы две сделки.

Решение: обозначим: B23 – событие заключения двух сделок в трех опытах; A1 – событие заключения сделки с 1-ой фирмой; A2 – событие заключения сделки со 2-ой фирмой; A3 – событие заключения сделки с 3-ей фирмой.

Событие B23 (заключения двух сделок в трех опытах) может произойти тремя независимыми способами (вариантами), как показано на рис. 2.3.1:

1) сделка A1, сделка A2, не заключение сделки ;

2) сделка A1, не заключение сделки ; сделка A3 ;

3) не заключение сделки , сделка A2, сделка A3 .

 
 

 

 


Рис. 2.3.1

Следовательно:

B23 = A1 A2 + A1 A3 + A2 A3 .

Так как все три варианта несовместимы, а события A1 , A2 и A3 независимы, то

Pr(B23) = Pr(A1 A2 ) + Pr(A1 A3 ) + Pr(A2 A3) =

= pp(1 – p) + p (1 – p) p + (1 – p) p p.

Обозначая 1 – p = q, получим

Pr(B23) = 3 p2 q. (2.3.1)

Пример 2.3.2: производится «N» независимых опытов, в каждом из которых может появиться или не появиться некоторое событие A. Вероятность появления события APr(A) = p, а вероятность не появления – q = 1 – p. Требуется найти вероятность PrMN(A) того, что событие A в этих «N» опытах появится ровно «M» раз.

Решение: используя технику примера 2.3.1, получим

BMN = A1 A2AM+

+ A1 A3AN +

+ AN . (2.3.2)

В каждом слагаемом (2.3.2) событие A входит «M» раз, а – «N-M» раз. Тогда


(2.3.3)

 

где = – число сочетаний из N по M.

В связи с тем, что вероятность Pr(BMN) в (2.3.3) по форме представляет собой члены разложения бинома

(q + p)N = , (2.3.4)

распределение вероятности Pr(BMN) называют биномиальным распределением.

Общая теорема и повторение опытов.

Пусть вероятность появления события A в «i»-ом опыте –pi , а вероятность не появления – qi = (1 - pi), где i = 1, 2, …, N). Запись

BMN = A1 A2AM +

+ A1 A3AN + …

описывает событие, состоящее в том, что событие A появилось «M» раз в «N» опытах. Тогда

Pr(BMN) = p1 p2 pM qM+1qN + … +

+ p1 q2 p3qN-1 pN + … . (2.3.5)

Для расчета вероятности Pr(BMN) вводят вспомогательную, так называемую, производящую функцию

jN(z) = (q1 + p1 z) (q2 + p2 z) … (qN + pN z) =

= = . (2.3.6)

Оказывается, что все коэффициенты PmN данной функции в точности равны вероятностям Pr(BmN) появления события A ровно «m» раз в «N» опытах

Для частного случая, когда все pi = p

jN(z) = (q + p z) (q + p z) … (q + p z) =

= (q + p z)N = . (2.3.7)

Отметим условие

= 1, (2.3.8)

которое следует из определения jN(z) при z º 1 (так как qi + pi = = 1) и из того, что события B0N, B1N, B2N, …, BNN образуют полную группу несовместных событий (так как PmN – вероятность появления события A «m» раз в «N» опытах).

Групповые события.

Обозначим CMN событие, состоящее в том, что событие A появится не менее «M» раз в «N» опытах. Очевидно, что

CMN = BMN + BM+1N + … + BNN ,

Pr(CMN) = Pr(BMN) + Pr(BM+1N) + …+ Pr(BNN) =

= = 1 - . (2.3.9)

Пример 2.3.3: проводится 4-ре независимых переговоров с 4-мя фирмами о заключении одного и того же соглашения (A). Вероятности заключения соглашения: p1 = 0,1; p2 = 0,2; p3 = 0,3; p4 = 0,4.

Найти вероятности: P04 – вероятность ни одного соглашения; P14 – вероятность одного соглашения; P24 – вероятность двух соглашений; P34 – вероятность трех соглашений; P44 – вероятность четырех соглашений.

Решение: воспользуемся производящей функцией из (2.3.7)

j4(z) = (q1 + p1 z) (q2 + p2 z) (q3 + p3 z) (q4 + p4 z) =

= (0,9 + 0,1 z) (0,8 + 0,2 z) (0,7 + 0,3 z) (0,6 + 0,4 z) =

= 0,302 + 0,440 z + 0,215 z2 + 0,040 z3 + 0,002 z4 .

Таким образом P04 = 0,302; P14 = 0,440; P24 = 0,215; P34 = 0,040; P44 = 0,002.

Пример 2.3.4: при поиске делового партнера среди всех возможных менеджер 4-ре раза обратился к одной и той же фирме по телефону. Вероятность телефонной связи с этой фирмой при каждом обращении равна p = 0,3 (3 связи при 10-ти звонках). Известно также, что для успешного заключения контракта достаточно двух переговоров с фирмой. При однократном переговоре вероятность заключения контракта равна 0,6. Найти вероятность события A – заключения контракта с фирмой.

Решение: выдвинем две гипотезы: Г0 – связь с фирмой не состоялась; Г1 – связь с фирмой состоялась 1 раз. Рассчитаем вероятность Pr() не заключения контракта с фирмой

Pr() = Pr(Г0) Pr(÷Г0) + Pr(Г1) Pr(÷Г1).

Pr(Г0) = P04 = (1 - p)4 = (0,7)4 = 0,240;

Pr(Г1) = P14 = p q3 =* 0,3* (0,7)3 = 0,412;

Pr(÷Г0) = 1, Pr(÷Г1) = 1 – 0,6 = 0,4;

Следовательно: Pr() = 0,240 + 0,412 * 0,4 = 0,405, а Pr(A) = 1 – Pr() = 0,595.

 

2.4. Функции распределений вероятностей

непрерывных случайных величин.

Случайные величины и законы их распределений.

Рассмотренные в разделах 2.1 ¸ 2.3 вероятностные описания ЭО были в основном связаны с дискретными случайными величинами, характеризовавшими как их динамические переменные, так и параметры структурного описания. Любая величина называется дискретной случайной величиной, если множество ее возможных значений конечно или счетно и принятие ею каждого из указанных значений есть случайное событие с определенной вероятностью.

Для вероятностного описания состояний ЭО зачастую используют непрерывные случайные величины, характеризующие их динамические переменные, и функции их распределения.

Функцией F(s) распределения вероятностей случайной величины S называется вероятность того, что она примет значение, не превосходящее число s

F(s) = Pr(S £ s). (2.4.1)

Если функция распределения F(s) непрерывна и дифференцируема, то ее производная ¶F(s)/ ¶s называется плотностью распределения вероятностей p(s). Тогда функцию распределения вероятности можно определить как

F(s) = Pr(S £ s) = . (2.4.2)

Из определения функции F(s), что она не убывает с ростом своего аргумента s.

В принципе, по аналогии с (2.4.2) можно ввести функцию распределения вероятностей и для дискретной случайной величины

F(s) = Pr(S £ s) = . (2.4.3)

Заметим, что у дискретной случайной величины функция распределения ступенчатая, т.к. отражает сумму накопленных вероятностей Pr(x) случайных величин. Значение функции F(s) изменяется скачком при переходе с одного дискретного значения s на другое, как показано на рис. 2.4.1.

 
 

 

 


Рис. 2.4.1

Нормальная плотность распределения вероятностей.

В силу того обстоятельства, что любая помеха H, сопутствующая какой либо динамической переменной или параметру структурного описания ЭО, зависит от огромного числа возмущающих факторов, возможно выдвинуть гипотезу о ее нормальном распределении, опираясь на центральную предельную теорему.

Как известно, центральная предельная теорема гласит, что распределение суммарного (аддитивного) значения бесконечно большого числа независимых случайных величин описывается нормальным законом Гаусса (независимо от законов распределений этих величин). В условиях выдвинутой гипотезы, плотность распределения вероятностей p(H) или отклонений H = S – áSñ «N»-компонентного вектора состояния S от центрального (наиболее вероятного) вектора состояния áSñ ЭО определяется многомерным нормальным законом распределения

pнор(H) = pнор(S) =

= exp[– (S – áSñ)+ COV-1(S – áSñ)]/(2p)N/2ú COVú1/2, (2.4.4)

где (S – áSñ)+ ‑ транспонированный вектор (S – áSñ), COV–ковариационнаяматрица размера N *N

COV =á(S – áSñ)(S – áSñ)+ ñ. (2.4.5)

Закон (2.4.4) можно рассматривать как закон распределения плотности вероятности помех H, так и самих случайных векторов состояний S.

В (2.4.4) и (2.4.5) áñ – операция математического ожидания, т.е. теоретического усреднения или усреднения по генеральной совокупности (см. подразделы «Статистики наблюдений …» и «Несмещенность …»); COV-1 – матица, обратная COV, úCOVú ‑ детерминант матрицы COV. Выражаясь конкретнее, если Sn есть “n”-ый компонент S, áSkñ есть «k»-ый компонент áSñ, а covnk есть «nk»-ый компонент COV, то

сovnk = snk = á(Sn – áSnñ)(Sk – áSkñ)ñ. (2.4.6)

Диагональный элемент

сovnn = D(Sn) = var(Sn) = sn2 = á(Sn – áSnñ)2ñ (2.4.7)

есть дисперсия (вариация) Sn, где sn называется среднеквадратичным или стандартным отклонением Sn от áSnñ. Если Sn и Sk статистически независимы, то covnk = 0 для " n ¹ k . В этом случае

pнор(S) = exp[–(S1 – áS1ñ)2/2s 12]/(2p)1/2s 1 ´ …

×exp[–(SN – áSNñ)2/2s N2]/(2p)1/2s N, (2.4.8)

т.е. многомерный нормальный закон распределения описывается произведением N одномерных нормальных законов

pнор(Sn) = exp[– (Sn – áSnñ)2/2s n2]/(2p)1/2s n . (2.4.9)

Нормальные законы распределений (одномерные и многомерные) широко используются при описании стохастических состояний ЭО даже в тех случаях, когда не выполняются условия центральной предельной теоремы. Тогда распределение (2.4.4) является некоторой моделью некоего истинного распределения Prист(S).

Привлекательность распределений типа (2.4.4) связана с тем, что они являются параметрическими, т.е. зависят от конечного числа параметров áSñ, COV.

Наглядное представление нормальной двумерной плотности распределения для двумерного вектора состояний S =(S1, S2) приведено на рис. 2.4.2 в виде функции двух переменных (рис. 2.4.2а) и в виде диаграммы разброса случайных выборок (рис. 2.4.2б).

 

 

Рис. 2.4.2

 

Выборки нормально распределенной случайной величины имеют тенденцию попадать в одну область или кластер W.. Центр кластера определяется вектором áSñ среднего значения, а форма – ковариационной матрицей COV. Из (4.4.4) и рис. 2.4.2б следует, что точки постоянной плотности образуют эллипсоид (в многомерном случае – гиперэллипсоид), для которого квадратичная форма (S – áSñ)+ COV 1(S – áSñ) постоянна. Главные оси этого гиперэллипсоида задаются собственными векторами ковариационной матрицы COV.

Нормальное распределение обладает следующими важными свойствами:

- нормальная случайная величина S с математическим ожиданием áSñ и стандартным отклонением s с вероятностью близкой к 1 попадает в интервал (правило трех сигм)

Sñ ‑ 3s) £ S £ (áSñ + 3s);

- если случайная величина S распределена по нормальному закону с математическим ожиданием áSñ и стандартным отклонением s, то

F(s) = Pr(S £ s) = Ф(), Pr(S > s) = 1 – Ф(),

где Ф – интеграл ошибок, определяемый (2.4.2) и (2.4.9).

Пример: некая фирма имеет среднюю доходность по своим акциям áSñ = 15%, а стандартное отклонение s = 3,87%. Одномерные нормальные законы (плотность (2.4.9) и функция (2.4.2) распределения вероятности) показаны на рис. 2.4.3 и 2.4.4 соответственно.

Рис. 2.4.3

Согласно правилу трех сигм, с вероятностью, близкой к 1, можно утверждать, что доходность по акциям фирмы будет лежать в диапазоне 15% ±11,61% (от 3,39% до 26,61%). При этом, вероятность попадания доходности в интервал 15% ±7,74% (áSñ ± 2s) составит примерно 68%.

Рис. 2.4.4

Произвольный закон.

Истинное распределение может описываться совершенно произвольным законом. Во многих случаях закон распределения неизвестен, и его необходимо оценивать. Пусть p*(S) – оценка истинной плотности распределений pист(S). Будем искать такую оценку, которая обеспечивает минимизацию среднеквадратичной ошибки

СКО = ò.òò [p*(S) – pист(S)]2 d(N) S Þ min, (2.4.10)

где d(N) S = dS1 dS2 … dSN.

Разложим оценку p*(S) в ряд

p*(S) = (2.4.11)

по системе ортонормированных функций j k(S). Ортонормированность означает

ò.òò j k(S) j m(S) d(N) S = (2.4.12)

Подставив (2.4.11) в (2.4.10), получим

СКО = ò.òò [pист(S)]2 d(N) S. (2.4.13)

Необходимые условия минимума (2.4.13) заключаются в том, что

¶ СКО /¶ ak = ò.òò [pист(S)] j k(S) d(N) S = 0 для " k или

ak = ò.òò pист(S) j k(S) d(N) S = (1/M) . (2.4.14)

 

В (2.4.14) использована замена теоретического среднего значения функции j k(S) его эмпирическим средним (см. 2.4.20).

Таким образом, оценкой истинной плотности распределения является

p*(S) = (1/M). (2.4.15)

Оценка коэффициентов ak может быть получена рекуррентно. Так, если получена оценка (2.4.14) ak(M) по выборке объема M, то выражение для коэффициента при увеличении выборки на один объект имеет вид (см. 2.4.22)

ak(M+1) = [1/(M+1)] [] =

= [1/(M+1)] [M ak(M) + j k(SM+1)]. (2.4.16)

Часто закон распределения приближают с помощью парзеновских окон (по имени Парзена)

p*M(S) = (1/M), (2.4.17)

где функция окна p[(SSm)/DM] является некоторым распределением, центрированным в Sm и обладающим шириной DM, зависящим от числа выборок M. Как правило, с ростом M ширина окна сужается. Величина nm соответствует количеству выборок, попавших в «точку» Sm. При M @ 100 парзеновское приближение практически сходится к истинному распределению.

 

Статистики наблюдений, достаточные статистики.

Статистикой наблюдаемого состояния S называют среднюю величину áfñ любой функции f [S] от наблюдений

áfñ = ò.òò pист(S) f [S] d(N) S. (2.4.18)

Нормальные законы распределения зависят лишь от статистик первого и второго порядка – средних значений áSñ наблюдений и их ковариаций COV (дисперсий s 1 , s 12… , s 1n, s n, …)

áSñ = ò.òò pнор(S) S d(N) S, (2.4.19)

COV = ò.òò pнор(S) (S – áSñ)(

– Конец работы –

Эта тема принадлежит разделу:

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ ОПИСАНИЯ ЭКОНОМИЧЕСКИХ ОБЪЕКТОВ

На сайте allrefs.net читайте: "ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ ОПИСАНИЯ ЭКОНОМИЧЕСКИХ ОБЪЕКТОВ"

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Экономических объектов

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

ОБЪЕКТОВ
(Модуль 1) Учебно-практическое пособие для студентов экономических и управленческих специальностей. - М.: МГУТУ, 2004. - 76 с.     Мо

Неопределенностей
экономических объектов ………………… 23 2.1. Вероятностное описание экономических объектов ………………………………………….. 23 2.2. Вероятностное описание экономических

Вопросы для самопроверки к главе 1
1. Чем отличается управление состоянием ЭО от управления его структурой? Приведите наглядные примеры с управлением автомобилем. 2. Объясните на известном простом примере такие понятия. как

Вопросы для самопроверки к главе 2
1. Что такое выборочные значения и как они связаны с генеральной совокупностью случайного экономического события? 2. Как связана выборочная вероятность или частость случайного экономическо

Тесты по темам модуля
(выбрать правильный ответ/ответы из 3-х предлагаемых) 1. Состоянием (вектором состояния) экономического объекта (ЭО) называется: 1.1 Зависимость от времени целенаправленно

Список рекомендованной литературы
  1. Лукасевич И.Я. Анализ финансовых операций. Методы, модели, техника вычислений. – М.: Финансы, ЮНИТИ, 1998. - 400 с. 2. Тюрин Ю.Н., Макаров А.А. Статист

Словарь основных понятий и сокращений
ЭО – экономический объект (любые финансовые, производственные и коммерческие предприятия или их объединения, соответствующие им действия или операции (как на микро, так и макро уровнях), а также пр

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги