Сутність мультиколінеарності, напрями її виявлення

 

В економетричному моделюванні необхідно враховувати також явище мультиколінеарності.

Мультиколінеарність – це явище, яке використовується для опису проблеми, коли нестрога лінійна залежність між пояснювальними змінними призводить до отримання ненадійних оцінок регресії. Проте, така залежність, зовсім необов’язково дає незадовільні оцінки. Якщо всі інші умови задовільні, тобто якщо кількість спостережень і вибіркові дисперсії пояснювальних змінних великі, а дисперсія випадкового члену – мала, то в результаті можна отримати досить позитивні оцінки.

Мультиколлінеарність виникає за рахунок отримання нестрогої залежності одного (або більше) незадовільних умов, і це – питання ступеня визначеності явища, а не його виду. Оцінки регресії будуть незадовільні від неї у відповідному ступені, коли тільки всі незалежні змінні будуть абсолютно некорельовані. Розгляд цієї проблеми починається тільки тоді, коли вона досить суттєво впливає на результати оцінки регресії.

Досить простий спосіб виявлення мультиколінеарності це побудова матриці коефіцієнтів парної кореляції, яка відображає силу зв’язку між факторами. У випадку, коли коефіцієнти парної кореляції між незалежними факторами входять у відповідний проміжок (табл. 9.4), можна свідчити про рівень мультиколінеарності.

Таблиця 9.4. Рівень мультиколінеарності в залежності від значень коефіцієнтів парної кореляції між незалежними факторами

Значення коефіцієнтів парної кореляції між незалежними факторами Рівень мультиколінеарності
rx1x2 = 0,85 – 1,0 сильна
rx1x2 = 0,55 – 0,84 помірна
rx1x2 = 0,25 – 0,54 слаба
rx1x2 = 0 – 0,24 відсутня

Слід також відзначити, що явище мультиколінеарністі, тобто лінійна залежність одного з аргументу від інших, виявляється декількома способами:

- професійними міркуваннями по суті досліджуваного явища;

- інструкцією заснованої на складанні "внутрішніх і "зовнішніх" коефіцієнтів" кореляції кожного з аргументів. Якщо "внутрішній коефіцієнт" кореляції більше "зовнішнього", то даний аргумент в рівняння множинної кореляції не слід включати;

- використанням статистичного критерію мультиколінеарністі (Феррара і Гюбера). Для цього розглядається величина

j = (Cij-1) , (9.16)

де Cij – діагональні елементи матриці, зворотної до кореляційної, знайденої за вибірковими даними;

n – обсяг вибірки;

p – число аргументів у рівнянні множинної регресії.

Зворотною по відношенню до даної називається матриця, яка, будучи помноженою як справа, так і зліва на дану матрицю, дає одиничну матрицю.

Для матриці А зворотна їй позначається через А-1. Тоді за визначенням маємо:

А-1*А = А* А-1 = Е (9.17)

Якщо існує зворотна матриця А-1, то матриця А називається зворотною. Для виродженої матриці зворотної матриці не існує, оскільки її визначник рівний нулю.

Визначник зворотної матриці рівний зворотній величині визначника даної матриці, що дає можливість обчислення зворотної матриці за допомогою визначників. Для цього використовуються поняття мінору і доповнення алгебри.

Мінором Мij елемента аij визначника Д=(Оij) називається такий новий визначник, який отриманий з даного визначника викреслюванням рядка і стовпця, що знаходиться через даний елемент матриці А.

Доповненням алгебри елемента аij визначника називається мінор Мij цього елемента, взятий зі знаком (-1). Доповнення алгебри елемента аij позначається через Аij. У прийнятому нами позначенні матимемо:

(9.18)

Ферраром і Глобером доведено, що статична величина j підкоряється розподілу Фішера з (n-p) і (р-1) ступенями свободи. Отже, для виявлення мультиколінеарності використовується звичайний прийом перевірки статистичних гіпотез. Обчисливши вираз j (j=1,2…р), порівнюємо їх значення з табличними значеннями 5% и 1% при відповідних ступенях свободи [ (n-p) (p-10) ].

Якщо j < 5%, то гіпотеза відсутності мультиколінеарності j-го аргументу з іншими в генеральній сукупності стверджується. Навпаки, при j > 5% - відкидається гіпотеза відсутності мультиколінеарності j-го аргументу з іншими в генеральній сукупності. При 5% < j < 1% використовуються засоби послаблення мультиколінеарності шляхом переходу до нелінійних залежностей та ін.

Висновки про виключення якогось аргументу супроводжуються логічним аналізом. По аргументах, що збереглися, повторюється перевірка мультиколінеарності.

Існують різні методи для зменшення мультиколлінеарності. Вони діляться на дві категорії: до першої категорії відносяться методи спрямовані на виконання умов, що забезпечують надійність оцінок регресії; до других – відносяться використання зовнішньої інформації. Якщо з початку використовувати можливі значення показників, то, звичайно, було б важливим збільшити кількість спостережень. Якщо, наприклад, використовуються часові ряди, то це можна зробити шляхом скорочення терміну кожного періоду часу.

Якщо використовуються дані перехресної вибірки і дослідник знаходиться на стадії планування дослідження, то можна збільшити точність оцінок регресії і послабити проблему мультиколінеарності за рахунок більших витрат коштів на збільшення розміру вибірки та інш. методи.

Слід відзначити, що ці методи лише зменшують вплив мультиколінеарності. В практиці економетричного моделювання економічних процесів нівелювання впливу цього явища здійснюється шляхом виключення одного з незалежних факторів моделі, який сильно впливає на інший фактор, а потім продовжують дослідження.