Понятие о статистической и корреляционной связи

Невозможно управлять явлениями, предсказывать их развитие без изучения характера, силы и других особенностей связей. Поэтому методы измерения связей составляют важную часть статистического анализа.

В процессе статистического исследования зависимостей находятся причинно-следственные отношения между явлениями, что позволяет выделять факторы (признаки), оказывающие существенное влияние на вариацию изучаемых явлений и процессов. Причинно-следственная связь - это связь явлений и процессов, когда изменение одного из них - причины - ведет к изменению другого - следствия.

Причина - это совокупность условий, обстоятельств, действие которых приводит к появлению следствия. Если между явлениями действительно существует связь, то эти условия обязательно должны реализовываться вместе с действиями причин. В реальной социально-экономической действительности причину и следствие необходимо рассматривать как смежные явления, появление которых вызвано комплексом сопутствующих более простых причин и следствий. Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Поэтому при их изучении необходимо выявить главные, основные причины.

Статистика разработала много методов изучения связей, выбор которых зависит от целей исследования и от поставленных задач. Признаки по их значению для изучения взаимосвязей делятся на два класса. Признаки, которые приводят к изменению других, связанных с ними признаков, называются факторными, или просто факторами. Признаки, изменение которых вызвано действием факторных, называют результативными.

Различают два типа связей между различными явлениями: функциональную или жестко детерминированную и статистическую или стохастически детерминированную.

Если с изменением значения одной переменной вторая меняется строго определенным образом, т.е. значение одной переменной обязательно соответствует одно или несколько точно заданных значений другой переменной, связь между ними является функциональной.

Стохастически детерминированная связь не имеет ограничений и условий, присущих функциональной связи. Если с изменением значения одной из переменных вторая может в определенных пределах принимать любые значения с некоторыми вероятностями, но её среднее значение или статистические массовые характеристики изменяются по определенному закону - связь является статистической.

Корреляционной связью называют важнейший частный случай статистической связи, который состоит в том, что разным значениям одной переменной соответствуют различные средние значения другой. С изменением значения признака х закономерным образом изменяется среднее значение у.

Поскольку корреляционная связь является статистической, первым условием возможности её изучения является общее условие всякого статистического исследования: наличие данных по достаточно большой совокупности явлений. Вторым условием изучения корреляционной связи служит достаточно качественная однородность совокупности. Третьим условием является необходимость подчинения распределения совокупности по результативному и факторным признакам нормальному закону. На практике эта предпосылка чаще всего выполняется приближенно, но и тогда получают неплохие результаты статистического изучения.

Изучение корреляционной связи имеет 2 цели:

1) измерение параметров уравнения, выражающего связь средних значений зависимой переменной со значениями независимой переменной.

2) измерение тесноты связи двух (или большего числа) признаков между собой.

В статистике принято различать следующие зависимости:

1. Парная корреляция - связь между 2 признаками (результативным и факторным или двумя факторными)

2. Частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков.

3. Множественная корреляция - зависимость результативного и двух и более факторных признаков, включенных в исследование.

Корреляционный анализимеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи). Теснота связи количественно выражается величиной коэффициентов корреляции. Эти коэффициенты дают возможность количественно определить "полезность" факторных признаков при построении уравнений множественной регрессии, а также служат оценкой соответствия уравнения регрессии выявленным причинно-следственным связям..

Регрессионный анализзаключается в определении аналитического выражения связи, в котором изменение одной величины обусловлено влиянием одной или несколько независимых величин, а множество всех факторов, также оказывающих влияние на зависимую величину, принимается за постоянные и средние значения. Регрессия может быть однофакторной (парной) и многофакторной (множественной).

Уравнение регрессии, или статистическая модель связи социально-экономических явлений выражается в общем случае уравнением:

, которое адекватно отражает реальное моделируемое явление при соблюдении следующих требований их построения:

1. Совокупность исследуемых исходных данных должна быть однородной .

2. возможность описания моделируемого явления одним или несколькими уравнениями причинно-следственных связей.

3. все факторные признаки должны иметь количественное выражение.

4. наличие достаточно большого объема исследуемой выборочной совокупности.

5. отсутствие количественных ограничений на параметры модели связи.

6. постоянство временной и территориальной структуры изучаемой совокупности.

Одной из проблем построения уравнения регрессии является её размерность, т.е. определение числа факторных признаков, включаемых в модель. Их число должно быть оптимальным. Практика выработала критерий, позволяющий установить количество факторных признаков, включаемых в модель. Число факторных признаков (k) должно быть в 5-6 раз меньше объема изучаемой совокупности.

По форме зависимости различают:

1) линейную регрессию, которая выражается уравнением прямой, вида:

3) нелинейную регрессию, которая выражается уравнениями вида:

парабола - ;

гипербола -

По направлению связи различают:

1) прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются.

2) обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины, зависимая соответственно уменьшается или увеличивается.

Корреляция и регрессия тесно связаны между собой: первая оценивает силу статистической связи, вторая исследует её форму.