Линейный коэффициент корреляции принимает значения. Критерий корреляции пирсона

​ Критерий корреляции Пирсона – это метод параметрической статистики, позволяющий определить наличие или отсутствие линейной связи между двумя количественными показателями, а также оценить ее тесноту и статистическую значимость. Другими словами, критерий корреляции Пирсона позволяет определить, есть ли линейная связь между изменениями значений двух переменных. В статистических расчетах и выводах коэффициент корреляции обычно обозначается как r xy или R xy .

1. История разработки критерия корреляции

Критерий корреляции Пирсона был разработан командой британских ученых во главе с Карлом Пирсоном (1857-1936) в 90-х годах 19-го века, для упрощения анализа ковариации двух случайных величин. Помимо Карла Пирсона над критерием корреляции Пирсона работали также Фрэнсис Эджуорт и Рафаэль Уэлдон .

2. Для чего используется критерий корреляции Пирсона?

Критерий корреляции Пирсона позволяет определить, какова теснота (или сила) корреляционной связи между двумя показателями, измеренными в количественной шкале. При помощи дополнительных расчетов можно также определить, насколько статистически значима выявленная связь.

Например, при помощи критерия корреляции Пирсона можно ответить на вопрос о наличии связи между температурой тела и содержанием лейкоцитов в крови при острых респираторных инфекциях, между ростом и весом пациента, между содержанием в питьевой воде фтора и заболеваемостью населения кариесом.

3. Условия и ограничения применения критерия хи-квадрат Пирсона

  1. Сопоставляемые показатели должны быть измерены в количественной шкале (например, частота сердечных сокращений, температура тела, содержание лейкоцитов в 1 мл крови, систолическое артериальное давление).
  2. Посредством критерия корреляции Пирсона можно определить лишь наличие и силу линейной взаимосвязи между величинами. Прочие характеристики связи, в том числе направление (прямая или обратная), характер изменений (прямолинейный или криволинейный), а также наличие зависимости одной переменной от другой - определяются при помощи регрессионного анализа .
  3. Количество сопоставляемых величин должно быть равно двум. В случае анализ взаимосвязи трех и более параметров следует воспользоваться методом факторного анализа .
  4. Критерий корреляции Пирсона является параметрическим , в связи с чем условием его применения служит нормальное распределение сопоставляемых переменных. В случае необходимости корреляционного анализа показателей, распределение которых отличается от нормального, в том числе измеренных в порядковой шкале, следует использовать коэффициент ранговой корреляции Спирмена .
  5. Следует четко различать понятия зависимости и корреляции. Зависимость величин обуславливает наличие корреляционной связи между ними, но не наоборот.

Например, рост ребенка зависит от его возраста, то есть чем старше ребенок, тем он выше. Если мы возьмем двух детей разного возраста, то с высокой долей вероятности рост старшего ребенка будет больше, чем у младшего. Данное явление и называется зависимостью , подразумевающей причинно-следственную связь между показателями. Разумеется, между ними имеется и корреляционная связь , означающая, что изменения одного показателя сопровождаются изменениями другого показателя.

В другой ситуации рассмотрим связь роста ребенка и частоты сердечных сокращений (ЧСС). Как известно, обе эти величины напрямую зависят от возраста, поэтому в большинстве случаев дети большего роста (а значит и более старшего возраста) будут иметь меньшие значения ЧСС. То есть, корреляционная связь будет наблюдаться и может иметь достаточно высокую тесноту. Однако, если мы возьмем детей одного возраста , но разного роста , то, скорее всего, ЧСС у них будет различаться несущественно, в связи с чем можно сделать вывод о независимости ЧСС от роста.

Приведенный пример показывает, как важно различать фундаментальные в статистике понятия связи и зависимости показателей для построения верных выводов.

4. Как рассчитать коэффициента корреляции Пирсона?

Расчет коэффициента корреляции Пирсона производится по следующей формуле:

5. Как интерпретировать значение коэффициента корреляции Пирсона?

Значения коэффициента корреляции Пирсона интерпретируются исходя из его абсолютных значений. Возможные значения коэффициента корреляции варьируют от 0 до ±1. Чем больше абсолютное значение r xy – тем выше теснота связи между двумя величинами. r xy = 0 говорит о полном отсутствии связи. r xy = 1 – свидетельствует о наличии абсолютной (функциональной) связи. Если значение критерия корреляции Пирсона оказалось больше 1 или меньше -1 – в расчетах допущена ошибка.

Для оценки тесноты, или силы, корреляционной связи обычно используют общепринятые критерии, согласно которым абсолютные значения r xy < 0.3 свидетельствуют о слабой связи, значения r xy от 0.3 до 0.7 - о связи средней тесноты, значения r xy > 0.7 - о сильной связи.

Более точную оценку силы корреляционной связи можно получить, если воспользоваться таблицей Чеддока :

Оценка статистической значимости коэффициента корреляции r xy осуществляется при помощи t-критерия, рассчитываемого по следующей формуле:

Полученное значение t r сравнивается с критическим значением при определенном уровне значимости и числе степеней свободы n-2. Если t r превышает t крит, то делается вывод о статистической значимости выявленной корреляционной связи.

6. Пример расчета коэффициента корреляции Пирсона

Целью исследования явилось выявление, определение тесноты и статистической значимости корреляционной связи между двумя количественными показателями: уровнем тестостерона в крови (X) и процентом мышечной массы в теле (Y). Исходные данные для выборки, состоящей из 5 исследуемых (n = 5), сведены в таблице.

Корреляционный анализ занимается степенью связи между двумя случайными величинами Х и Y. Корреляционный анализ экспериментальных данных для двух случайных величин заключает в себе следующие основные приемы:

  • - вычисление выборочных коэффициентов корреляции;
  • - составление корреляционной таблицы;
  • - проверка статистической гипотезы значимости связи.

Определение. Корреляционная зависимость между случайными величинами Х и Y называется линейной корреляцией, если обе функции регрессии f(x) и ф(x) являются линейными. В этом случае обе линии регрессии являются прямыми; они называется прямыми регрессии.

Для достаточно полного описания особенностей корреляционной зависимости между величинами недостаточно определить форму этой зависимости и в случае линейной зависимости оценить ее силу по величине коэффициента регрессии. Например, ясно, что корреляционная зависимость возраста Y учеников средней школы от года Х их обучения в школе является, как правило, более тесной, чем аналогичная зависимость возраста студентов высшего учебного заведения от года обучения, поскольку среди студентов одного и того же года обучения в вузе обычно наблюдается больший разброс в возрасте, чем у школьников одного и того же класса.

Для оценки тесноты линейных корреляционных зависимостей между величинами Х и Y по результатам выборочных наблюдений вводится понятие выборочного коэффициента линейной корреляции, определяемого формулой:

Следует отметить, что основной смысл выборочного коэффициента линейной корреляции rB состоит в том, что он представляет собой эмпирическую (т.е. найденную по результатам наблюдений над величинами Х и Y) оценку соответствующего генерального коэффициента линейной корреляции r. Принимая во внимание формулы:

Видим, что выборочное уравнение линейной регрессии Y на Х имеет вид:


Основные свойства выборочного коэффициента линейной корреляции:

1. Коэффициент корреляции двух величин, не связанных линейной корреляционной зависимостью, равен нулю.

2. Коэффициент корреляции двух величин, связанных линейной корреляционной зависимостью, равен 1 в случае возрастающей зависимости и -1 в случае убывающей зависимости.

3. Абсолютная величина коэффициента корреляции двух величин, связанных линейной корреляционной зависимостью, удовлетворяет неравенству 0 меньше r меньше 1.

4. Чем ближе r к 1, тем теснее прямолинейная корреляция между величинами Y, X.

По своему характеру корреляционная связь может быть прямой и обратной, а по силе - сильной, средней, слабой. Кроме того, связь может отсутствовать или быть полной.


Пример 4. Изучалась зависимость между двумя величинами Y и Х. Результаты наблюдений приведены в таблице в виде двумерной выборки объема 11:

Требуется:

  • 1. Вычислить выборочный коэффициент корреляции.
  • 2. Оценить характер и силу корреляционной зависимости.
  • 3. Написать уравнение линейной регрессии Y на Х.

Решение. По известным формулам:


Таким образом, следует сделать вывод, что рассматриваемая корреляционная зависимость между величинами Х и Y является по характеру - обратной, по силе - средней. Уравнение линейной регрессии Y на Х:


Пример 5. Изучалась зависимость между качеством Y (%) и количеством Х (шт.). Результаты наблюдений приведены в виде корреляционной таблицы:

Требуется вычислить выборочный коэффициент линейной корреляции зависимости Y от Х.

Решение. Для упрощения вычислений перейдем к новым переменным - условным вариантам (ui, vi), воспользовавшись формулами при

Для удобства перепишем данную таблицу в новых обозначениях:


Вывод: Корреляционная зависимость между величинами Х и Y - прямая и сильная.

Выбрав вид функции регрессии, т.е. вид рассматриваемой модели зависимости Y от Х (или Х от У), например, линейную модель, необходимо определить конкретные значения коэффициентов модели. При различных значениях а и b можно построить бесконечное число зависимостей, т.е. на координатной плоскости имеется бесконечное количество прямых, нам же необходима такая зависимость, которая соответствует наблюдаемым значениям наилучшим образом. Таким образом, задача сводится к подбору наилучших коэффициентов.


Линейную функцию ищем, исходя лишь из некоторого количества имеющихся наблюдений. Для нахождения функции с наилучшим соответствием наблюдаемым значениям используем метод наименьших квадратов. В методе наименьших квадратов требуется, чтобы еi, разность между измеренными yi и вычисленными по уравнению значениям Yi, была минимальной. Следовательно, находим коэффициенты а и b так, чтобы сумма квадратов отклонений наблюдаемых значений от значений на прямой линии регрессии оказалась наименьшей:

Исследуя на экстремум эту функцию аргументов а и с помощью производных, можно доказать, что функция принимает минимальное значение, если коэффициенты а и b являются решениями системы:

Если разделить обе части нормальных уравнений на n, то получим:


При этом b называют коэффициентом регрессии; a называют свободным членом уравнения регрессии и вычисляют по формуле:

Полученная прямая является оценкой для теоретической линии регрессии. Имеем:


Регрессия может быть прямой (b больше 0) и обратной (b меньше 0). Прямая регрессия означает, что при росте одного параметра, значения другого параметра тоже увеличиваются. А обратная, что при росте одного параметра, значения другого параметра уменьшаются.

Пример 1. Результаты измерения величин X и Y даны в таблице:

Предполагая, что между X и Y существует линейная зависимость, способом наименьших квадратов определить коэффициенты a и b. Решение. Здесь n=5:

Решая эту систему, получим:

Пример 2. Имеется выборка из 10 наблюдений экономических показателей (X) и (Y).

Требуется найти выборочное уравнение регрессии Y на X. Построить выборочную линию регрессии Y на X.

Решение. 1. Проведем упорядочивание данных по значениям xi и yi. Получаем новую таблицу:

Для упрощения вычислений составим расчетную таблицу, в которую занесем необходимые численные значения.


Согласно формуле, вычисляем коэффициента регрессии:


Нанесем на координатной плоскости точки (xi; yi) и отметим прямую регрессии.


На графике видно, как располагаются наблюдаемые значения относительно линии регрессии. Для численной оценки отклонений yi от Yi, где yi наблюдаемые, а Yi определяемые регрессией значения, составим таблицу:


Значения Yi вычислены согласно уравнению регрессии. Заметное отклонение некоторых наблюдаемых значений от линии регрессии объясняется малым числом наблюдений. При исследовании степени линейной зависимости Y от X число наблюдений учитывается. Сила зависимости определяется величиной коэффициента корреляции.

Различные экономические явления как на микро-, так и на макроуровне не являются независимыми, а связаны между собой (цена товара и спрос на него, объём производства и прибыль фирмы и.т.д.).

Эта зависимость может быть строго функциональной (детермированной) и статистической.

Зависимость между и
называетсяфункциональной, когда каждому значению одного признака соответствует одно единственное значение другого признака. (Примером такой однозначной зависимости может служить зависимость площади круга от радиуса).

В реальной действительности чаще встречается иная связь между явлениями, когда каждому значению одного признака могут соответствовать несколько значений другого (например, связь между возрастом детей и их ростом).

Форма связи, при которой один или несколько взаимосвязанных показателей (факторов) оказывают влияние на другой показатель (результат) не однозначно, а с определенной долей вероятности, называется статистической . В частности, если при изменении одной из величин изменяется среднее значение другой, то в этом случае статистическую зависимость называют корреляционной .

В зависимости от числа факторов, включаемых в модель, различают парную корреляцию (связь двух переменных) и множественную (зависимость результата от нескольких факторов).

Корреляционный анализ состоит в определении направления, формы и степени связи (тесноты) между двумя (несколькими) случайными признаками
и.

По направлению корреляция бывает положительной (прямой) , если при увеличении значений одной переменной увеличивается значение другой, и отрицательной (обратной) , если при увеличении значений одной переменной, уменьшается значение другой.

По форме корреляционная связь может быть линейной (прямолинейной) , когда изменение значений одного признака приводит к равномерному изменению другого (математически описывается уравнением прямой
), икриволинейной , когда изменение значений одного признака приводит к неодинаковым изменениям другого (математически она описывается уравнениями кривых линий, например гиперболы
, параболы
и т.д.).

Простейшей формой зависимости между переменными является линейная зависимость. И проверка наличия такой зависимости, оценивание её индикаторов и параметров является одним из важнейших направлений эконометрики.

Существуют специальные статистические методы и, соответственно, показатели, значения которых определённым образом свидетельствуют о наличии или отсутствии линейной связи между переменными.

3.1. Коэффициент линейной корреляции

Наиболее простым, приближенным способом выявления корреляционной связи является графический .

При небольшом объеме выборки экспериментальные данные представляют в виде двух рядов связанных между собой значений и. Если каждую пару
представить точкой на плоскости
, то получится так называемоекорреляционное поле (рис.1).

Если корреляционное поле представляет собой эллипс, ось которого расположена слева направо и снизу вверх (рис.1в), то можно полагать, что между признаками существует линейная положительная связь.

Если корреляционное поле вытянуто вдоль оси слева направо и сверху вниз (рис.1г), то можно полагать наличие линейной отрицательной связи.

В случае же если точки наблюдений располагаются на плоскости хаотично, т.е корреляционное поле образует круг (рис.1а), то это свидетельствует об отсутствии связи между признаками.

На рис.1б представлена строгая линейная функциональная связь.

Под теснотой связи между двумя величинами понимают степень сопряженности между ними, которая обнаруживается с изменением изучаемых величин. Если каждому заданному значению
соответствуют близкие друг другу значения, то связь считается тесной (сильной); если же значениясильно разбросаны, то связь считается менее тесной. При тесной корреляционной связи корреляционное поле представляет собой более или менее сжатый эллипс.

Количественным критерием направления и тесноты линейной связи является коэффициент линейной корреляции .

Коэффициент корреляции, определяемый по выборочным данным, называется выборочным коэффициентом корреляции. Онвычисляется по формуле:

где , текущие значения признаков
и;и средние арифметические значения признаков;
- среднее арифметическое произведений вариант,
и
 средние квадратические отклонения этих признаков;  объём выборки.

Для вычисления коэффициента корреляции достаточно принять предположение о линейной связи между случайными признаками. Тогда вычисленный коэффициент корреляции и будет мерой этой линейной связи.

Коэффициент линейной корреляции принимает значения от −1 в случае строгой линейной отрицательной связи, до +1 в случае строгой линейной положительной связи (т.е.
). Близость коэффициента корреляции к 0 свидетельствует об отсутствиилинейной связи между признаками, но не об отсутствии связи между ними вообще.

Коэффициенту корреляции можно дать наглядную графическую интерпретацию.

Если
, то между признаками существует линейная функциональная зависимость вида
, что означаетполную корреляцию признаков. При
, прямая имеет положительный наклон по отношению к оси
, при
 отрицательный (рис. 1б).

Если
, точки
находятся в области ограниченной линией, напоминающей эллипс. Чем ближе коэффициент корреляции к
, тем уже эллипс и тем теснее точки сосредоточены вблизи прямой линии. При
говорят оположительной корреляции . В этом случае значения имеют тенденцию к возрастанию с увеличением(рис.1в). При
говорят оботрицательной корреляции ; значения имеют тенденцию к уменьшению с ростом(рис.1г).

Если
, то точки
располагаются в области, ограниченной окружностью. Это означает, что между случайными признаками
иотсутствует корреляция, и такие признаки называютсянекоррелированными (рис.1а).

При оценке тесноты связи можно использовать следующую условную таблицу:

Теснота связи

Величина коэффициента корреляции при наличии

прямой связи (+)

обратной связи (−)

Связь отсутствует

Связь слабая

Связь умеренная

Связь сильная

Полная функциональная

Заметим, что в числителе формулы для выборочного коэффициента линейной корреляции величин
ис тоит ихпоказатель ковариации :

Этот показатель, как и коэффициент корреляции характеризует степень линейной связи величин
и. Если он больше нуля, то связь между величинами положительная, если меньше нуля, то связь – отрицательная, равен нулю – линейная связь отсутствует.

В отличие от коэффициента корреляции показатель ковариации нормирован – он имеет размерность, и его величина зависит от единиц измерения
и. В статистическом анализе показатель ковариации обычно используется, как промежуточный элемент расчёта коэффициента линейной корреляции. Т.о. формула расчёта выборочного коэффициента корреляции приобретает вид:

характеризует тесноту и направление связи между двумя коррелируемыми признаками в случае наличия между ними линейной зависимости.
Линейный коэффициент корреляции имеет большое значение при исследовании социально - экономических явлений и процессов, распределение которых близко к нормальному.
На практике применяются различные модификации формул для расчета, данного коэффициента. Наиболее простой из них является зависимость вида
_ xy - x y
r (1 >
Физическая интерпретация значений коэффициента корреляции приведена в таблице1 . Таблица 1. Оценка линейного коэф(шциента корреляции Значение линейного коэффициента кор-реляции Характер связи Интерпретация связи г=0 Отсутствует - 0r
л/n - 2
"р _
(2)
i
(n - 2 _
1 - r
r
VT
Если расчетное значение t^ >t^ (табличное), то гипотеза Н0 отвергается, что свидетельствует о значимости линейного коэффициента корреляции, а следовательно, и о статистической существенности зависимости между Х иУ. Примечание! Данный критерий оценки значимости применяется для со-вокупностей nПри большем числе наблюдений (n>100) используется следующая формула для определения t - статистики
r
(3)
t„ = , - Vn
р I- 2
r
Пример. На основе выборочных данных о деловой активности однотипных предприятий оценить тесноту связи с помощью линейного коэффициента корреляции между прибылью У (тыс. руб.) и затратами (Х) в копейках на 1 руб. произведенной продукции (таблица. 2). Алгоритм расчета.
Рассчитываем значения дисперсии
ст2у = 78029,3; =46.
Рассчитываем значение коэффициента корреляции по формуле (1) r= (60400,67 - 744,33*83,67)/(78029,3*46)0"5 = -0,98.
Проверяем значимость коэффициента корреляции, для этого рассчитываем t - статистику Стьюдента
tp = n - 2 = (0,98/V1-(0,98)2)*V6-2 = 14,036.
V1 - r
Таблица № 2. - Исходные данные Предприятие Прибыль, тыс. Затраты, коп, х руб., у 1 221 96 2 1070 77 3 1001 77 4 606 89 5 779 82 6 789 81 Сравниваем полученное значение с табличным при уровне значимости a=0,05 и числе степеней свободы k =6-2=4, которое равно t кр =2,776.
Вывод. Гипотеза Н0 отвергается так как | tF|>t кр =2,776, что свидетельствует о значимости данного коэффициента корреляции.
Следует помнить! Приведенные выше зависимости и результаты практических расчетов относятся к предположениям о наличии линейной связи между оцениваемыми параметрами. В случае если заранее известно, что связь нелинейная то можно воспользоваться эмпирическим корреляционным отношением.

При расчете этого показателя учитываются величины отклонений индивидуальных значений признака от средней, т.е. соответственно для факторного и результативного признаков величины .

Однако непосредственно сопоставлять между собой данные абсолютные величины нельзя. Признаки могут быть выражены в разных единицах, а при одинаковых единицах измерения средние могут быть различны по величине. Сравнению подлежат отклонения, выраженные в долях среднего квадратического отклонения (нормированные отклонения).

Рассчитывают среднее произведение нормированных отклонений, которое называется линейным коэффициентом корреляции :

Выполнив несложные преобразования, можно получить следующую формулу для расчета линейного коэффициента корреляции:

При пользовании этой формулой отпадает необходимость вычислять отклонения индивидуальных значений признаков от средней величины, что исключает ошибку в расчетах при округлении средних величин.

Линейный коэффициент корреляции может принимать любые значения в пределах от -1 до + 1 . Чем ближе коэффициент корреляции по абсолютной величине к 1, тем теснее связь между признаками. Знак при линейном коэффициенте корреляции указывает на направление связи. Прямой зависимости соответствует знак плюс, а обратной зависимости - знак минус. Линейный коэффициент корреляции применяется для измерения тесноты связи только при линейной форме связи .

Равенство говорит лишь об отсутствии линейной корреляционной зависимости, но не вообще об отсутствии корреляционной, а тем более статистической зависимости. Величина коэффициента корреляции не является доказательством наличия причинно-следственной связи между исследуемыми признаками, а является оценкой степени взаимной согласованности в изменениях признаков. Установлению причинно-следственной зависимости предшествует анализ качественной природы явлений. Особенно осторожно следует подходить к истолкованию полученных коэффициентов корреляции при незначительных объемах выборочной совокупности.

Пусть по результатам выборочного наблюдения . Объясняется ли это действительно существующей корреляционной связью между признаками в генеральной совокупности или является следствием случайности отбора элементов в выборку?

По вычисленному значению выборочного коэффициента корреляции требуется проверить гипотезу

Н 0: коэффициент корреляции в генеральной совокупности равен нулю при альтернативе

Н 1: коэффициент корреляции в генеральной совокупности не равен нулю.

В качестве статистического критерия для гипотезы Н 0 обычно используется величина

которая распределена по закону Стьюдента с степенями свободы. Гипотеза Н 0 отвергается (т.е. зависимость считается установленной), если превысит допустимое значение при уровне значимости и степенями свободы. Некоторые значения критерия приведены ниже в таблице.


Таблица 11.

Допустимые значения критерия Стьюдента при числе степеней свободы и уровне значимости .

0,05 0,01
2,10 2,88
2,09 2,86
2,09 2,85
2,08 2,83
2,07 2,82
2,07 2,81
2,06 2,80
2,06 2,79
2,06 2,78
2,05 2,77
2,05 2,76
2,05 2,76
2,04 2,75
2,02 2,70
2,00 2,66
1,98 2,62
1,96 2,58

Коэффициент корреляции достаточно точно оценивает степень тесноты связи лишь в случае линейной зависимости между признаками. При криволинейной зависимости линейный коэффициент корреляции недооценивает степень тесноты связи и даже может быть равен 0, а потому в таких случаях рекомендуется использовать в качестве показателя степени тесноты связи другие величины. Рассмотрим эмпирическое корреляционное отношение .

Согласно правилу сложения дисперсий, общая дисперсия равна сумме средней из групповых и межгрупповой

Или

Корреляционное отношение равно нулю, когда нет колеблемости в величине средних значений результативного признака по выделенным группам. В тех случаях, когда средняя из групповых дисперсий близка к нулю, т.е. практически вся вариация результативного признака обусловлена действием фактора , величина корреляционного отношения близка к 1. Направление связи мы легко установим по данным групповой таблицы (см. пример 9).

Похожие публикации