Корреляционную связь нельзя представить в виде

Корреляционную связь нельзя представить в виде

Корреляция

Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин. Математической мерой корреляции двух случайных величин служит корреляционное отношение , либо коэффициент корреляции (или ). В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической.

Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.

Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором — также и ее направление. Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин.

Корреляция и взаимосвязь величин

Значительная корреляция между двумя случайными величинами всегда является свидетельством существования некоторой статистической связи в данной выборке, но эта связь не обязательно должна наблюдаться для другой выборки и иметь причинно-следственный характер. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. Например, рассматривая пожары в конкретном городе, можно выявить весьма высокую корреляцию между ущербом, который нанес пожар, и количеством пожарных, участвовавших в ликвидации пожара, причём эта корреляция будет положительной. Из этого, однако, не следует вывод «бо́льшее количество пожарных приводит к бо́льшему ущербу», и тем более не имеет смысла попытка минимизировать ущерб от пожаров путем ликвидации пожарных бригад.В то же время, отсутствие корреляции между двумя величинами ещё не значит, что между ними нет никакой связи.

Показатели корреляции

Параметрические показатели корреляции

Ковариация

Основные статьи: Ковариация, Неравенство Коши — Буняковского

Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация являетcя совместным центральным моментом второго порядка. Ковариация определяется как математическое ожидание произведения отклонений случайных величин:

,

где — математическое ожидание.

Свойства ковариации:

  • Ковариация двух независимых случайных величин и равна нулю.

Доказательство

Так как и — независимые случайные величины, то и их отклонения и также независимы. Пользуясь тем, что математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей, а математическое ожидание отклонения равно нулю, имеем

  • Абсолютная величина ковариации двух случайных величин и не превышает среднего геометрического их дисперсий: .

Доказательство

Введём в рассмотрение случайную величину (где — среднеквадратическое отклонение) и найдём её дисперсию . Выполнив выкладки получим:

Любая дисперсия неотрицательна, поэтому

Отсюда

Введя случайную величину , аналогично

Объединив полученные неравенства имеем

Или

Итак,

  • Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа.

Линейный коэффициент корреляции

Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон (англ.)русск. в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле:

где , — среднее значение выборок.

Коэффициент корреляции изменяется в пределах от минус единицы до плюс единицы.

Доказательство

Разделив обе части двойного неравенства на получим

Линейный коэффициент корреляции связан с коэффициентом регрессии в виде следующей зависимости: где — коэффициент регрессии, — среднеквадратическое отклонение соответствующего факторного признака.

Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Такой график называется «диаграммой рассеяния».

Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или (тау) Кендалла. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими: четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

Непараметрические показатели корреляции

Коэффициент ранговой корреляции Кендалла

Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

,

где .

— суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

— суммарное число наблюдений, следующих за текущими наблюдениями с меньшим значением рангов Y. (равные ранги не учитываются!)

Если исследуемые данные повторяются (имеют одинаковые ранги), то в расчетах используется скорректированный коэффициент корреляции Кендалла:

— число связанных рангов в ряду X и Y соответственно.

Коэффициент ранговой корреляции Спирмена

Каждому показателю X и Y присваивается ранг. На основе полученных рангов рассчитываются их разности и вычисляется коэффициент корреляции Спирмена:

Коэффициент корреляции знаков Фехнера

Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

C — число пар, у которых знаки отклонений значений от их средних совпадают.

H — число пар, у которых знаки отклонений значений от их средних не совпадают.

Коэффициент множественной ранговой корреляции (конкордации)

— число групп, которые ранжируются.

— число переменных.

— ранг -фактора у -единицы.

Значимость:

, то гипотеза об отсутствии связи отвергается.

В случае наличия связанных рангов:

Свойства коэффициента корреляции

  • Неравенство Коши — Буняковского:

если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши — Буняковского будет: .

  • Коэффициент корреляции равен тогда и только тогда, когда и линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):

, где . Более того в этом случае знаки и совпадают: . Доказательство

Рассмотрим случайные величины X и Y c нулевыми средними, и дисперсиями, равными, соответственно, и . Подсчитаем дисперсию случайной величины :

Если предположить, что коэффициент корреляции

то предыдущее выражение перепишется в виде

Поскольку всегда можно выбрать числа a и b так, чтобы (например, если , то берём произвольное a и ), то при этих a и b дисперсия , и значит почти наверное. Но это и означает линейную зависимость между X и Y. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на , и Y — на .

  • Если независимые случайные величины, то . Обратное в общем случае неверно.

Корреляционный анализ

Корреляционный анализ — метод обработки статистических данных, с помощью которого измеряется теснота связи между двумя или более переменными. Корреляционный анализ тесно связан с регрессионным анализом (также часто встречается термин «корреляционно-регрессионный анализ», который является более общим статистическим понятием), с его помощью определяют необходимость включения тех или иных факторов в уравнение множественной регрессии, а также оценивают полученное уравнение регрессии на соответствие выявленным связям (используя коэффициент детерминации).

Ограничения корреляционного анализа

Множество корреляционных полей. Распределения значений (x, y) с соответствующими коэффициентами корреляций для каждого из них. Коэффициент корреляции отражает «зашумлённость» линейной зависимости (верхняя строка), но не описывает наклон линейной зависимости (средняя строка), и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка). Для распределения, показанного в центре рисунка, коэффициент корреляции не определен, так как дисперсия y равна нулю.

  1. Применение возможно при наличии достаточного количества наблюдений для изучения. На практике считается, что число наблюдений должно быть не менее, чем в 5-6 раз превышать число факторов (также встречается рекомендация использовать пропорцию не менее, чем в 10 раз превышающую количество факторов). В случае, если число наблюдений превышает количество факторов в десятки раз, в действие вступает закон больших чисел, который обеспечивает взаимопогашение случайных колебаний.
  2. Необходимо, чтобы совокупность значений всех факторных и результативного признаков подчинялась многомерному нормальному распределению. В случае, если объём совокупности недостаточен для проведения формального тестирования на нормальность распределения, то закон распределения определяется визуально на основе корреляционного поля. Если в расположении точек на этом поле наблюдается линейная тенденция, то можно предположить, что совокупность исходных данных подчиняется нормальному закону распределения..
  3. Исходная совокупность значений должна быть качественно однородной.
  4. Сам по себе факт корреляционной зависимости не даёт основания утверждать, что одна из переменных предшествует или является причиной изменений, или то, что переменные вообще причинно связаны между собой, а не наблюдается действие третьего фактора.

Область применения

Данный метод обработки статистических данных весьма популярен в экономике и социальных науках (в частности в психологии и социологии), хотя сфера применения коэффициентов корреляции обширна: контроль качества промышленной продукции, металловедение, агрохимия, гидробиология, биометрия и прочие. В различных прикладных отраслях приняты разные границы интервалов для оценки тесноты и значимости связи.

Популярность метода обусловлена двумя моментами: коэффициенты корреляции относительно просты в подсчете, их применение не требует специальной математической подготовки. В сочетании с простотой интерпретации, простота применения коэффициента привела к его широкому распространению в сфере анализа статистических данных.

> В селекции

Корреляция — взаимосвязь признаков (может быть положительной или отрицательной). Обусловлена сцеплением генов или плейотропией

> См. также

  • Автокорреляционная функция
  • Взаимнокорреляционная функция
  • Ковариация
  • Коэффициент детерминации

Понятие корреляционной связи

Исследователя нередко интересует, как связаны между собой две или большее количество переменных в одной или нескольких изучаемых выборках. Например, могут ли учащиеся с высоким уровнем тревожности демонстрировать стабильные академические достижения, или связана ли продолжительность работы учителя в школе с размером его заработной платы, или с чем больше связан уровень умственного развития учащихся – с их успеваемостью по математике или по литературе и т.п.?

Такого рода зависимость между переменными величинами называется корреляционной, или корреляцией. Корреляционная связь – это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого.

Корреляционные связи – это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. «Оба термина, корреляционная связь и корреляционная зависимость – часто используются как синонимы. Зависимость подразумевает влияние, связь – любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого.

Корреляционная зависимость– это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака.

Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.

Корреляционные связи различаютсяпо форме, направлению и степени (силе).

По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи. При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности.

Понаправлению корреляционная связь может быть положительной («прямой») и отрицательной («обратной»). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значе­ниям одного признака — низкие значения другого. При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции — отрицательный знак, например r= –0,207.

Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции.

Сила связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции.

Максимальное возможное абсолютное значение коэффициента корреляции r=1,00; минимальное r=0,00.

Общая классификация корреляционных связей:

сильная, или тесная при коэффициенте корреляции r>0,70;

средняя при 0,50<r<0,69;

умеренная при 0,30<r<0,49;

слабая при 0,20<r<0,29;

очень слабая при r<0,19.

Переменные Х и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции (см. табл. 3):

Использование коэффициента корреляции в зависимости от типа переменных

Тип шкалы Мера связи
Переменная X Переменная У
Интервальная или отношений Интервальная или отношений Коэффициент Пирсона
Ранговая, интервальная или отношений Ранговая, интервальная или отношений Коэффициент Спирмена
Ранговая Ранговая Коэффициент Кендалла
Дихотомическая Дихотомическая Коэффициент «j»
Дихотомическая Ранговая Рангово-бисериальный
Дихотомическая Интервальная или отношений Бисериальный

Для графического представления корреляционной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определённого символа. Такой график называется диаграммой рассеяния. У этого термина существуют и другие значения, см. Корреляция (значения). Запрос «Коэффициент корреляции Пирсона» перенаправляется сюда. На эту тему нужна отдельная статья.

Корреля́ция (от лат. correlatio «соотношение, взаимосвязь»), или корреляционная зависимость, — статистическая взаимосвязь двух или более случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.

Математической мерой корреляции двух случайных величин служит корреляционное отношение η {\displaystyle \mathbf {\eta } } либо коэффициент корреляции R {\displaystyle \mathbf {R} } (или r {\displaystyle \mathbf {r} } ). В случае если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической.

Впервые в научный оборот термин корреляция ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.

Значительная корреляция между двумя случайными величинами всегда является свидетельством существования некоторой статистической связи в данной выборке, но эта связь не обязательно должна наблюдаться для другой выборки и иметь причинно-следственный характер. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. Например, рассматривая пожары в конкретном городе, можно выявить весьма высокую корреляцию между ущербом, который нанёс пожар, и количеством пожарных, участвовавших в ликвидации пожара, причём эта корреляция будет положительной. Из этого, однако, не следует вывод «увеличение количества пожарных приводит к увеличению причинённого ущерба», и тем более не будет успешной попытка минимизировать ущерб от пожаров путём ликвидации пожарных бригад. Корреляция двух величин может свидетельствовать о существовании общей причины, хотя сами явления напрямую не взаимодействуют. Например, обледенение становится причиной как роста травматизма из-за падений, так и увеличения аварийности среди автотранспорта. В этом случае две величины (травматизм из-за падений пешеходов и аварийность автотранспорта) будут коррелировать, хотя они не связаны причинно-следственно друг с другом, а лишь имеют стороннюю общую причину — гололедицу.

В то же время, отсутствие корреляции между двумя величинами ещё не значит, что между ними нет никакой связи. Например, зависимость может иметь сложный нелинейный характер, который корреляция не выявляет.

Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором — также и её направление. Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин.

Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или τ {\displaystyle \mathbf {\tau } } (тау) Кендалла. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими — четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

Основные статьи: Ковариация, Неравенство Коши — Буняковского

Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация является совместным центральным моментом второго порядка. Ковариация определяется как математическое ожидание произведения отклонений случайных величин:

где M {\displaystyle \mathbf {M} } — математическое ожидание (в англоязычной литературе принято обозначение E {\displaystyle \mathbf {E} } от expected value).

Свойства ковариации:

  • Ковариация двух независимых случайных величин X {\displaystyle \mathbf {X} } и Y {\displaystyle \mathbf {Y} } равна нулю.

Доказательство

Так как X {\displaystyle \mathbf {X} } и Y {\displaystyle \mathbf {Y} } — независимые случайные величины, то и их отклонения X − M ( X ) {\displaystyle \mathbf {X} -\mathbf {M} (X)} и Y − M ( Y ) {\displaystyle \mathbf {Y} -\mathbf {M} (Y)} также независимы. Пользуясь тем, что математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей, а математическое ожидание отклонения равно нулю, имеем

  • Абсолютная величина ковариации двух случайных величин X {\displaystyle \mathbf {X} } и Y {\displaystyle \mathbf {Y} } не превышает среднего геометрического их дисперсий: | c o v X Y | ⩽ D X D Y {\displaystyle |\mathrm {cov} _{XY}|\leqslant {\sqrt {\mathrm {D} _{X}\mathrm {D} _{Y}}}} .

Доказательство

Введём в рассмотрение случайную величину Z 1 = σ Y X − σ X Y {\displaystyle \mathbf {Z} _{1}=\mathbf {\sigma } _{Y}\mathbf {X} -\mathbf {\sigma } _{X}\mathbf {Y} } (где σ {\displaystyle \mathbf {\sigma } } — среднеквадратическое отклонение) и найдём её дисперсию D ( Z 1 ) = M 2 {\displaystyle \mathbf {D} (Z_{1})=\mathbf {M} ^{2}} . Выполнив выкладки получим:

Любая дисперсия неотрицательна, поэтому

Отсюда

c o v X Y ⩽ σ X σ Y . {\displaystyle \mathrm {cov} _{XY}\leqslant \mathrm {\sigma } _{X}\mathrm {\sigma } _{Y}.}

Введя случайную величину Z 2 = σ Y X + σ X Y {\displaystyle \mathbf {Z} _{2}=\mathbf {\sigma } _{Y}\mathbf {X} +\mathbf {\sigma } _{X}\mathbf {Y} } , аналогично

c o v X Y ⩾ − σ X σ Y . {\displaystyle \mathrm {cov} _{XY}\geqslant -\mathrm {\sigma } _{X}\mathrm {\sigma } _{Y}.}

Объединив полученные неравенства имеем

Или

| c o v X Y | ⩽ σ X σ Y . {\displaystyle |\mathrm {cov} _{XY}|\leqslant \mathrm {\sigma } _{X}\mathrm {\sigma } _{Y}.}

Итак,

| c o v X Y | ⩽ D X D Y . {\displaystyle |\mathrm {cov} _{XY}|\leqslant {\sqrt {\mathrm {D} _{X}\mathrm {D} _{Y}}}.}

  • Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа.

Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле:

где X ¯ = 1 n ∑ t = 1 n X t {\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{t=1}^{n}X_{t}} , Y ¯ = 1 n ∑ t = 1 n Y t {\displaystyle {\overline {Y}}={\frac {1}{n}}\sum _{t=1}^{n}Y_{t}} — среднее значение выборок.

Коэффициент корреляции изменяется в пределах от минус единицы до плюс единицы.

Доказательство

Разделив обе части двойного неравенства − σ X σ Y ⩽ c o v X Y ⩽ σ X σ Y {\displaystyle -\mathrm {\sigma } _{X}\mathrm {\sigma } _{Y}\leqslant \mathrm {cov} _{XY}\leqslant \mathrm {\sigma } _{X}\mathrm {\sigma } _{Y}} на σ X σ Y {\displaystyle \mathbf {\sigma } _{X}\mathbf {\sigma } _{Y}} получим

− 1 ⩽ r X Y ⩽ 1. {\displaystyle -1\leqslant \mathbf {r} _{XY}\leqslant \ 1.}

Линейный коэффициент корреляции связан с коэффициентом регрессии в виде следующей зависимости: r X Y = a i σ X i σ Y , {\displaystyle \mathbf {r} _{XY}=\mathbf {a} _{i}{\frac {{\sigma }_{Xi}}{{\sigma }_{Y}}},} где a i {\displaystyle \mathbf {a} _{i}} — коэффициент регрессии, σ X i {\displaystyle \mathbf {\sigma } _{Xi}} — среднеквадратическое отклонение соответствующего факторного признака.

Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

τ = 2 S n ( n − 1 ) {\displaystyle \tau ={\frac {2S}{n(n-1)}}} ,

где S = P − Q {\displaystyle S=P-Q} .

P {\displaystyle P} — суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

Q {\displaystyle Q} — суммарное число наблюдений, следующих за текущими наблюдениями с меньшим значением рангов Y. (равные ранги не учитываются!)

τ ∈ {\displaystyle \tau \in }

Если исследуемые данные повторяются (имеют одинаковые ранги), то в расчетах используется скорректированный коэффициент корреляции Кендалла:

τ = S {\displaystyle \tau ={\frac {S}{{\sqrt {}}}

U x = ∑ t ( t − 1 ) 2 {\displaystyle U_{x}={\frac {\sum {t(t-1)}}{2}}}

U y = ∑ t ( t − 1 ) 2 {\displaystyle U_{y}={\frac {\sum {t(t-1)}}{2}}}

t {\displaystyle t} — число связанных рангов в ряду X и Y соответственно.

Степень зависимости двух случайных величин (признаков) X {\displaystyle X} и Y {\displaystyle Y} может характеризоваться на основе анализа получаемых результатов ( X 1 , Y 1 ) , … , ( X n , Y n ) {\displaystyle (X_{1},Y_{1}),\ldots ,(X_{n},Y_{n})} . Каждому показателю X {\displaystyle X} и Y {\displaystyle Y} присваивается ранг. Ранги значений X {\displaystyle X} расположены в естественном порядке i = 1 , 2 , … , n {\displaystyle i=1,2,\ldots ,n} . Ранг Y {\displaystyle Y} записывается как R i {\displaystyle R_{i}} и соответствует рангу той пары ( X , Y ) {\displaystyle (X,Y)} , для которой ранг X {\displaystyle X} равен i {\displaystyle i} . На основе полученных рангов X i {\displaystyle X_{i}} и Y i {\displaystyle Y_{i}} рассчитываются их разности d i {\displaystyle d_{i}} и вычисляется коэффициент корреляции Спирмена:

ρ = 1 − 6 ∑ d i 2 n ( n 2 − 1 ) {\displaystyle \rho =1-{\frac {6\sum d_{i}^{2}}{n(n^{2}-1)}}}

Значение коэффициента меняется от −1 (последовательности рангов полностью противоположны) до +1 (последовательности рангов полностью совпадают). Нулевое значение показывает, что признаки независимы.

Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

i = C − H C + H {\displaystyle i={\frac {C-H}{C+H}}}

C — число пар, у которых знаки отклонений значений от их средних совпадают.

H — число пар, у которых знаки отклонений значений от их средних не совпадают.

Множественный коэффициент корреляции

Основная статья: Множественный коэффициент корреляции

W = 12 S m 2 ( n 3 − n ) {\displaystyle W={\frac {12S}{m^{2}(n^{3}-n)}}}

S = ∑ i = 1 n ( ∑ j = 1 m R i j ) 2 − ( ∑ i = 1 n ∑ j = 1 m R i j ) 2 n {\displaystyle S=\sum _{i=1}^{n}{(\sum _{j=1}^{m}{R_{ij}})^{2}}-{\frac {(\sum _{i=1}^{n}{\sum _{j=1}^{m}{R_{ij}}})^{2}}{n}}}

m {\displaystyle m} — число групп, которые ранжируются.

n {\displaystyle n} — число переменных.

R i j {\displaystyle R_{ij}} — ранг i {\displaystyle i} -фактора у j {\displaystyle j} -единицы.

Значимость:

χ 2 = m ( n − 1 ) ∗ W {\displaystyle \chi ^{2}=m(n-1)*W}

χ 2 k p = ( α ; ( n − 1 ) ( m − 1 ) ) {\displaystyle {\chi ^{2}}_{kp}=(\alpha ;(n-1)(m-1))}

χ 2 > χ 2 k p {\displaystyle \chi ^{2}>{\chi ^{2}}_{kp}} , то гипотеза об отсутствии связи отвергается.

В случае наличия связанных рангов:

W = 12 S m 2 ( n 3 − n ) − m ∑ j = 1 m ( t 3 j − t j ) {\displaystyle W={\frac {12S}{m^{2}(n^{3}-n)-m\sum _{j=1}^{m}{({t^{3}}_{j}-t_{j})}}}}

χ 2 = 12 S m n ( n + 1 ) − ∑ j = 1 m ( t 3 j − t j ) n − 1 {\displaystyle \chi ^{2}={\frac {12S}{mn(n+1)-{\frac {\sum _{j=1}^{m}{({t^{3}}_{j}-t_{j})}}{n-1}}}}}

  • Неравенство Коши — Буняковского:

если принять в качестве скалярного произведения двух случайных величин ковариацию ⟨ X , Y ⟩ = c o v ( X , Y ) {\displaystyle \langle X,Y\rangle =\mathrm {cov} (X,Y)} , то норма случайной величины будет равна ‖ X ‖ = D {\displaystyle \|X\|={\sqrt {\mathrm {D} }}} , и следствием неравенства Коши — Буняковского будет: − 1 ⩽ R X , Y ⩽ 1 {\displaystyle -1\leqslant \mathbb {R} _{X,Y}\leqslant 1} .

  • Коэффициент корреляции равен ± 1 {\displaystyle \pm 1} тогда и только тогда, когда X {\displaystyle X} и Y {\displaystyle Y} линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):

R X , Y = ± 1 ⇔ Y = k X + b , k ≠ 0 {\displaystyle \mathbb {R} _{X,Y}=\pm 1\Leftrightarrow Y=kX+b,k\neq 0} , где k , b ∈ R {\displaystyle k,b\in \mathbb {R} } . Более того в этом случае знаки R X , Y {\displaystyle \mathbb {R} _{X,Y}} и k {\displaystyle k} совпадают: sgn ⁡ R X , Y = sgn ⁡ k {\displaystyle \operatorname {sgn} \mathbb {R} _{X,Y}=\operatorname {sgn} k} . Доказательство

Рассмотрим случайные величины X и Y c нулевыми средними, и дисперсиями, равными, соответственно, X 2 ¯ = σ X 2 {\displaystyle {\overline {X^{2}}}=\sigma _{X}^{2}} и Y 2 ¯ = σ Y 2 {\displaystyle {\overline {Y^{2}}}=\sigma _{Y}^{2}} . Подсчитаем дисперсию случайной величины ξ = a X + b Y {\displaystyle \xi =aX+bY} :

σ ξ 2 = ( a X + b Y ) 2 ¯ = a 2 X 2 ¯ + b 2 Y 2 ¯ + 2 a b X Y ¯ . {\displaystyle \sigma _{\xi }^{2}={\overline {(aX+bY)^{2}}}=a^{2}{\overline {X^{2}}}+b^{2}{\overline {Y^{2}}}+2ab{\overline {XY}}.}

Если предположить, что коэффициент корреляции

R X , Y = X Y ¯ σ X σ Y = ± 1 , {\displaystyle \mathbb {R} _{X,Y}={\frac {\overline {XY}}{\sigma _{X}\sigma _{Y}}}=\pm 1,}

то предыдущее выражение перепишется в виде

Поскольку всегда можно выбрать числа a и b так, чтобы a σ X ± b σ Y = 0 {\displaystyle a\sigma _{X}\pm b\sigma _{Y}=0} (например, если σ Y ≠ 0 {\displaystyle \sigma _{Y}\neq 0} , то берём произвольное a и b = ∓ σ X σ Y a {\displaystyle b=\mp {\frac {\sigma _{X}}{\sigma _{Y}}}\,a} ), то при этих a и b дисперсия σ ξ 2 = 0 {\displaystyle \sigma _{\xi }^{2}=0} , и значит ξ = a X + b Y = 0 {\displaystyle \xi =aX+bY=0} почти наверное. Но это и означает линейную зависимость между X и Y. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на X − X ¯ {\displaystyle X-{\overline {X}}} , и Y — на Y − Y ¯ {\displaystyle Y-{\overline {Y}}} .

  • Если X , Y {\displaystyle X,Y} независимые случайные величины, то R X , Y = 0 {\displaystyle \mathbb {R} _{X,Y}=0} . Обратное в общем случае неверно.

коррелировать

Смотреть что такое «коррелировать» в других словарях:

  • коррелировать — сопоставлять устанавливать — Тематики нефтегазовая промышленность Синонимы сопоставлятьустанавливать EN correlate … Справочник технического переводчика

  • Коррелировать — то есть производить расчет корреляции (математической или статистической взаимосвязи) между признаками … Физическая Антропология. Иллюстрированный толковый словарь.

  • коррелировать — коррел ировать, рует … Русский орфографический словарь

  • коррелировать — (I), коррели/рую, руешь, руют … Орфографический словарь русского языка

  • коррелировать — рую, руешь; нсв. Книжн. Находиться в отношениях корреляции. Эти процессы коррелируют друг с другом … Энциклопедический словарь

  • КОРРЕЛИРОВАТЬ — Помещать что то в ситуацию, в которой оно находится в известном соотношении с другими вещами. 2. Вычислять коэффициент корреляции … Толковый словарь по психологии

  • Коррелировать — устанавливать корреляцию между взаимосвязанными явлениями … Словарь экономических терминов и иностранных слов

  • коррелировать — рую, руешь; нсв.; книжн. Находиться в отношениях корреляции. Эти процессы коррелируют друг с другом … Словарь многих выражений

  • коррелировать — коррел/ир/ова/ть … Морфемно-орфографический словарь

  • Валидность конвергентная и дискриминантная — (лат. convergens – приближаться, сходиться; discrivinans – различающий, разделяющий) – степень, в какой любой определённый инструмент тестирования обладает валидностью, если мера значения, полученная по этому тесту будет: а) коррелировать с… … Энциклопедический словарь по психологии и педагогике

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *