Поиск объектов указанием связей между шаблонами. Что такое корреляция. Список использованной литературы

Корреляционно-регрессионный анализ - один из наиболее широко распространенных и гибких приемов обработки стати­стических данных. Данный метод начинает свой отсчет с 1795 г., когда английский исследователь Фрэнсис Гальтон предложил теоретические основы регрессионного метода, а в 1801 г. рассчи­тал с его помощью траекторию полета планеты Церера. Им же введен в статистику термин «корреляция». Можно также назвать

французского кристаллографа Огюста Браве, немецкого физика Густава Теодора Фехнера, английского экономиста и статистика Фрэнсиса Эджуорта, впервые высказывавших в середине-конце XIX в. идеи о количественном измерении связей явлений. В раз­ное время над теорией анализа работали известные в области теоретической статистики ученые Карл Фридрих Гаусс (Герма­ния), Адриен Мари Лежандр (Франция), Карл Пирсон (Англия) и др.

Корреляционно-регрессионный анализ состоит в построении и анализе экономико-математической модели в виде уравнения регрессии (корреляционной связи), характеризующего зависи­мость признака от определяющих его факторов.

Корреляционно-регрессионный анализ предполагает сле­дующие этапы:

Предварительный анализ (здесь формулируются основные направления всего анализа, определяется методика оценки ре­зультативного показателя и перечень наиболее существенных факторов);

Сбор информации и ее первичная обработка;

Построение модели (один из важнейших этапов);

Оценка и анализ модели.

Задачи корреляционного анализа сводятся к выделению важ­нейших факторов, которые влияют на результативный признак, измерению тесноты связи между факторами, выявлению неиз­вестных причин связей и оценке факторов, оказывающих макси­мальное влияние на результат.

Задачи регрессионного анализа заключаются в установлении формы зависимости, определении уравнения регрессии и его ис­пользовании для оценки неизвестных значений зависимой пере­менной, прогнозировании возможных значений результативного признака при задаваемых значениях факторных признаков.



При использовании корреляционно-регрессионного анализа необходимо соблюдать следующие требования.

1. Совокупность исследуемых исходных данных должна быть однородной и математически описываться непрерывными функциями.

2. Все факторные признаки должны иметь количественное (цифровое) выражение.

3. Необходимо наличие массовости значений изучаемых по­казателей.

4. Причинно-следственные связи между явлениями и процес­сами могут быть описаны линейной или приводимой к линейной формой зависимости.

5. Не должно быть количественных ограничений на парамет­ры модели связи.

6. Необходимо обеспечить постоянство территориальной и временной структуры изучаемой совокупности.

Корреляция - статистическая зависимость между случай­ными величинами, не имеющими строго функционального харак­тера, при которой изменение одной из случайных величин приво­дит к изменению математического ожидания другой.

В статистике принято различать следующие варианты зави­симостей.

1. Парная корреляция - связь между двумя признаками (ре­зультативным и факторным).

2. Частная корреляция - зависимость между результатив­ным и одним из факторных признаков при фиксированном значе­нии других факторных признаков.

3. Множественная корреляция - зависимость результатив­ного и двух или более факторных признаков, включенных в ис­следование.

Корреляционная связь - частный случай стохастической связи и состоит в том, что разным значениям одной переменной соответствуют различные средние значения другой.

Обязательное условие применения корреляционного метода - массовость значений изучаемых показателей, что позволяет вы­явить тенденцию, закономерность развития, форму взаимосвязи между признаками. Тогда, в соответствии с законом больших, чи­сел, влияние других факторов сглаживается, нейтрализуется. На­личие корреляционной связи присуще многим общественным явлениям.

Показатели тесноты связи между признаками называют ко­эффициентами корреляции. Их выбор зависит от того, в каких шкалах измерены признаки. Основными шкалами являются:

1) номинальная шкала (наименований) предназначена для описания принадлежности объектов к определенным социальным группам (например, коэффициенты ассоциации и контингенции, коэффициенты Пирсона и Чупрова);

2) шкала порядка (ординальная) применяется для измерения упорядоченности объектов по одному или нескольким признакам (например, коэффициенты Спирмена и Кенделла);

3) количественная шкала используется для описания количе­ственных показателей - например, линейный коэффициент кор­реляции и корреляционное отношение.

Корреляционный анализ - метод статистического исследо­вания экспериментальных данных, позволяющий определить сте­пень линейной зависимости между переменными.

Парная линейная корреляция - простейшая система корре­ляционной связи, представляющая линейную связь между двумя признаками. Ее практическое значение состоит в выделении од­ного важнейшего фактора, который и определяет вариацию ре­зультативного признака.

Для определения степени тесноты парной линейной зависи­мости служит линейный коэффициент корреляции, который был впервые введен в начале 1890-х гг. Пирсоном, Эджуортом и Велдоном. В теории разработаны и на практике применяются раз­личные варианты формул расчета данного коэффициента:

Где ,

где n - число наблюдений.

При малом числе наблюдений для практических вычислений линейный коэффициент корреляции удобнее исчислять по формуле:

,

где r принимает значения в пределах от -1 до 1.

Чем ближе линейный коэффициент корреляции по абсолют­ной величине к I, тем теснее связь. С другой стороны, если он ра­вен 1, то зависимость является не стохастической, а функциональ­ной. Знак при нем указывает направление связи: знак «-» соответ­ствует обратной зависимости, «+» - прямой. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

Степень взаимного влияния факторов в зависимости от ко­эффициента корреляции приведена в табл. 1.

Таблица 1

Количественная оценка тесноты связи

при различных значениях коэффициента корреляции

После того, как с помощью корреляционного анализа выяв­лено наличие статистических связей между переменными и оце­нена степень их тесноты, обычно переходят к математическому описанию зависимостей, то есть к регрессионному анализу.

Термин «регрессия» (произошел от латинского regression - отступление, возврат к чему-либо) был также введен Ф. Гальтоном в 1886 г. Обрабатывая статистические данные в связи с ана­лизом наследственности роста, он отметил прямую зависимость между ростом родителей и их детей (наблюдение само по себе не слишком глубокое). Но относительно старших сыновей ему уда­лось установить более тонкую зависимость. Он рассчитал, что средний рост старшего сына лежит между средним ростом насе­ления и средним ростом родителей. Если рост родителей выше среднего, то их наследник, как правило, ниже; если средний рост родителей ниже среднего, то рост их потомка выше. Когда Гальтон нанес на график средний рост старших сыновей для различ­ных значений среднего роста родителей, он получил почти пря­мую линию, проходящую через нанесенные точки.

Поскольку рост потомства стремится двигаться к среднему, Гальтон назвал это явление регрессией к среднему состоянию, а ли­нию, проходящую через точки на графике, - линией регрессии.

Регрессивный анализ применяется в тех случаях, когда необ­ходимо отыскать непосредственно вид зависимости х и у. При этом предполагается, что независимые факторы не случайные величины, а результативный показатель у имеет постоянную, не­зависимую от факторов дисперсию и стандартное отклонение.

Одна из проблем построения уравнения регрессии - размер­ность, то есть определение числа факторных признаков, вклю­чаемых в модель. Их число должно быть оптимальным.

Сокращение размерности за счет исключения второстепен­ных, несущественных факторов позволяет получить модель, бы­стрее и качественнее реализуемую. В то же время построение мо­дели малой размерности может привести к тому, что она будет недостаточно полно описывать исследуемое явление или процесс в единой системе национального счетоводства.

При построении модели число факторных признаков должно быть в 5-6 раз меньше объема изучаемой совокупности.

Если результативный признак с увеличением факторного признака равномерно возрастает или убывает, то такая зависи­мость является линейной и выражается уравнением прямой.

Линейная регрессия сводится к нахождению уравнения вида:

где х - индивидуальное значение факторного признака; а 0 , а 1 - параметры уравнения прямой (уравнения регрессии); у х - теоре­тическое значение результирующего фактора.

Данное уравнение показывает среднее значение изменения ре­зультативного признака х на одну единицу его измерения. Знак па­раметра показывает направление этого изменения. На практике по­строение линейной регрессии сводится к оценке ее параметров а 0 , а 1.

При классическом подходе параметры уравнения а 0 , а 1 нахо­дятся методом наименьших квадратов, который позволяет полу­чить такие оценки параметров, при которых сумма квадратов от­клонений фактических значений результативного признака у от расчетных, теоретических (у х) была бы минимальной.

Для нахождения минимума данной функции приравняем к нулю частные производные и тем самым получим систему двух линейных уравнений, которая называется системой нормальных уравнений:

В уравнении прямой параметр а 0 экономического смысла не имеет, параметр а 1 является коэффициентом регрессии и показы­вает изменение результативного признака при изменении фак­торного на единицу.

Или по следующим формулам:

Где , , ,

Между линейным коэффициентом корреляции и коэффици­ентом регрессии существует определенная зависимость, выра­женная формулой

Часто исследуемые признаки имеют разные единицы измере­ния, поэтому для оценки влияния факторного признака на ре­зультативный применяется коэффициент эластичности. Он рас­считывается для каждой точки и в среднем по всей совокупности по формуле:

где у" х - первая производная уравнения регрессии.

Коэффициент эластичности показывает, на сколько процен­тов изменяется результативный признак при изменении фактор­ного признака на 1%.

Чтобы иметь возможность судить о сравнительной связи влияния отдельных факторов и о тех резервах, которые в них за­ложены, должны быть вычислены частные (средние) коэффициенты эластичности .

Различия в единицах измерения факторов устраняют с помо­щью частных (средних) коэффициентов эластичности , которые рассчитываются по формуле:

где а i - коэффициент регрессии при факторе х; - средние значения факторного и результативного признаков.

Частные коэффициенты эластичности показывают, на сколь­ко процентов в среднем изменяется анализируемый показатель с изменением на 1 % каждого фактора при фиксированном поло­жении других факторов.

Альтернативным показателем степени зависимости между двумя переменными является линейный коэффициент детерми­нации , представляющий собой квадрат линейного коэффициента корреляции r 2 . Его числовое значение всегда заключено в пределе от 0 до 1. Он характеризует долю вариации (разброса) зависимой переменной. Значение коэффициента детерминации непосредст­венно указывает степень влияния независимого фактора на ре­зультативный показатель.

Степень тесноты связи полностью соответствует теоретиче­скому корреляционному отношению , которое является универ­сальным показателем тесноты связи по сравнению с линейным коэффициентом корреляции.

С помощью теоретического корреляционного отношения из­меряется теснота связи любой формы, а посредством линейного коэффициента корреляции - только прямолинейной связи.

Теоретическое корреляционное отношение рассчитывается по формулам:

где - факторная дисперсия; - общая дисперсия.

Для упрощения расчетов меры тесноты корреляционной свя­зи часто применятся индекс корреляционной связи, который оп­ределяется по формулам:

где - остаточная дисперсия.

Линейные модели отличаются простой интерпретируемостью и хорошо разработанными приемами оценивания коэффициентов регрессии. Обычно для них все три наиболее распространенных метода статистического оценивания - максимального правдопо­добия, наименьших квадратов и моментов - дают оптимальные решения и соответственно приводят к оценкам, обладающим ли­нейностью, эффективностью, несмещенностью. Принимая во внимание, что линейные регрессионные модели не могут с оди­наково высокой степенью достоверности описывать многообраз­ные процессы, происходящие в реальности, их дополняет боль­шой класс нелинейных моделей. Для последних, однако, с учетом их сложности и специфичности приемов параметрического оце­нивания предпочтительным остается приведение к простой ли­нейной форме.

Корреляция - это степень, в которой события или личные характеристики человека зависят друг от друга. Корреляционный метод - процедура в исследовании, использующаяся, чтобы определить взаимосвязь между переменными. Данный метод может, например, ответить на вопрос: «существует ли корреляция между количеством стресса, с которым сталкиваются люди и степенью испытываемой ими депрессии?» То есть, по мере того, как люди продолжают переживать стресс, насколько увеличивается вероятность того, что они впадут в депрессию?

Корреляция - степень зависимости друг от друга событий или характеристик.

Корреляционный метод - процедура исследований, которая используется для определения того, насколько события или характеристики зависят друг от друга.

Чтобы ответить на этот вопрос, исследователи подсчитывают баллы жизненного стресса (например, количество угрожающих событий, переживаемых человеком в определенный период времени) и баллы депрессии (например, баллы в опросниках по депрессии). Как правило, исследователи обнаруживают, что эти переменные увеличиваются или уменьшаются вместе (Stader & Hokanson, 1998; Paykel & Cooper, 1992). To есть чем больше количество баллов стресса в жизни определенного человека, тем выше его или ее сумма баллов по депрессии. Корреляции такого рода имеют позитивную направленность и их называют позитивной корреляцией.

Корреляция может иметь и негативную, а не позитивную направленность. При негативной корреляции, когда значение одной переменной возрастает, значение другой уменьшается. Исследователи обнаружили, например, негативную корреляцию между депрессией и уровнем активности. Чем больше депрессия человека, тем меньше его занятость.

Существует еще и третья взаимосвязь в корреляционном исследовании. Две переменные могут быть не взаимосвязаны, то есть между ними не существует последовательной взаимосвязи. Когда число одной переменной возрастает, показатели другой переменной иногда возрастают, иногда уменьшаются. Исследования обнаружили, например, что депрессия и интеллект не зависят друг от друга.

Кроме знания направленности корреляции исследователям нужно знать ее величину или силу. То есть насколько близко эти две переменные соотносятся между собой. Действительно ли одна переменная всегда зависит от другой или их взаимосвязь менее определенна? Когда обнаруживается тесная взаимосвязь двух переменных у многих испытуемых, то говорят, что корреляция - высокая или устойчивая.

Направленность и величина корреляции часто имеет численное значение и выражается в статистическом понятии - коэффициенте корреляции (r). Коэффициент корреляции может варьироваться от +1.00, показывающего полную позитивную корреляцию между двумя переменными, и до -1.00 - этот коэффициент указывает на полную негативную корреляцию. Знак коэффициента (+ или -) обозначает направленность корреляции; число представляет ее величину. Чем ближе коэффициент к 0, тем слабее корреляция и меньше ее величина. Так корреляции +0.75 и -0.75 имеют одинаковые величины, а корреляция +.25 слабее и той и другой корреляции.

Коэффициент корреляции (r) - статистический термин, указывающий направленность и величину корреляции, колеблющийся от -1.00 до +1.00.

Поведение людей меняется, и многие человеческие реакции можно оценивать лишь приблизительно. Поэтому в психологических исследованиях корреляции не достигают величины полной позитивной или полной негативной корреляции. В одном исследовании стресса и депрессии, проводившемся с 68 взрослыми, корреляция между двумя переменными составила +0.53 (Miller et al., 1976). Несмотря на то, что эту корреляцию едва ли можно назвать абсолютной, ее величина в психологическом исследовании считается большой.

Корреляционный метод

Модификацией метода сравнения с эталоном является корреляционный метод, основанный на вычислении взаимокорреляционной функции между эталоном и изображением.

Корреляция -- статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.

Корреляционный анализ -- метод обработки статистических данных, заключающийся в изучении коэффициентов корреляции между переменными. При этом сравниваются коэффициенты корреляции между одной парой или множеством пар признаков для установления между ними статистических взаимосвязей.

Цель корреляционного анализа -- обеспечить получение некоторой информации об одной переменной с помощью другой переменной. В случаях, когда возможно достижение цели, говорят, что переменные коррелируют. В самом общем виде принятие гипотезы о наличии корреляции означает что изменение значения переменной А, произойдет одновременно с пропорциональным изменением значения Б.

Классификация изображений проводится по результату: чем больше значение функции взаимной корреляции, тем с большей вероятностью эталон совпадает с изображением. Используя обозначения, принятые в выражении, формулу для вычисления взаимокорреляционной функции К можно представить в виде

Максимальное значение взаимокорреляционной функции равно,

и достигается при полном совпадении изображения с эталоном. Нормированная взаимокорреляционная функция

при совпадении эталона с изображением достигает максимального значения, равного единице.

Использование корреляционного метода и метода прямого сравнения с эталоном предъявляет к процессу предварительной обработки изображений общие требования. Они заключаются в том, что изображение и эталон должны быть одинаково ориентированы, иметь равный масштаб и не быть сдвинутыми друг относительно друга в поле изображения. Другим свойством этих методов, которое следует учитывать, является необходимость использования большого количества эталонов. Это особенно важно в тех случаях, когда решаются задачи распознавания объектов изменением их проекции.

Распознавание через связь шаблонов

Поиск объектов указанием связей между шаблонами

Часто наблюдаемый объект обладает внутренними степенями свободы, а это означает, что его внешний вид может сильно варьироваться (например, люди могут двигать руками и ногами, рыбы деформируются при плавании, змеи извиваются и т.д.). Данное явление может чрезвычайно затруднить сравнение с шаблоном, поскольку потребуется либо классификатор с гибкими границами (и множество образцов), либо много различных шаблонов.

Многие объекты названного типа содержат небольшое число компонентов, довольно строго упорядоченных. Можно попытаться согласовать данные компоненты как шаблоны, а затем определить, какие объекты присутствуют, изучив предложенные связи между найденными шаблонами. Например, вместо поиска лица по одному полному шаблону лица, можно искать глаза, нос и рот с приемлемым взаимным расположением.

Данный подход имеет несколько потенциальных преимуществ. Во-первых, узнать шаблон глаза может быть легче, чем узнать шаблон лица, поскольку первая структура очевидно проще. Во-вторых, можно получить и использовать относительно простые вероятностные модели, поскольку могут существовать некоторые свойства независимости, которые можно будет использовать. В-третьих, возможно, удастся согласовать большое число объектов с относительно небольшим числом шаблонов. Хороший пример этого явления -- морды животных; почти все животные с характерными мордами имеют глаза, нос и рот, отличается лишь пространственное расположение этих элементов. Наконец, из сказанного следует, что для построения сложных объектов можно использовать простые отдельные шаблоны. Например, люди могут двигать руками и ногами, и похоже, что обучить цельный явный шаблон обнаруживать людей целиком значительно сложнее, чем получить отдельные шаблоны для частей тела и вероятностную модель, описывающую их степени свободы.

Рассматриваемая тема не настолько хорошо изучена, чтобы к ней выработался какой-либо стандартный подход. В то же время основной вопрос достаточно очевиден -- как закодировать набор связей между шаблонами в форму, с которой легко работать. В данной главе изучается ряд различных подходов к данной задаче. Во-первых, каждый шаблон может указывать на объекты, которые он может представлять, а затем каким-то образом считается число указателей. Если построить некоторую явную вероятностную модель, для описания деталей пространственных отношений можно использовать больше весовых коэффициентов. Данную модель можно получить из функций правдоподобия; по сути, нужна функция распределения вероятностей, дающая большое значение, когда конфигурация компонентов подобна объекту, и малое -- в противном случае. Тогда поиск объектов превращается в поиск шаблонов, которые при подстановке в вероятностную модель дают большие значения. Нужно отметить, что следует внимательно относиться к сокращению поиска. Сложность этого подхода заключается в том, что даже при сокращении поиск может быть дорогим. Как утверждают Форсайт и Понс, в то же время при определенном классе вероятностных моделей можно провести эффективный поиск .

Простые модели объектов могут обеспечивать достаточно эффективное распознавание. Простейшая модель -- это рассматривать объект как набор фрагментов изображения (небольших окрестностей элементов характерного вида) нескольких различных типов, формирующих образ (pattern). Чтобы определить, какой образ наблюдается, находятся все фрагменты, каждый из которых указывает на все образы, в которые он входит. То изображение, на которое было указано наибольшее число, и считается присутствующим. Хотя данная стратегия проста, она довольно эффективна. Ниже описываются методы поиска фрагментов, а затем представляется ряд последовательно усложняющихся реализаций данной стратегии.

Корреляционные методы (correlation methods)

К. м., получившие свое назв. благодаря тому, что основываются на «со-отношении» («co-relation») переменных, представляют собой статистические методы, начало к-рым было положено в работах Карла Пирсона примерно в конце XIX в. Они тесно связаны с понятием регрессии, еще раньше сформулированным сэром Фрэнсисом Гальтоном, к-рый первым начал статистически изучать связь между ростом отцов и сыновей. Именно Гальтон нанял Пирсона в качестве статистика для обработки рез-тов исслед., к-рые он и его отец, находясь под влиянием идей своих родственников - Дарвинов, проводили с целью определения вклада наследственности в развитие челов. качеств. Благодаря этому сотрудничеству между Гальтоном и Пирсоном и более ранним открытиям первого в области регрессионного анализа символ «r» (первая буква слова regression) исторически закрепился в качестве маркера К. м.

Корреляция как произведение моментов

Пирсон определял коэффициент корреляции как «среднее произведение Z-оценок». С этих пор r известен всем как коэффициент произведения моментов:

r = (aZxZy) / N.

Его обоснованное вычисление предполагает, что: а) две коррелируемые переменные непрерывны и нормально распределены; б) линии наилучшего соответствия для совместного двумерного распределения яв-ся прямыми; в) одинаковая вариабельность сохраняется по всей широте совместного распределения переменных. Простая формула для вычисления коэффициента корреляции произведения моментов Пирсона по «сырым» (нестандартизованным) данным выглядит следующим образом:

Бисериальная корреляция

Разновидностью коэффициента корреляции произведения моментов яв-ся бисериальный коэффициент корреляции, тж разраб. Пирсоном. В тех случаях, когда только одна из переменных непрерывна и имеет приемлемо нормальное распределение, а др. искусственно дихотомизирована (предполагается, что она тоже непрерывна и нормально распределена, но представлена в бинарной форме, напр.: «справился/не справился»), связь между этими двумя переменными тж можно выразить при помощи r. В этом случае коэффициент корреляции обозначается через rbis. Как и коэффициент произведения моментов r, он изменяется в диапазоне от +1,00 (прямая функциональная связь) через 0,00 (отсутствие связи) до -1,00 (обратная функциональная связь). Метод бисериальной корреляции оказался весьма полезным в процедурах анализа заданий, т. к. он измеряет связь между рез-тами выполнения каждого задания теста, выраженными в бинарной форме («справился/не справился»), и общей оценкой по данному тесту.

Точечно-бисериальная корреляция

Последующая модификация коэффициента корреляции произведения моментов получила отражение в точечно бисериальном r. Эта стат. показывает связь между двумя переменными, одна из к-рых предположительно непрерывна и нормально распределена, а др. яв-ся дискретной в точном смысле слова. Точечно-бисериальный коэффициент корреляции обозначается через rpbis Поскольку в rpbis дихотомия отражает подлинную природу дискретной переменной, а не яв-ся искусственной, как в случае rbis, его знак определяется произвольно. Поэтому для всех практ. целей rpbis рассматривается в диапазоне от 0,00 до +1,00.

Существует и такой случай, когда две переменные считаются непрерывными и нормально распределенными, но обе искусственно дихотомизированы, как в случае бисериальной корреляции. Для оценки связи между такими переменными применяется тетрахорический коэффициент корреляции rtet, к-рый был тж выведен Пирсоном. Осн. (точные) формулы и процедуры для вычисления rtet достаточно сложны. Поэтому при практ. применении этого метода используются приближения rtet, получаемые на основе сокращенных процедур и таблиц.

Ранговая корреляция

Непараметрический аналог параметрических методов корреляции существует в форме коэффициента ранговой корреляции, обозначаемого греческой буквой ρ(ро). Он применяется для определения степени связи между двумя переменными, значения к-рых представлены рангами, а не «сырыми» или стандартизованными оценками. Логическое обоснование вывода коэффициента ρ не требует соблюдения строго определенного набора допущений, и потому ρ является непараметрической стат. Его формула, получаемая из формулы произведения моментов Пирсона путем замены интервальных данных на ранжированные, приводится к виду:

ρ = 1 - (6Σd2) / N(N2 - 1), где d - ранговая разность, а N - число пар вариантов.

Множественная корреляция

Методы корреляции произведения моментов Пирсона и линейного регрессионного анализа Гальтона были обобщены и расширены в 1897 г. Джорджем Эдни Юлом до модели множественной линейной регрессии, предполагающей использование многомерного нормального распределения. Методы множественной корреляции позволяют оценить связь между множеством непрерывных независимых переменных и одной зависимой непрерывной переменной. Коэффициент множественной корреляции обозначается через R0.123...p Его вычисление требует решения совместной системы линейных уравнений. Число линейных уравнений равно числу независимых переменных.

Иногда необходимо исключить эффект третьей переменной, с тем чтобы определить «чистую» связь между любой парой переменных. Частный (парциальный) коэффициент корреляции выражает связь между двумя переменными при исключенном (элиминированном) влиянии еще одной или неск. др. переменных. В простейшем случае частный коэффициент корреляции вычисляется как функция парных корреляций (произведений моментов) между Y, X1 и Х2:

Если требуется исключить влияние двух переменных, скажем, Х2 и Х3, то формула принимает вид:

Каноническая корреляция

Множественная корреляция, позволяющая оценивать тесноту связи между множеством независимых переменных и одной из множества зависимых переменных, представляет собой частный случай более общего метода - канонической корреляции. Этот метод был разраб. в 1935 г. Гарольдом Хотеллингом. Коэффициенты канонической корреляции (RCi) определяются на двух множествах переменных. Чтобы показать связи, существующие между этими двумя множествами непрерывных переменных, вычисляется неск. канонических коэффициентов; их число определяется по числу переменных в меньшем множестве (если число переменных в них не одинаково). При канонической корреляции в обоих множествах (по отдельности) отыскиваются линейные комбинации входящих в них переменных, позволяющие определить (новые) координатные оси в пространстве каждого множества. Каждая такая линейная комбинация наз. канонической величиной (или канонической переменной). Канонические переменные отличаются друг от друга весами, к-рые они придают первичным переменным в соотв. множестве. Каноническая корреляция - это корреляция произведения моментов между парой канонических переменных, по одной из каждого множества. Т. о., каждый коэффициент канонической корреляции является мерой тесноты линейной связи между двумя координатными осями соотв. множеств переменных. Каноническая корреляция яв-ся методом многомерного статистического анализа.

Не со всеми проблемами можно справиться экспериментальным методом. Существует множество ситуаций, когда исследователь не может контролировать, какие испытуемые попадают в те или иные условия. Например, если надо проверить гипотезу, что люди с анорексией более чувствительны к изменениям вкуса, чем люди с нормальным весом, то не можем же мы собрать группу испытуемых с нормальным весом и потребовать, чтобы у половины из них появилась анорексия! На самом деле нам придется отобрать людей, уже страдающих анорексией, и тех, у кого вес в норме, и проверить, различаются ли они также по вкусовой чувствительности. Вообще говоря, можно использовать метод корреляций, чтобы определить связана ли некоторая переменная, которую мы не можем контролировать, с другой интересующей нас переменной, или, иначе говоря, коррелируют ли они между собой.

В вышеприведенном примере у переменной веса есть только два значения -- нормальный и анорексичный. Чаще случается, что каждая из переменных может принимать много значений, и тогда надо определить, насколько величины одной и другой переменной коррелируют между собой. Определить это может статистический параметр, называемый коэффициентом корреляции и обозначаемый буквой r. Коэффициент корреляции позволяет оценить, насколько связаны две переменные, и выражается числом от -1 до +1. Ноль означает отсутствие связи; полная связь выражается единицей (+1, если отношение положительное, и -1, если оно отрицательное). По мере увеличения r от 0 до 1 сила связи возрастает.

Рис.6.

Эти гипотетические данные принадлежат 10 пациентам, каждый из которых имеет некоторое повреждение участков мозга, ответственных, насколько известно, за узнавание лиц. На рис. 6а пациенты располагаются вдоль горизонтали соответственно объему повреждения мозга, причем самая левая точка показывает пациента с наименьшим повреждением (10%), а самая правая точка показывает пациента с наибольшим повреждением (55%). Каждая точка на графике отражает показатель для отдельного пациента в тесте на узнавание лиц. Корреляция положительная и равна 0,90. На рис. 6б изображены те же самые данные, но теперь они показывают долю правильных ответов, а не ошибок. Здесь корреляция отрицательная, равная -0,90. На рис..6в успехи пациентов в тесте на распознавание отображены в зависимости от их роста. Здесь корреляция равна нулю.

Суть коэффициента корреляции можно пояснить на примере графического представления данных гипотетического исследования. Как показано на рис. 6а, в исследовании участвуют пациенты, о которых заранее известно, что у них поврежден мозг, и это вызвало разной степени трудности в узнавании лиц (прозопагнозия). Предстоит выяснить, возрастает ли трудность, или ошибка узнавания лиц, с увеличением процента поврежденной мозговой ткани. Каждая точка на графике 6а показывает результат для отдельного пациента при его тестировании на узнавание лиц. Например, пациент с 10%-ным повреждением ошибался в тесте на распознавание лиц в 15% случаев, а пациент с 55%-ным повреждением делал ошибки в 95% случаев. Если бы ошибка узнавания лиц постоянно возрастала с увеличением процента повреждения мозга, точки на графике располагались бы все время выше при движении слева направо; если бы они размещались на диагонали рисунка, коэффициент корреляции был бы r = 1,0. Однако несколько точек расположены по разные стороны этой линии, поэтому корреляция составляет около 90%. Корреляция 90% означает очень сильную связь между объемом поврежденного мозга и ошибками узнавания лиц. Корреляция на рис. 6а -- положительная, поскольку большее повреждение мозга вызывает больше ошибок.

Если бы вместо ошибок мы решили отобразить долю правильных ответов в тесте на распознавание, то получили бы график, изображенный на рис. 6б. Здесь корреляция отрицательная (равная примерно -0,90), поскольку с увеличением повреждения мозга доля правильных ответов уменьшается. Диагональ на рис. 6б -- это просто инверсный вариант той, что на предыдущем рисунке.

Наконец, обратимся к графику на рис. 6в. Здесь отображена доля ошибок пациентов в тесте на распознавание лиц в зависимости от их роста. Разумеется, нет оснований считать, что доля узнанных лиц связана с ростом пациента, и график подтверждает это. При движении слева направо точки не проявляют согласованного движения ни вниз, ни вверх, а разбросаны вокруг горизонтальной линии. Корреляция равна нулю.

Числовой метод вычисления коэффициента корреляции описан в Приложении II. Сейчас, однако, мы сформулируем несколько элементарных правил, которые помогут вам разобраться с коэффициентом корреляции, когда вы встретитесь с ним в последующих главах.

Корреляция бывает положительной (+) и отрицательной (-). Знак корреляции показывает, связаны ли две переменные положительной корреляцией (величина обеих переменных растет или уменьшается одновременно) или отрицательной корреляцией (одна переменная растет при уменьшении другой). Предположим, например, что количество пропусков занятий студентом имеет корреляцию -0,40 с баллами в конце семестра (чем больше пропусков, тем меньше баллов). С другой стороны, корреляция между полученными баллами и количеством посещенных занятий будет +0,40. Прочность связи одна и та же, но знак ее зависит от того, считаем ли мы пропущенные или посещенные занятия.

По мере усиления связи двух переменных r увеличивается от 0 до 1. Чтобы лучше это представить, рассмотрим несколько известных положительных коэффициентов корреляции:

Коэффициент корреляции между баллами, полученными в первый год обучения в колледже, и баллами, полученными на втором году, составляет около 0,75.

Корреляция между показателями геста на интеллект в возрасте 7 лет и при повторном тестировании в 18 лет составляет примерно 0,70.

Корреляция между ростом одного из родителей и ростом ребенка во взрослом возрасте, составляет около 0,50.

Корреляция между результатами теста на способность к обучению, полученными в школе и в колледже, равна примерно 0,40.

Корреляция между баллами, полученными индивидуумами в бланковых тестах, и суждением психолога-эксперта об их личностных качествах составляет около 0,25.

В психологических исследованиях коэффициент корреляции 0,60 и выше считается достаточно высоким. Корреляция в диапазоне от 0,20 до 0,60 имеет практическую и теоретическую ценность и полезна при выдвижении предсказаний. К корреляции от 0 до 0,20 следует относиться осторожно, при выдвижении предсказаний ее польза минимальна.

Тесты. Знакомый пример использования корреляционного метода -- тесты по измерению некоторых способностей, достижений и других психологических качеств. При тестировании группе людей, различающихся по какому-нибудь качеству (например, математическим способностям, ловкости рук или агрессивности), предъявляют некоторую стандартную ситуацию. Затем можно вычислить корреляцию между изменениями показателей данного теста и изменением другой переменной. Например, можно установить корреляцию между показателями группы студентов в тесте на математические способности и их оценками по математике при дальнейшем обучении в колледже; если корреляция значительная, то на основе результатов этого теста можно решить, кого из нового набора студентов можно перевести в группу с повышенными требованиями.

Тестирование -- важный инструмент психологических исследований. Оно позволяет психологам получать большое количество данных о людях с минимальным отрывом их от повседневных дел и без применения сложного лабораторного оборудования. Построение тестов включает множество этапов, которые мы подробно рассмотрим в последующих главах.

Корреляция и причинно-следственные связи. Между экспериментальными и корреляционными исследованиями есть важное различие. Как правило, в экспериментальном исследовании систематически манипулируют одной переменной (независимой) с целью определить ее причинное воздействие на некоторые другие переменные (зависимые). Такие причинно-следственные связи нельзя вывести из корреляционных исследований. Ошибочное понимание корреляции как причинно-следственного отношения можно проиллюстрировать на следующих примерах. Может существовать корреляция между мягкостью асфальта на улицах города и количеством солнечных ударов, случившихся за день, но отсюда не следует, что размягченный асфальт выделяет какой-то яд, приводящий людей на больничную койку. На самом деле изменение обеих этих переменных -- мягкости асфальта и числа солнечных ударов -- вызывается третьим фактором -- солнечным теплом. Еще один простой пример -- высокая положительная корреляция между большим количеством аистов, гнездящихся во французских деревнях, и высокой рождаемостью, зарегистрированной там же. Предоставим изобретательным читателям самим догадываться о возможных причинах такой корреляции, не прибегая к постулированию причинно-следственной связи между аистами и младенцами. Эти примеры служат достаточным предостережением от понимания корреляции как причинно-следственного отношения. Если между двумя переменными есть корреляция, изменение одной может вызывать изменения другой, но без специальных экспериментов такой вывод будет неоправданным.