16.11.2020

Изучение взаимосвязи между несколькими переменными. Анализ связи между переменными Виды взаимосвязей между переменными


В основе построения современной экспериментальной психологии лежит формула К. Левина - поведение есть функция личности и ситуации:

B =f(P;S).

Необихевиористы ставят в формулу вместо Р (личность) О (организм), что бо­лее точно, если считать испытуемыми не только людей, но и животных, а личность редуцировать к организму.

Как бы то ни было, большинство специалистов по теории психологического экс­перимента, в частности МакГиган , считают, что в психологии существуют два типа законов :

1) «стимул-ответ»;

2) «организм-поведение*.

Первый тип законов обнаруживается в ходе экспериментального исследования, когда стимул (задача, ситуация) - это независимая переменная, а зависимая пере­менная - ответ испытуемого.

Второй тип законов является продуктом метода систематического наблюдения и измерения, поскольку свойствами организма управлять с помощью психологичес­ких средств нельзя.

Существуют ли «пересечения»? Разумеется. Ведь в психологическом экспери­менте зачастую учитывается влияние так называемых дополнительных переменных, большинство из которых является дифференциально-психологическими характери­стиками. Следовательно, есть смысл добавить в список и «системные» законы, опи­сывающие влияние ситуации на поведение личности, обладающей определенными свойствами. Но в психофизиологических и психофармакологических эксперимен­тах можно воздействовать на состояние организма, а в ходе формирующего экспери­мента - целенаправленно и необратимо изменять те или иные свойства личности.

В классическом психологическом поведенческом эксперименте устанавливает­ся функциональная зависимость вида

R = f(S) ,

где R - ответ, a S - ситуация (стимул, задача).

Переменная S систематически ва­рьируется, а детерминируемые ею изменения ответа испытуемого фиксируются. В ходе изучения проявляются условия, при которых испытуемый ведет себя тем или иным образом. Результат фиксируется в форме линейной или нелинейной зависи­мости.

Другой тип зависимостей символизируется как зависимость поведения от лич­ностных свойств или состояний организма испытуемого:

R = f(О) или R = f(Р).

Исследуется зависимость поведения испытуемого от того или иного состояния организма (болезни, усталости, уровня активации, фрустрации потребностей и т. д.) или от личностных свойств (тревожности, мотивации и т. д.). Исследования прово­дятся с участием групп людей, различающихся по данному признаку: свойству или актуальному состоянию.

Естественно, эти две строгие зависимости являются простейшими формами от­ношений между переменными. Возможны более сложные зависимости, устанавливаемые в конкретном эксперименте, в част­ности, факторные планы позволяют выявить зависимости вида R = f (S 1 , S 2), когда ответ испытуемого зависит от двух варьируемых параметров ситуации, а поведение является функцией состояния организма и среды.


Остановимся на формуле Левина . В об­щей форме она выражает идеал эксперимен­тальной психологии: возможность предска­зать поведение конкретной личности в опре­деленной ситуации. Переменная «личность», которая входит в состав этой формулы, врядли может рассматриваться лишь как «дополнительная». Традиция необихевиоризма предлагает использовать термин «промежу­точная» переменная. В последнее время за такими «переменными» - свойствами и состояниями личности - закрепился тер­мин «переменная-модератор», т. е. посредник.

Рассмотрим основные возможные варианты отношений между зависимыми пе­ременными.

Существует, как минимум, шесть видов, связи переменных .

Первый , он же простейший, - отсутствие зависимости , Графически он выражается в форме прямой, параллельной оси абсцисс на графике, где по оси абсцисс (X) отложены уровни независимой переменной. Зависимая переменная не чувствительна к изме­нению независимой (см. рис. 4.8).

Монотонно возрастающая зависимость наблюдается тогда, когда увеличению значений независимой переменной соответствует изменение зависимой перемен­ной (см. рис. 4.9).

Монотонно убывающая зависимость наблюдается, если увеличению значений независимой переменной соответствует уменьшение уровня независимой перемен­ной (см. рис. 4.10).

Нелинейная зависимость – U-образного типа обнаруживается в большинстве экс­периментов, в которых выявляются особенности психической регуляции поведения: (см. рис. 4.11).

Инвертированная U-образная зависимость получается в многочисленных экспе­риментальных и корреляционных исследованиях как в психологии личности, моти­вации, так и в социальной психологии (см. рис. 4.12).

Последний вариант зависимости обнаруживается не так часто, как предыду­щие, - сложная квазипериодическая зависимость уровня зависимой переменной от уровня независимой (см. рис. 4.13).

При выборе способа описания работает «принцип экономии». Любое простое описание лучше, чем комплексное, даже если они одинаково успешны. Поэтому ар­гументы, распространенные в отечественных научных дискуссиях типа «Все гораз­до сложнее на самом деле, чем представляет автор» по меньшей мере бессмыслен­ны. Тем более что никто не знает, как «на самом деле».

Так называемое «комплексное описание», «многомерное описание» есть зачас­тую просто попытка уйти от решения научной проблемы, способ маскировки лич­ной некомпетентности, которую хотят скрыть за путаницей корреляционных свя­зей и сложносоставными формулами, где все всему равняется.

Анализ данных начинается с перевода «сырых» данных в осмысленную информации и включает их введение в компьютер, проверку на предмет ошибок, кодирование, представление в матричной форме (табулирование). Все это называется преобразованием исходных данных.

Далее проводится статистический анализ, т.е. определяются средние величины, частоты, корреляционные и регрессионные соотношения, осуществляется анализ трендов. После сбора данных необходимо их преобразовать, т.е. привести к более сжатому виду, удобному для анализа и обладающему достаточной для заказчика информацией. Обычно закодированные исходные данные представляются в виде матрицы, столбцы которой содержат ответы на различные вопросы анкеты, а ряды -- респондентов или изучаемые ситуации. Преобразование заключается в описании данных матрицы на языке ограниченного числа мер, характеризующих собранные данные. Табулирование помогает исследователю понять, что означают собранные данные. Одновременный анализ двух и более категорий опрашиваемых называется перекрестной табуляцией. Исследователь, осуществляя преобразование, старается найти зави­симости среди собранных данных и в то же время достигнуть наиболее высокого уровня обобщения.

Выделяют, по крайней мере, следующие четыре функции преобра­зования данных: обобщение, определение концепции (концептуализация), перевод результатов статистического анализа на понятный для менеджера язык (коммуникация), определение степени соответствия полученных результатов всей совокупности (экстраполяция). Из-за неспособности человека анализировать большие массивы ин­формации необходимо исходные собранные данные представить в удобном для осмысления виде, т.е. их необходимо обобщить, выразить через ограниченное число понятных параметров.

Большинство статистических мер основано на конкретных предпо­ложениях, которые определяют базу анализа собранных данных. Концептуализация направлена на оценку результатов обобщения. Например, слабый разброс оценок определенной марки продукта вырабатывает у исследователя одно суждение (концепцию), сильный -- другое.

Коммуникация предполагает при интерпретации полученных результатов использование понятных для заказчика категорий. Например, если для него понятна такая статистическая мера, как «мода», то она исполь­зуется при представлении полученных результатов, если нет, то результаты описываются на общепринятом языке.

Экстраполяция в данном случае предполагает определение, в какой степени данные выборки можно обобщить на всю совокупность. Определение и интерпретация связей между двумя переменными В связях не всегда имеются причинно-следственный характер, а могут иметь просто статистическую природу. В поставленных вопросах можно определенно говорить о влиянии одного фактора на другой. Однако степень влияния изучаемых факторов может быть различной; скорее всего, влияние могут оказывать также какие-то другие факторы. Выделяют четыре типа связей между двумя переменными: немонотонная, монотонная, линейная и криволинейная.

Немонотонная связь характеризуется тем, что присутствие (отсутствие) одной переменной систематически связано с присутствием (отсут­ствием) другой переменной, но ничего неизвестно о направлении этого взаимодействия (приводит ли, например, увеличение одной переменной к увеличению или уменьшению другой). Например, известно, что посетители закусочных в утренние часы предпочитают заказывать кофе, а в середине дня -- чай.

Немонотонная связь просто показывает, что утренние посетители предпочитают также заказывать яйца, бутерброды и бисквиты, а в обеденное время скорее заказывают мясные блюда с гарниром.

Монотонная связь характеризуется возможностью указать только общее направление связи между двумя переменными без использования каких-либо количественных характеристик. Нельзя сказать, насколько, например, определенное увеличение одной переменной приводит к увеличению другой переменной.

Существуют только два типа таких связей: увеличение и уменьшение. Например, владельцу обувного магазина известно, что более взрослые дети обычно требуют обувь больших размеров. Однако невозможно четко установить связь между конкретным возрастом и точным размером обуви.

Линейная связь характеризует прямолинейную зависимость между двумя переменными. Знание количественной характеристики одной переменной автоматически предопределяет знание величины другой переменной:

Где у -- оцениваемая или прогнозируемая зависимая переменная (ре­зультативный признак); а -- свободный член уравнения; х -- независимая переменная (факторный признак), используемая для определения зависимой переменной. b -- коэффициент регрессии, измеряющий среднее отношение от­клонения результативного признака от его средней величины к отклонению факторного признака от его средней величины на одну единицу его измерения -- вариация у, приходящаяся на единицу вариации х.

Коэффициенты а и b рассчитываются на основе наблюдений величин у и х с помощью метода наименьших квадратов.

Криволинейная связь характеризует связь между переменными, носящую более сложный характер по сравнению с прямой линией. Например, связь между переменными может описываться S-об разно и кривой.

В зависимости от своего типа связь может быть охарактеризована путем определения: ее присутствия (отсутствия), направления и силы (тесноты) связи. Присутствие характеризует наличие или отсутствие систематической связи между двумя изучаемыми переменными; оно имеет статистическую природу. Проведя испытание статистической значимости, определяют, существует ли зависимость между данными. Если результаты исследования отвергают нулевую гипотезу, это говорит о том, что зависимость между данными существует.

В случае монотонных линейных связей последние могут быть описаны с точки зрения их направления -- в сторону увеличения или уменьшения. Связь между двумя переменными может быть сильной, умеренной, слабой или отсутствовать. Сильная зависимость характеризуется высокой вероятностью существования связи между двумя переменными, слабая -- малой вероятностью.

Существуют специальные процедуры для определения указанных выше характеристик связей. Первоначально надо решить, какой тип связей может существовать между двумя изучаемыми переменными. Ответ на этот вопрос зависит от выбранной шкалы измерений.

Шкала низкого уровня (наименований) может отразить только не­точные связи, в то время как шкала отношений, или интервальная, -- очень точные связи. Определив тип связи (монотонная, немонотонная), надо установить, существует ли эта связь для генеральной совокупности в целом. Для этого проводятся статистические испытания.

После того как найдено, что для генеральной совокупности суще­ствует определенный тип связи, устанавливается ее направление. Наконец, необходимо установить силу (тесноту) связи.


Наиболее распространенным способом социологического анализа является выявление взаимосвязи между переменными.

Термин переменная заимствован социологией из области математики и логики. Однако используется он в социологии в ином значении. Если в математике под переменной используется символ, вместо которого могут быть подставлены любые числа, то в социологии под переменной понимается то свойство или отношение исследуемых социальных явлений, которое может иметь большую или меньшую степень интенсивности и тем самым может быть редуцировано к числу. Так, свойство «возраст» может иметь множество значений. Свойство «биологический пол» имеет два значения

Понятие переменной относительно, так как зависит и от природы исследуемого свойства, допускающей тот или иной спектр дробления, и от принятой системы измерения.

Для переменных в социологии существует определенная классификация, использование которой значительно облегчает задачи выравнивания условий функционирования экспериментальной и контрольных групп и последующий контроль за ними в ходе эксперимента.

В процессе исследования следует различать Экспериментальные и Не экспериментальные Переменные. Экспериментальные переменные в свою очередь, делятся на Зависимые И Независимые переменные.

Независимую переменную можно рассматривать как причину (фактор), а зависимую как следствие (результат) воздействия независимой переменной.

Неэкспериментальные Переменные отражают те свойства и отношения исследуемого объекта, которые в равной степени действуют и в экспериментальной и в контрольной группах. Поэтому их называют Нейтральными.

Среди нейтральных переменных выделяются Неизменяющиеся и изменяющиеся переменные. К первым относятся те характеристики объекта, о которых известно, что в течение всего периода исследования они останутся без изменения. Следовательно, они требуют меньшего контроля. Ко вторым - те переменные, изменения которых возможны, и часто трудно прогнозируемы. Основное внимание (в отношении контроля) должно быть уделено этим переменным. Типологию переменных Г. А.Андреева представила в следующей схеме:

Связь различных переменных специфику и механизм функционирования исследуемого объекта. Социолог прослеживает, как изменяются одни переменные с изменением других. Если увеличение, например, такой независимой переменной как возраст ведет к увеличению производительности труда (зависимая переменная), то можно прийти к выводу о положительной (прямой) зависимости между переменными. Обратная зависимость (большеи меньше) свидетельствует об отрицательной связи.

Однако существует опасность прийти к ложному выводу, если не учитываетсяСкрытая переменная - незамеченная причина (обстоятельство), влияющее на исследуемое свойство. Так, у женщин, или у молодых рабочих могут оказаться низкие показатели в труде, что может дать повод к выводу об определяющей роли пола и возраста в труде. В то же время могут оказаться незамеченными исследователем такие скрытые независимые переменные, как квалификация и опыт.

Макс Вебер обнаружил у англичан - протестантов более высокую степень предпринимательской активности чем у англичан - католиков. Отсюда он пришел к выводу об определяющей роли протестантской этики в развитии капитализма. Однако он не учитывал такую Скрытую Переменную, как отстранение в XVIII веке протестантов от государственной деятельности, что способствовало ориентации их активности на другие сферы, в том числе и предпринимательскую.

социологический исследование выборка

1. Значение изучения темы (актуальность изучаемой проблемы). Знание методов оценки взаимосвязи между отдельными признаками

дает возможность решать одну из кардинальных задач любого нау чного исследования: возможность предвидеть, прогнозировать развитие ситуации при изменении тех или иных известных характеристик объекта исследования.

2. Цели обучения: Знать:

- понятия корреляционной и функциональной зависимостей;

- понятия прямой и обратной корреляционной связи;

- понятие коэффициента корреляции;

- методики расчета коэффициентов корреляции Пирсона и Спир-

- использование коэффициентов корреляции в медицине и здраво-

охранении.

- отобразить численные данные на корреляционном поле;

- оценить силу и направление связи по величине коэффициента

корреляции;

- правильно выбрать метод корреляционного или регрессионного анализа для оценки имеющихся данных.

- методиками расчета коэффициентов корреляции Пирсона и

Спирмэна;

- навыками представления численных данных на корреляционном

3. Основные понятия и положения темы

Одной из задач большинства медико-биологических исследований, является выявление взаимной связи одного или нескольких явлений.

Свет в окне может означать (с той или иной вероятностью), что хозяева находятся дома, кашель с мокротой может означать заболевание хроническим бронхитом. Если в серии повторяющихся наблюдений один из признаков (или его часть) появляется одновременно с другим чаще, чем можно объяснить случайным стечением обстоятельств, то это служит основанием говорить о взаимосвязи, сопряженности появления этих признаков.

Постановка задачи в такого рода исследованиях обычно выглядит следующим образом: определить наличие и силу статистической связи какоголибо признака от одного или нескольких других признаков. Знание взаимосвязи отдельных признаков дает возможность решать одну из основных задач любого научного исследования : возможность предвидеть, прогнозировать раз-

витие ситуации при изменении тех или иных известных характеристик объекта исследования.

Термин зависимость при статистической обработке медикобиологических исследований должен использоваться весьма осторожно. С помощью статистических методов можно дать только формальную оценку взаимосвязи. Попытки механически перенести данные статистических расчетов в объективную реальность могут привести к ошибочным выводам.

Например, утверждение: «Чем громче утром кричат воробьи, тем выше встает солнце», несмотря на явную несуразность, с точки зрения формальной статистики, вполне правомерно. Таким образом, термин «зависимость» в статистическом анализе подразумевает только статистическую оценку взаимосвязи.

Любые явления в окружающем нас мире могут быть связаны прямой или обратной связью. Эта характеристика называется направленностью связи.

По направленности связь может быть прямой или обратной.

Прямая (или положительная) связь характеризует зависимость, при которой увеличение или уменьшение значения одного признака ведет, соответственно, к увеличению или уменьшению – второго. Например, при увеличение температуры возрастает давление газа (при сохранении неизменным его объема). При уменьшении температуры – снижается и давление.

Обратная (или отрицательная) связь характеризуется такой зависи-

мостью, когда при увеличении одного признака второй уменьшается или, наоборот, при уменьшении одного, второй – увеличивается. Обратная зависимость или обратная связь является основой нормального регулирования почти всех процессов жизнедеятельности любого организма.

По характеру связь может быть функциональной или корреляционной (статистической).

Функциональная зависимость – такой вид зависимости, когда каждому значению одного признака соответствует точное значение другого (зависимость может быть задана функцией). Например: взаимосвязь радиуса и длины окружности. Такую зависимость можно считать полной (исчерпывающей). Она полностью объясняет изменение одного признака изменением другого. Этот вид связи характерен для объектов, являющихся точкой приложения точных наук. В медико-биологических исследованиях сталкиваться с функциональной связью приходится крайне редко, поскольку объекты исследований имеют большую индивидуальную изменчивость. С другой стороны, характеристики биологических объектов зависят, как правило, от комплекса большого числа сложных взаимосвязей и не могут быть сведены к отношению двух или трех факторов.

Корреляционная зависимость – существует в том случае, когда при изменении величины одного признака наблюдается тенденция соответствующего изменения значений другого признака.

Например, при изменении роста человека меняется и масса тела. Однако, эта зависимость не является полной, т.е. функциональной. У людей с оди-

наковым ростом может быть разная масса тела, поскольку на нее влияют и многие другие факторы (питание, здоровье и т.п.). При оценке статистических связей можно говорить только о тенденции, когда возрастание одного признака вызывает тенденцию возрастания или уменьшения другого признака.

Корреляционная связь описывается с помощью различных статистических характеристик. Выбор характеристики для определения взаимосвязи обусловлен видом исследуемых признаков, способами их группировки и предполагаемым характером связи. Подчас, для выявления реально существующих взаимосвязей достаточно правильно составить статистическую таблицу распределения или построить наглядный график этого распределения.

Корреляционный анализ занимается измерением степени связи между двумя переменными (х и у). Вначале предполагаем, что как х, так и у - количественные величины, например, рост и вес.

Предположим, что есть пара величин (х, у), измеренных у каждого из пациентов в выборке. Мы можем отметить точку, соответствующую паре ве-

личин каждого пациента, на двухмерном графике рассеяния точек (рис

1,2,3). Обычно переменную х располагают на горизонтальной оси, а у - на вертикальной в той же диаграмме. Размещая точки для всех пациентов, получаем график рассеяния точек (корреляционное поле ), который говорит о взаимосвязи между этими двумя переменными.

В результате могут возникнуть следующие ситуации:

Рисунок 1. Положительная (прямая) корреляционная связь

Рисунок 2. Отрицательная (обратная) корреляционная связь

Рисунок 3. Корреляционная связь отсутствует

Если на графике рассеяния точек построить прямую линию, наилучшим образом описывающую изображенные данные (расстояния от точек до прямой минимальны), то полученная прямая является линией регрессии . Расчет коэффициентов корреляции дает численную характеристику того, насколько близко находятся наблюдения к линии регрессии. Основными коэффициентами корреляции являются коэффициент корреляции Пирсона и коэффициент корреляции Спирмэна .

Свойства коэффициентов корреляции:

Значения коэффициента корреляции изменяются в пределах от -1

до +1 .

Знак коэффициента корреляции показывает направление связи, увеличивается (положительный r , прямая связь) или уменьшается (отрицательный r , обратная связь) одна переменная, по мере того как увеличивается другая.

Величина коэффициента корреляции указывает, как близко расположены точки к прямой линии. В частности, если r = +1 или r = -1 , то имеется абсолютная (функциональная) корреляция по всем точкам, лежащим на линии (рис 1, рис. 2); если r = 0 , то линейной корреляции нет (рис. 3). Чем ближе r к крайним точкам (±1), тем больше степень линейной связи.

Коэффициент корреляции безразмерен, т.е. не имеет единиц из-

Величина коэффициента корреляции действительна только в диапазоне значений х и у в выборке. Невозможно заключить, что коэффициент будет иметь ту же величину при рассмотрении значений х или у, значительно больших, чем в выборке.

Неважно, какой из признаков обозначить за х , а какой за у; х и у могут заменять друг друга, не влияя на величину r (rху ~rух ).

Корреляция между х и у необязательно означает соотношение «причины и следствия».

Следует отметить, что в случае биологических факторов тот или иной характер связи сохраняется, как правило, только в определенном интервале изменений признаков. За пределами этого интервала связь может ослабнуть, стать прямо противоположной по направлению либо совсем исчезнуть.

Например, при увеличении возраста ребенка сила скелетной мускулатуры увеличивается. В зрелом возрасте такой связи уже нет. А в старших возрастных группах тенденция становится обратной.

Сила корреляционной связи между признаками оценивается по величине коэффициента корреляции согласно Таблице 1 :

Таблица 1

Распределение значений коэффициента линейной корреляции

Характеристики связи

Обратная

Связи нет

от 0 до -0,3

от 0,3 до 0,7

от - 0,3 до -0,7

от - 0,7 до - 1

Полная (функциональная)

Случаи, в которых не следует рассчитывать коэффициент линейной корреляции:

получено нелинейное соотношение между признаками, например, квадратичное соотношение (рис. 4,а);

данные включают более одного наблюдения по каждому пациенту;

присутствуют аномальные значения (рис. 4,б);

данные содержат подгруппы пациентов, для которых средние уровни наблюдений, по крайней мере, по одной из переменных, отличаются (рис. 4,в).

Рисунок 4. Диаграммы, показывающие, когда не следует рассчитывать коэффициент корреляции, (а) - соотношение нелинейно, (б) - при наличии выброса (выбросов), (в) - данные состоят из подгрупп.

Коэффициент корреляции Пирсона

Коэффициент корреляции Пирсона () определяет силу и направле-

ние связи только для количественных данных (x, y – значения исследуемых признаков, n –количество пар данных):

∑ (∑)(∑)

Условия для расчета коэффициента корреляции Пирсона:

исследуемые признаки являются количественными;

выборка состоит из независимых пар величин х и у; по крайней мере, одна из этих двух переменных нормально распределена.

Достоверность коэффициента корреляции устанавливается по ве-

личине средней ошибки. Поскольку коэффициент корреляции в клинических исследованиях рассчитывается обычно для ограниченного числа наблюдений, нередко возникает вопрос о надежности полученного коэффициента. С этой целью определяют среднюю ошибку коэффициента корреляции. При достаточно большом числе наблюдений (больше 100) средняя ошибка коэффициента корреляции () вычисляется по формуле:

n – число наблюдений.

В том случае, если число наблюдений меньше 100 точнее определять среднюю ошибку коэффициента корреляции, по формуле:

С достаточной для медицинских исследований надежностью о наличии той или иной степени связи можно утверждать только тогда, когда величина коэффициента корреляции превышает или равняется величине трех своих ошибок (r ≥3m r ). Обычно это отношение коэффициента корреляции (r ) к его средней ошибке (m r ) обозначают буквой t r :

Если t r ≥3, то коэффициент корреляции является статистически значи-

Пример расчета коэффициента корреляции Пирсона

Необходимо определить, существует ли связь между количеством часов, посвященных студентом подготовке к тестовому экзамену по статистике и итоговым количеством правильных ответов (и соответственно итоговой оценкой). В тестирование включает в себя 100 вопросов из банка тестовых заданий. В таблице приведены данные о 6 случайно выбранных студентах.

Очевидно, что количество часов напрямую отражается на финальной оценке. Переменная «Часы подготовки» (х ) является независимой переменной, т.к. она приводит к наблюдаемой вариации переменной «Балл на экзамене» (у ). Причинная связь между зависимыми и независимыми переменными существует только в одном направлении: Независимая переменная (х)→ Зависимая переменная (у). В обратном направлении эта связь не работает.

Коэффициент корреляции Пирсона (r) вычисляется при помощи следующего уравнения

∑ (∑)(∑)

Таблица, приведенная ниже, поможет разбить это уравнение на несколько несложных вычислений.

Часы изучения

Балл на экза-

∑ =79

Используя эти значения и n=6 (общее количество студентов), получаем:

∑ (∑)(∑)

Теперь рассчитаем среднюю ошибку коэффициента корреляции

√ √

Установим, надежной, ли является установленная нами связь

Т.к. t r ≥3 , то коэффициент корреляции является статистически значи-

Таким образом, между числом часов, посвященных изучению предмета, и экзаменационной оценкой существует статистически значимая сильная положительная (прямая) корреляция. Отсюда следует, что экзаменационные результаты можно предугадать на основе определенного количества часов, посвященных изучению предмета.

Коэффициент корреляции Спирмэна

Ранговый коэффициент корреляции Спирмэна (rs ) – непараметриче-

ский аналог корреляционного коэффициента Пирсона.

Применение этого коэффициента корреляции может быть рекомендовано в случаях:

когда необходимо быстро ориентировочно определить связь между какими-то признаками;

если необходимо оценить связь между качественными (ранго-

выми) и количественными признаками или только между качественными признаками;

когда распределение значений учетных признаков (в том числе и количественных) не соответствует нормальному распределению или рас-

пределение неизвестно.

Вычисление:

1. Располагают величины х в возрастающем порядке, начиная с наименьшей величины, и придают им последовательные ранги (номера 1, 2, 3, .., n). Равные варианты получают среднее значение из суммы их порядковых номеров.

2. Подобным образом ранжируют у .

3. Рассчитывается r s - коэффициент корреляции между рангами х и у по формуле:

где (

) – разности между рангами соответствующих пар y и x;

n – число сопоставляемых пар.

Пример расчета коэффициента корреляции Спирмэна.

Необходимо определить по Таблице 2 , существует ли связь между количеством часов, посвященных студентом подготовке к тестовому экзамену по статистике, и итоговым количеством правильных ответов (и, соответственно, итоговой оценкой). Тестирование включает в себя 100 вопросов из банка тестовых заданий.

Составляем вариационный ряд x и ранжируем:

Составляем вариационный ряд y и ранжируем:

Для удобства расчета заполняем следующую таблицу:

Ry - Rx

(Ry - Rx ) 2

Таким образом, получено, что исследуемая корреляционная связь является прямой и сильной.

В ходе корреляционного анализа или анализа корреляционной связи решается целая группа взаимосвязанных задач:

1) Установление направления (прямая или обратная) и формы (линейная или нелинейная) корреляционной связи.

2) Оценка тесноты (силы, плотности) корреляционной связи.

3) Оценка репрезентативности статистических оценок взаимосвязей, полученных по выборочным данным (величина ошибки, доверительный интервал, уровень значимости).

4) Установление величины детерминации (доли взаимовлияния) коррелируемых факторов.

Таким образом, статистические методы изучения связи между переменными зависят от:

характера переменных (качественные, количественные)

характера распределения количественных переменных (нормальное,

ненормальное, неизвестное)

числа наблюдений (большое, малое)

взаимоотношения между наблюдениями (зависимые, независимые). Статистические методы изучения связи между переменными могут

однофакторными, т.е. принимающими во внимание только взаимоотношения между двумя анализируемыми переменными

многофакторными, т.е. учитывающими влияние на изучаемую связь между двумя переменными со стороны некоторых других переменных.

Понятие о регрессионном анализе

Регрессия определяет математическую зависимость между зависи-

мой переменной (отклик) и одной или более независимыми переменными (предикторами).

Регрессионный анализ с помощью коэффициента регрессии позволяет количественно прогнозировать изменения одной переменной при изменении другой.

Для описания связи могут использоваться различные математические функции, основными из которых являются:

■ линейная

экспоненциальная

■ логистическая

Простая линейная регрессия или множественная регрессия могут применяться для непрерывных признаков, например, давление, вес.

Логистическая регрессия применима в тех случаях, когда зависимые признаки являются бинарными (например, умер/жив, выздоровел/не выздоровел).

Линейная регрессия

Математическое уравнение, которое оценивает линию простой линейной регрессии:

х – называется предиктором – независимой или объясняющей переменной. Для данной величины х, Y - значение переменной у (называемой зави-

симой, выходной переменной, или переменной отклика), которое расположено на линии оценки. Это есть значение, которое мы ожидаем для у (в среднем), если мы знаем величину х, и называется она «предсказанное значение у» (рис. 5).

а – свободный член (пересечение) линии оценки; это значение Y, когда

b – угловой коэффициент или градиент оценённой линии; он представляет собой величину, на которую Y увеличивается в среднем, если мы увеличиваем х на одну единицу (рис. 5). Коэффициент b называют коэффициентом регрессии.

Например : при увеличении температуры тела человека на 1о С, частота пульса увеличивается в среднем на 10 ударов в минуту.

Рисунок 5. Линия линейной регрессии, показывающая коэффициент а и угловой коэффициент b (величину возрастания Y при увеличении х на одну единицу)

Математически решение уравнения линейной регрессии сводится к вычислению параметров а и b таким образом, чтобы точки исходных данных корреляционного поля как можно ближе лежали к прямой регрессии .

Статистическое использование слова «регрессия» исходит из явления, известного как регрессия к среднему, приписываемого Френсису Гальтону (1889). Он показал, что, хотя высокие отцы имеют тенденцию иметь высоких сыновей, средний рост сыновей меньше, чем у их высоких отцов. Средний рост сыновей «регрессировал» или «двигался вспять» к среднему росту всех

отцов в популяции. Таким образом, в среднем высокие отцы имеют более низких (но всё-таки высоких) сыновей, а низкие отцы имеют сыновей более высоких (но всё-таки довольно низких).

Мы наблюдаем регрессию к среднему при скрининге и клинических исследованиях, когда подгруппа пациентов может быть выбрана для лечения потому, что их уровни определённой переменной, скажем, холестерина, крайне высоки (или низки). Если это измерение через некоторое время повторяется, средняя величина второго считывания для подгруппы обычно меньше, чем при первом считывании, имея тенденцию (т.е. регрессируя) к среднему, подобранному по возрасту и полу в популяции, независимо от лечения, которое они могут получить. Пациенты, набранные в клиническое исследование на основе высокого уровня холестерина при их первом осмотре, таким образом, вероятно, покажут в среднем падение уровня холестерина при втором осмотре, даже если в этот период они не лечились.

Часто метод регрессионного анализа применяется для разработки нормативных шкал и стандартов физического развития.

Насколько хорошо линия регрессии согласуется с данными, можно судить, рассчитав коэффициент R (обычно выраженный в процентах и называемый коэффициентом детерминации), который равняется квадрату коэффициента корреляции (r2 ). Он представляет собой долю или процент дисперсии у, который можно объяснить связью с х, т.е. долю вариации признакарезультата, сложившуюся под влиянием независимого признака. Может принимать значения в диапазоне от 0 до 1, или соответственно от 0 до 100%. Разность (100% - R) представляет собой процент дисперсии у, который нельзя объяснить этим взаимодействием.

Соотношение между ростом (измеренным в см) и систолическим артериальным давлением (САД, измеренным в мм рт. ст.) у детей. Мы провели анализ парной линейной регрессии зависимости САД от роста (рис. 6). Имеется существенное линейное соотношение между ростом и САД.

Рисунок 6. Двумерный график, показывающий соотношение между систолическим артериальным давлением и ростом. Изображена оценённая линия регрессии, систолическое артериальное давление.

Уравнение линии оценённой регрессии имеет следующий вид: САД = 46,28 + 0,48 х рост.

В этом примере свободный член не представляет интереса (рост, равный нулю, явно вне диапазона величин, наблюдаемых в исследовании). Однако мы можем интерпретировать угловой коэффициент; предсказано, что у этих детей САД увеличивается в среднем на 0,48 мм рт.ст. при увеличении роста на один сантиметр

Мы можем применить уравнение регрессии для предсказания САД, которое мы ожидаем у ребёнка при данном росте. Например, ребёнок ростом 115 см имеет предсказанное САД, равное 46,28 + (0,48 х 115)=101,48 мм рт. ст., ребёнок ростом 130 имеет предсказанное САД, 46,28 + (0,48 х 130) =

108,68 мм рт. ст.

При расчете коэффициента корреляции, установлено, что он равен 0,55, что указывает на прямую корреляционную связь средней силы. В этом случае коэффициент детерминации r 2 = 0,55 2 = 0,3 . Таким образом, можно сказать, что доля влияния роста на уровень артериального давления у детей не превышает 30%, соответственно на долю других факторов приходится 70% влияния.

Линейная (простая) регрессия ограничивается рассмотрением связи между зависимой переменной и только одной независимой переменной. Если в связи присутствует более одной независимой переменной, тогда нам необходимо обратиться к множественной регрессии. Уравнение для такой регрессии выглядит так:

y = a + bx1 +b2 x2 +.... + bn хn

Можно интересоваться результатом влияния нескольких независимых переменных х1 , х 2 , .., х n на переменную отклика у. Если мы полагаем, что эти х могут быть взаимозависимы, то не должны смотреть по отдельности на эффект изменения значения одного х на у, но должны одновременно принимать во внимание величины всех других х.

Пример Поскольку между ростом и массой тела ребёнка существует сильная

зависимость, можно поинтересоваться, изменяется ли также соотношение между ростом и систолическим артериальным давлением, если принять во внимание также и массу тела ребёнка и его пол. Множественная линейная регрессия позволяет изучить совместный эффект этих нескольких независимых переменных на у.

Уравнение множественной регрессии в этом случае может иметь такой вид:

САД=79,44 –(0,03 х рост)+ (1,18 х вес) + (4,23 х пол)*

* - (для признака пол используют значения 0 – мальчик, 1 - девочка) Согласно этому уравнению, девочка, рост которой 115 см и масса те-

ла 37 кг, будет иметь прогнозируемое САД:

САД = 79,44 – (0,03 х 115) + (1,18 х 37) + (4,23 х 1) = 123,88 мм.рт.ст.

Логистическая регрессия очень похожа на линейную; её применяют, когда есть интересующий нас бинарный исход (т.е. наличие/отсутствие симптома или субъекта, который имеет/не имеет заболевания) и ряд предикторов. Из уравнения логистической регрессии можно определить, какие предикторы влияют на исход, и, используя значения предикторов пациента, оценить вероятность того, что он/она будет иметь определённый исход. Например: возникнут или нет осложнения, будет лечение эффективным или не будет.

Начинают создания бинарной переменной, чтобы представить эти два исхода (например, «имеет болезнь»=1, «не имеет болезни»=0). Однако мы не можем применить эти два значения как зависимую переменную в анализе линейной регрессии, поскольку предположение нормальности нарушено, и мы не можем интерпретировать предсказанные величины, которые не равны нулю или единице. Фактически, вместо этого мы берём вероятность того, что субъект классифицируется в ближайшую категорию (т.е. «имеет болезнь») зависимой переменной, и чтобы преодолеть математические трудности, применяют логистическое, преобразование, в уравнении регрессии - натуральный логарифм отношения вероятности «болезни» (p) к вероятности «нет болезни» (1-p).

Интегративный процесс, называемый методом максимального правдоподобия, а не обычная регрессия (так как мы не можем применить процедуру линейной регрессии) создаёт из данных выборки оценку уравнения логистической регрессии

logit (p) = a + bx1 +b2 x2 +.... + bn хn

Logit (р) - оценка значения истинной вероятности того, что пациент с индивидуальным набором значений для х 1 ... х n имеет заболевание;

а - оценка константы (свободный член, пересечение);

b 1 , b 2 , ... ,b n - оценки коэффициентов логистической регрессии.

4. Вопросы по теме занятия:

1. Дайте определение функциональной и корреляционной связи.

2. Приведите примеры прямой и обратной корреляционной связи.

3. Укажите размеры коэффициентов корреляции при слабой, средней и сильной связи между признаками.

4. В каких случаях применяется ранговый метод вычисления коэффициента корреляции?

5. В каких случаях применяется расчет коэффициента корреляции Пирсо-

6. Каковы основные этапы вычисления коэффициента корреляции ранговым методом?

7. Дайте определение «регрессии». В чем сущность метода регрессии?

8. Охарактеризуйте формулу уравнения простой линейной регрессии.

9. Дайте определение коэффициента регрессии.

10. Какой можно сделать вывод, если коэффициент регрессии веса по росту равен 0,26кг/см?

11. Для чего используется формула уравнения регрессии?

12. Что такое коэффициент детерминации?

13. В каких случаях используется уравнение множественной регрессии.

14. Для чего применяется метод логистической регрессии?

5. Тестовые задания:

1. ТЕРМИН «КОРРЕЛЯЦИЯ» В СТАТИСТИКЕ ПОНИМАЮТ КАК

1) связь, зависимость

2) отношение, соотношение

3) функцию, уравнение

4) коэффициент

2. СВЯЗЬ МЕЖДУ ПРИЗНАКАМИ МОЖНО СЧИТАТЬ СРЕДНЕЙ ПРИ ЗНАЧЕНИИ КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ

1) r = 0,13

2) r = 0,45

3) r = 0,71

4) r = 1,0

3. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ R = - 0,82 ГОВОРИТ О ТОМ, ЧТО КОРРЕЛЯЦИОННАЯ СВЯЗЬ

1) прямая, средней силы

2) обратная, слабая

4) обратная, сильная

4. ПРИ ЗНАЧЕНИИ КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ В ДИАПАЗОНЕ ОТ 0 ДО 0,3 СИЛА СВЯЗИ ОЦЕНИВАЕТСЯ КАК

1) слабая

2) средняя

3) сильная

4) полная

5. СВЯЗЬ МЕЖДУ ПРИЗНАКАМИ МОЖНО СЧИТАТЬ СИЛЬНОЙ ПРИ ЗНАЧЕНИИ КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ

1) r = - 0,25

2) r = 0,62

3) r = - 0,95

4) r = 0,55

6. ЗАВИСИМОСТЬ, ПРИ КОТОРОЙ УВЕЛИЧЕНИЕ ИЛИ УМЕНЬШЕНИЕ ЗНАЧЕНИЯ ОДНОГО ПРИЗНАКА ВЕДЕТ К УВЕЛИЧЕНИЮ ИЛИ УМЕНЬШЕНИЮ – ВТОРОГО, ХАРАКТЕРИЗУЕТ СЛЕДУЮЩИЙ ВИД СВЯЗИ

2) обратная

3) полная

4) неполная

7. ЗАВИСИМОСТЬ, ПРИ КОТОРОЙ УВЕЛИЧЕНИЕ ОДНОГО ПРИЗНАКА ДАЕТ УМЕНЬШЕНИЕ ВТОРОГО, ХАРАКТЕРИЗУЕТ СЛЕДУЮЩИЙ ВИД КОРРЕЛЯЦИОННОЙ СВЯЗИ

2) обратная

3) полная

4) неполная

8. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ ПИРСОНА ОПРЕДЕЛЯЕТ

1) статистическую значимость различий между переменными

2) степень разнообразия признака в совокупности

3) силу и направление связи между зависимой и независимой переменными

4) долю дисперсии результативного признака объясняемую влиянием независимых переменных

9. УСЛОВИЕМ ДЛЯ РАСЧЕТА КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ ПИРСОНА ЯВЛЯЕТСЯ

1) распределение переменных неизвестно

2) нормальное распределение по крайней мере, одной из двух переменных

3) по крайней мере, одна из двух переменных измеряется в ранговой шкале

4) отсутствует нормальное распределение переменных

10. РАНГОВЫЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ СПИРМЭНА РАССЧИТЫВАЕТСЯ, КОГДА

1) присутствует нормальное распределение переменных

2) необходимо оценить связь между качественными и количественными признаками

3) необходимо определить статистическую значимость различий между переменными

4) необходимо оценить степень разнообразия признака в совокупности

11. ЗАВИСИМОСТЬ, КОГДА КАЖДОМУ ЗНАЧЕНИЮ ОДНОГО ПРИЗНАКА СООТВЕТСТВУЕТ ТОЧНОЕ ЗНАЧЕНИЕ ДРУГОГО, НАЗЫВАЕТСЯ

1) прямой

2) обратной

3) корреляционной

4) функциональной

12. ЗАВИСИМОСТЬ, КОГДА ПРИ ИЗМЕНЕНИИ ВЕЛИЧИНЫ ОДНОГО ПРИЗНАКА ИЗМЕНЯЕТСЯ ТЕНДЕНЦИЯ (ХАРАКТЕР) РАСПРЕДЕЛЕНИЯ ЗНАЧЕНИЙ ДРУГОГО ПРИЗНАКА, НАЗЫВАЕТСЯ

1) прямой

2) обратной

3) корреляционной

4) функциональной

13. ДЛЯ ИЗОБРАЖЕНИЯ КОРРЕЛЯЦИОННОЙ ЗАВИСИМОСТИ ИСПОЛЬЗУЕТСЯ ГРАФИК

1) линейный

2) график рассеяния точек

3) радиальный

4) динамический

14. ЕСЛИ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ РАВЕН ЕДИНИЦЕ, ТО СВЯЗЬ ЯВЛЯЕТСЯ

1) сильной, прямой

2) сильной обратной

3) средней, прямой

4) полной (функциональной), прямой

15. СВЯЗЬ МЕЖДУ Y И X МОЖНО ПРИЗНАТЬ БОЛЕЕ СУЩЕСТВЕННОЙ ПРИ СЛЕДУЮЩЕМ ЗНАЧЕНИИ ЛИНЕЙНОГО КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ

1) r = 0,35

2) r = 0,15

3) r = - 0,57

4) r = 0,46

16. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ ИСПОЛЬЗУЕТСЯ ДЛЯ ИЗУЧЕНИЯ

1) взаимосвязи явлений

2) развития явления во времени

3) структуры явлений

4) статистической значимости различий между явлениями

17. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ МОЖЕТ ПРИНИМАТЬ ЗНАЧЕНИЯ

1) от 0 до 1

2) от -1 до 0

3) от -1 до 1

ПОКАЗЫВАЕТ, ЧТО

1) с увеличением признака х на 1 признак у увеличивается на 0,678

2) с увеличением признака х на 1 признак у увеличивается на 0,016

3) с увеличением признака х на 1 признак у уменьшается на 0,678

4) с увеличением признака х на 1 признак у уменьшается на 0,016

22. НЕЗАВИСИМАЯ ПЕРЕМЕННАЯ В УРАВНЕНИИ РЕГРЕССИИ НАЗЫВАЕТСЯ

1) вариантой

2) уровнем

3) предиктором

4) переменной отклика Кендела

4) Чупрова

26. ДОЛЮ ВАРИАЦИИ ПРИЗНАКА-РЕЗУЛЬТАТА, СЛОЖИВШУЮСЯ ПОД ВЛИЯНИЕМ НЕЗАВИСИМОГО ПРИЗНАКА ОБЪЯСНЯЕТ КОЭФФИЦИЕНТ

1) корреляции Пирсона

2) корреляции Спирмэна

3) детерминации

4) вариации

27. ДЛЯ ИЗУЧЕНИЯ СВЯЗИ, В КОТОРОЙ ПРИСУТСТВУЕТ БОЛЕЕ ОДНОЙ НЕЗАВИСИМОЙ ПЕРЕМЕННОЙ ИСПОЛЬЗУЕТСЯ

1) линейная регрессия

2) множественная регрессия

3) ранговая корреляция Спирмэна

4) расчет темпа прироста

28. ДЛЯ РАСЧЕТА КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ СПИРМЭНА НЕОБХОДИМО

1) расположить переменные в порядке возрастания

2) расположить переменные в порядке убывания

3) возвести переменные в квадрат

4) присвоить переменным в порядке возрастания последовательные ранги (номера 1, 2, 3, .., n )

29. ЗАВИСИМОСТЬ ВЕСА ОТ РОСТА ЧЕЛОВЕКА (РОСТО-ВЕСОВОЙ ИНДЕКС) ОПИСЫВАЕТСЯ ПРИ ПОМОЩИ

1) логистической регрессии

2) множественной регрессии

3) экспоненциальной регрессии

4) линейной регрессии

30. ЗАВИСИМОСТЬ ПОЛОЖИТЕЛЬНОГО ИЛИ ОТРИЦАТЕЛЬНОГО РЕЗУЛЬТАТА ЛЕЧЕНИЯ ОТ РЯДА ФАКТОРОВ ОПИСЫВАЕТСЯ ПРИ ПОМОЩИ

1) логистической регрессии

2) множественной регрессии

3) экспоненциальной регрессии

4) линейной регрессии

31. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ ИЗМЕРЯЕТСЯ В

1) процентах

2) тех же единицах, что и изучаемый признак

3) промилле

4) не имеет единиц измерения

32. ИЗ НИЖЕПЕРЕЧИСЛЕННЫХ ВЕЛИЧИН ДЛЯ ОПРЕДЕЛЕНИЯ РАЗМЕРА ОДНОГО ПРИЗНАКА ПРИ ИЗМЕНЕНИИ ДРУГОГО НА ЕДИНИЦУ ИЗМЕРЕНИЯ ПРИМЕНЯЕТСЯ

1) среднеквадратическое отклонение

2) коэффициент корреляции

3) коэффициент регрессии

4) коэффициент вариации

6. Ситуационные задачи по теме

Задача №1

Уравнение регрессии описывает зависимость систолического давления от роста, веса и пола:

y = 79,44 – 0,03х1 + 1,18х2 + 4,23х3

где х 1 – рост; х 2 – вес; х 3 – пол.

1. Рассчитайте ожидаемое систолическое давление у мальчика ростом 130см и весом 30кг. Как называется данный вид уравнения регрессии?

2. Рассчитайте ожидаемое систолическое давление у девочки ростом 111 см и весом 17кг. Как называется данный вид уравнения регрессии?

Задача №2

В таблице ниже представлен фонд заработной платы оплата 10 команд Высшей хоккейной лиги (в миллионах) за 2 года с указанием числа побед за этот период.

1. Вычислите коэффициент корреляции Пирсона, охарактеризуйте силу и направление корреляционной связи.

2. Вычислите коэффициент корреляции Спирмэна, охарактеризуйте силу и направление корреляционной связи.

Задача №3

В таблице приведены данные роста и веса студентов 117 группы КрасГМУ. Рассчитать коэффициент корреляции Спирмэна и выяснить, существует ли корреляционная зависимость между этими данными, ее силу и направление.

Задача №4

В таблице приведены данные роста и веса студентов 118 группы КрасГМУ. Рассчитать коэффициент корреляции Спирмэна и выяснить, существует ли корреляционная зависимость между этими данными, ее силу и направление.

7. Перечень практических умений:

1. Правильно выбрать метод корреляционного анализа, исходя из характера имеющихся данных.

3. Оценить силу корреляционной связи.

5. Правильно выбрать метод регрессионного анализа, исходя из характера имеющихся данных.

6. Использовать уравнения регрессии для прогнозирования результатов исследования.

8. Примерная тематика НИРС

Очень часто маркетолог ищет ответы на вопросы типа: «Увели­чится ли показатель рыночной доли при увеличении числа дилеров?», «Есть ли связь между объемом сбыта и рекламой?» Такие связи не всегда имеют причинно-следственный характер, а могут иметь просто статисти­ческую природу. В поставленных вопросах можно определенно говорить о влиянии одного фактора на другой. Однако степень влияния изучаемых факторов может быть различной; скорее всего, влияние могут оказывать также какие-то другие факторы. Выделяют четыре типа связей между двумя переменными: немонотонная, монотонная, линейная и криволи­нейная.

Немонотонная связь характеризуется тем, что присутствие (отсут­ствие) одной переменной систематически связано с присутствием (отсут­ствием) другой переменной, но ничего неизвестно о направлении этого взаимодействия (приводит ли, например, увеличение одной переменной к увеличению или уменьшению другой). Например, известно, что посети­тели закусочных в утренние часы предпочитают заказывать кофе, а в се­редине дня - чай.

Немонотонная связь просто показывает, что утренние посетители предпочитают также заказывать яйца, бутерброды и бисквиты, а в обе­денное время скорее заказывают мясные блюда с гарниром.

Монотонная связь характеризуется возможностью указать только общее направление связи между двумя переменными без использования каких-либо количественных характеристик. Нельзя сказать, насколько, например, определенное увеличение одной переменной приводит к уве­личению другой переменной. Существуют только два типа таких связей: увеличение и уменьшение. Например, владельцу обувного магазина из­вестно, что более взрослые дети обычно требуют обувь бoльших размеров. Однако невозможно четко установить связь между конкретным возрастом и точным размером обуви.

Линейная связь характеризует прямолинейную зависимость между двумя переменными. Знание количественной характеристики одной пе­ременной автоматически предопределяет знание величины другой пере­менной:

у=а+bх, (4.3)

где у - оцениваемая или прогнозируемая зависимая переменная (ре­зультативный признак);

а - свободный член уравнения;

b - коэффициент регрессии, измеряющий среднее отношение от­клонения результативного признака от его средней величины к отклонению факторного признака от его средней величины на одну единицу его измерения - вариация у, приходящаяся на единицу вариации х;

х - независимая переменная (факторный признак), используемая для определения зависимой переменной.

Коэффициенты а и b рассчитываются на основе наблюдений вели­чин у и х с помощью метода наименьших квадратов .

Предположим, что торговый агент продает детские игрушки, по­сещая квартиры случайным образом. Отсутствие посещения какой-то квартиры означает отсутствие продажи, или а = 0. Если в среднем каж­дый десятый визит сопровождается продажей на 62 доллара, то стоимость продажи на один визит составит 6,2 доллара, или b = 6,2.

у=0 + 6,2х.

Таким образом, можно ожидать, что при 100 визитах доход соста­вит 620 долларов. Надо помнить, что эта оценка не является обязатель­ной, а носит вероятностный характер.

Криволинейная связь характеризует связь между переменными, носящую более сложный характер по сравнению с прямой линией. На­пример, связь между переменными может описываться 5-образной кри­вой (см. раздел 7.3).

В зависимости от своего типа связь может быть охарактеризована путем определения: ее присутствия (отсутствия), направления и силы (тесноты) связи.

Присутствие характеризует наличие или отсутствие систематиче­ской связи между двумя изучаемыми переменными; оно имеет статисти­ческую природу. Проведя испытание статистической значимости, опреде­ляют, существует ли зависимость между данными. Если результаты ис­следования отвергают нулевую гипотезу, это говорит о том, что зависи­мость между данными существует.

В случае монотонных линейных связей последние могут быть опи­саны с точки зрения их направления - в сторону увеличения или уменьшения.

Связь между двумя переменными может быть сильной, умеренной, слабой или отсутствовать. Сильная зависимость характеризуется высокой вероятностью существования связи между двумя переменными, слабая - малой вероятностью.

Существуют специальные процедуры для определения указанных выше характеристик связей. Первоначально надо решить, какой тип свя­зей может существовать между двумя изучаемыми переменными. Ответ на этот вопрос зависит от выбранной шкалы измерений.

Шкала низкого уровня (наименований) может отразить только не­точные связи, в то время как шкала отношений, или интервальная, - очень точные связи. Определив тип связи (монотонная, немонотонная), надо установить, существует ли эта связь для генеральной совокупности в целом. Для этого проводятся статистические испытания.

После того как найдено, что для генеральной совокупности суще­ствует определенный тип связи, устанавливается ее направление. Нако­нец, необходимо установить силу (тесноту) связи.

Для определения, существует или нет немонотонная зависимость, используется таблица сопряженности двух переменных и критерий хи-квадрат. Как правило, критерий хи-квадрат применяется для анализа таб­лиц сопряженности номинальных признаков, однако он может использо­ваться и при анализе взаимосвязи порядковых, или интервальных, пере­менных. Если, скажем, было выяснено, что две переменные не связаны друг с другом, то их дальнейшим исследованием заниматься не стоит. Некоторые указания на связь скорее были обусловлены ошибкой выбор­ки. Если же тест на хи-квадрат указал на связь, то она существует в ре­альности для генеральной совокупности и ее, возможно, следует изучать. Однако этот анализ не указывает на характер связи.

Предположим, что изучалась лояльность к определенной марке пи­ва среди служащих и рабочих (двумя переменными, измеренными в шка­ле наименований). Результаты опроса затабулированы в следующем виде (табл. 4.16).

Таблица 4.16

Матрицы сопряженности частоты

Результаты первоначальной табуляции

Первоначальные процентные данные (деление на 200)

Проценты по колонкам

Первая из приведенных матриц содержит наблюдаемые частоты, которые сравниваются с ожидаемыми частотами, определяемыми как теоретические частоты, вытекающие из принимаемой гипотезы об отсут­ствии связи между двумя переменными (выполняется нулевая гипотеза). Величина отличия наблюдаемых частот от ожидаемых выражается с по­мощью величины х-квадрата. Последняя сравнивается с ее табличным значением для выбранного уровня значимости. Когда величина хи-квадрата мала, то нулевая гипотеза принимается, а следовательно, счита­ется, что две переменные являются независимыми и исследователю не стоит тратить время на выяснение связи между ними, поскольку связь является результатом выборочной ошибки.

Вернемся к нашему примеру и рассчитаем ожидаемые частоты, пользуясь таблицей частот:

=

где f ni - наблюдаемая частота в ячейке i;

f ai - ожидаемая частота в ячейке i;

n - число ячеек матрицы.

Из таблицы критических значений х-квадрата вытекает, что для степени свободы, равной в нашем примере 1, и уровня значимости альфа =0,05 критическое значение х-квадрата равно 3,841 . Видно, что рас­четное значение х-квадрата существенно больше его критического значе­ния. Это говорит о существовании статистически значимой связи между родом деятельности и лояльностью к исследованной марке пива, и не только для данной выборки, но и для совокупности в целом. Из таблицы следует, что главная связь заключается в том, что рабочие покупают пиво данной марки реже по сравнению со служащими.

Теснота связи и ее направление определяются путем расчета коэф­фициента корреляции, который изменяется от -1 до +1. Абсолютная ве­личина коэффициента корреляции характеризует тесноту связи, а знак указывает на ее направление .

Вначале определяется статистическая значимость коэффициента корреляции. Безотносительно к его абсолютной величине коэффициент корреляции, не обладающий статистической значимостью, бессмыслен. Статистическая значимость проверяется с помощью нулевой гипотезы, которая констатирует, что для совокупности коэффициент корреляции равен нулю. Если нулевая гипотеза отвергается, это означает, что коэф­фициент корреляции для выборки является значимым и его значение для совокупности не будет равно нулю. Существуют таблицы, с помощью которых, для выборки определенного объема, можно определить наи­меньшую величину значимости для коэффициента корреляции.


Таблица 4.17

Сила связи в зависимости от величины коэффициента корреляции

Рассмотрим пример. Исследуется возможная взаимосвязь между суммарными продажами компании на отдельных двадцати территориях и числом сбытовиков, осуществляющих эти продажи. Были рассчитаны средние величины продаж и средние квадратические отклонения. Сред­няя величина продаж составила 200 миллионов долларов, а среднее квадратическое отклонение - 50 миллионов долларов. Среднее число сбыто­виков равнялось 12 при среднем квадратическом отклонении, равном 4. Для стандартизации полученных чисел в целях проведения унифици­рованных сравнений объемы продаж в каждом регионе переводятся в величины средних квадратических отклонений от средней величины для всех регионов (путем вычитания объема продаж для каждого региона из среднего для регионов объема продаж и деления полученных величин на среднее квадратическое отклонение). Такие же расчеты проводятся и для сбытовиков, обслуживающих разные регионы (рис. 4.7). Из рис. 4.7 вид­но, что две линии изменяются подобным образом. Это говорит о поло­жительной, очень тесной связи двух исследуемых переменных.

Рис. 4.7. Корреляция между числом сбытовиков и объемами продаж

Исходные данные в рассматриваемом примере также возможно представить по-другому (рис. 4.8). Из рис. 4.8 вытекают относительно слабый разброс точек (если бы все они легли на одну линию, коэффици­ент корреляции был бы равен +1) и достаточно большой угол наклона воображаемой кривой, проведенной через эти точки, что говорит о силь­ном влиянии численности сбытовиков на объем продаж.

Экспериментатор проверяет гипотезу о причинной связи двух явлений, А и В. Понятие «причинность» является одним из наиболее сложных в науке. Существует ряд эмпирических признаков причинной связи между двумя явлениями. Первый признак - разделенность причины и следствия во времени и предшествование причины следствию. Если исследователь обнаруживает изменения в объекте после экспериментального воздействия, по сравнению с аналогичным объектом, который воздействию не подвергался, у него есть повод говорить о том, что экспериментальное воздействие стало причиной изменения состояния объекта. Наличие воздействия и сравнение объектов являются необходимыми условиями та­кого вывода, ибо не всегда предшествующее событие - причина последующего.

Отлет гусей на юг отнюдь не является причиной выпадения снега через месяц. Второй признак - наличие статистической связи между двумя переменными (причиной и следствием). Изменение величины одной из переменных должно сопровождаться изменением величины другой. Иначе говоря, между переменными должна наблюдаться либо линейная корреляция, как между уровнем вербального интеллекта и школьной успеваемостью, либо нелинейная корреляция, как между уровнем активации и степенью эффективности научения (закон Йеркса-Додсона).

Наличие корреляции - недостаточное условие для вывода о причинно-следственной связи, так как связь может быть случайной или обусловленной третьей переменной.

Третий признак - причинно-следственная связь регистрируется, если экспериментальная процедура исключает иные возможности объяснения связей А и В , кроме как причинной, и все другие альтернативные причины возникновения явления В исключены.

Проверка экспериментальной гипотезы о причинной связи двух явлений производится следующим образом. Экспериментатор моделирует предполагаемую причину: она выступает в качестве экспериментального воздействия, а следствие - изменение состояния объекта - регистрируется с помощью какого-либо измерительного инструмента. Экспериментальное воздействие служит для изменения независимой переменной, которая является непосредственной причиной изменения зависимой переменной. Так, экспериментатор, предъявляя испытуемому сигналы различной околопороговой громкости, изменяет его психическое состояние - ис­пытуемый либо слышит, либо не слышит сигнал, что приводит к различным моторным или вербальным ответам («да» - «нет», «слышу» - «не слышу»).

Внешние («прочие») переменные экспериментальной ситуации экспериментатор должен контролировать. Среди внешних переменных выделяют: 1) побочные переменные , которые порождают систематическое смешение, ведущее к появлению ненадежных данных (фактор времени, фактор задачи, индивидуальные особенности испытуемых); 2) дополнительную переменную, которая существенна для изучаемой связи между причиной и следствием. При проверке частной гипотезы уровень до­полнительной переменной должен соответствовать ее уровню в изучаемой реальности. Например, при изучении связи уровня развития непосредственного и опосредованного запоминания дети должны быть одного возраста. Возраст в этом случае - дополнительная переменная. Если же проверяется общая гипотеза, то эксперимент проводится при разных уровнях дополнительной переменной, т.е. с участием групп детей разного возраста, как в известных экспериментах А. Н. Леонтьева по изучению развития опосредованного запоминания. Дополнительная переменная, особо значимая для эксперимента, называется «ключевой». Контрольной переменной называется дополнительная переменная, которая в факторном эксперименте становится второй основной.

Суть эксперимента состоит в том, что экспериментатор варьирует независимую переменную, регистрирует изменение зависимой переменной и контролирует внешние (побочные) переменные.

Исследователи различают разные виды независимой переменной: качественную («есть подсказка» - «нет подсказки»), количественную (уровень денежного вознаграждения).

Среди зависимых переменных выделяются базисные. Базисная переменная - единственная зависимая переменная, на которую оказывает влияние независимая переменная. Какие независимые, зависимые и внешние переменные встречаются при проведении психологического эксперимента?

Независимая переменная

Исследователь должен стремиться оперировать в эксперименте только независимой переменной. Эксперимент, где это условие соблюдается, назы­вают чистым экспериментом. Но чаще всего в ходе эксперимента, варьируя одну переменную, экспериментатор изменяет вместе с тем ряд других. Это изменение может быть вызвано действием экспериментатора и обусловлено связью двух переменных. Например, в эксперименте по выработке простого двигательного навыка он наказывает испытуемого за неудачи электрическим током. Размер наказания может выступать в качестве независимой переменной, а скорость выработки навыка - зависимой переменной. Наказание не только закрепляет у испытуемого соответствующие реакции, но и порождает у него ситуативную тревогу, которая влияет на результаты - увеличивает число ошибок и уменьшает скорость выработки навыка.

Центральная проблема при проведении экспериментального исследования - выделение независимой переменной и ее изоляция от других переменных.

В качестве независимых переменных в психологическом эксперименте могут выступать:

1) характеристики заданий;

2) особенности ситуации (внешние условия);

3) управляемые особенности (состояния) испытуемого.

Последние часто называют «переменными организма». Иногда выделяют четвертый вид переменных - константные характеристики испытуемого (интеллект, пол, возраст и т. д.), но они относятся к дополнительным переменным, поскольку на них нельзя воздействовать, а можно лишь учесть их уровень при формировании экспериментальных и контрольных групп.

Характеристика задания - то, чем может манипулировать экспериментатор более или менее свободно. По традиции, идущей от бихевиоризма, считается, что экспериментатор варьирует только характеристики стимулов (stimulus variables), но в его распоряжении гораздо больше возможностей. Экспериментатор может варьировать стимулы или материал задания, изменять тип ответа испытуемого (вербальный или невербальный ответ), менять шкалу оценивания и т.д. Он может варьировать инструкцию, меняя цели, которых должен достичь испытуемый в ходе выполнения задания. Экспериментатор может варьировать средства, которые имеет испытуемый для решения задачи, и ставить перед ним препятствия. Он может изменять систему поощрений и наказаний в ходе выполнения задания и т.д.

К особенностям ситуации следует отнести те переменные, которые непосредственно не входят в структуру экспериментального задания, выполняемого испытуемым. Это может быть температура в помещении, обстановка, наличие внешнего наблюдателя и т.д.

Эксперименты по выявлению эффекта социальной фасилитации (усиления) проводились по следующей схеме: испытуемому давалась какая-либо сенсомоторная или интеллектуальная задача. Он сначала выполнял ее в одиночку, а затем в присутствии другого человека или нескольких людей (последовательность, разумеется, менялась в разных группах). Оценивалось изменение продуктивности испытуемых. В этом случае задача испытуемого оставалась неизменной, изменялись лишь внешние условия эксперимента.

Что может варьировать экспериментатор?

Во-первых, это физические параметры ситуации: расположение аппаратуры, внешний вид помещения, освещенность, звуки и шумы, температура, размещение мебели, окраска стен, время проведения эксперимента (время суток, длительность и т.д.). То есть все физические параметры ситуации, не являющиеся стимулами.

Во-вторых, это социально психологические параметры: изоляция - работа в присутствии экспериментатора, работа в одиночку - работа с группой и т.д.

В-третьих, это особенности общения и взаимодействия испытуемого (испытуемых) и экспериментатора.

Судя по публикациям в научных журналах, за последние годы резко возросло количество экспериментальных исследований, в которых применяется варьирование внешних условий.

К «организменным переменным», или неуправляемым характеристикам испытуемых, относятся физические, биологические, психологические, социально-психологические и социальные признаки. Традиционно их относят к «переменным», хотя большинство из них является неизменным или относительно неизменным на протяжении жизни. Влияние дифференциально-психологических, демографических и прочих константных параметров на поведение индивида изучают в корреляционных исследованиях. Однако авторы большинства учебников по теории психологического метода, например М. Мэтлин, относят эти параметры к числу независимых переменных эксперимента.

Как правило, в современном экспериментальном исследовании дифференциально-психологические особенности индивидов, такие как интеллект, пол, возраст, социальное положение (статус) и т.д., учитываются в качестве дополнительных переменных, которые контролируются экспериментатором в общепсихологическом эксперименте. Но эти переменные могут превращаться во «вторую основную переменную» в дифференциально-психологическом исследовании, и тогда используется факторный план.

Зависимая переменная

Психологи имеют дело с поведением испытуемого, поэтому в качестве зависимой переменной выбираются параметры вербального и невербального поведения. К ним относятся: число ошибок, которое совершила крыса, пробегая лабиринт; время, которое затратил испытуемый при решении задачи, изменения мимики его лица при просмотре эротического фильма; время двигательной реакции на звуковой сигнал и т.д.

Выбор поведенческого параметра определяется исходной экспериментальной гипотезой. Исследователь должен ее максимально конкретизировать, т.е. добиться того, чтобы зависимая переменная была операционализирована - поддавалась регистрации в ходе эксперимента.

Параметры поведения условно можно разделить на формально-динамические и содержательные. Формально-динамические (или пространственно-временные) параметры достаточно легко поддаются аппаратурной регистрации. Приведем примеры этих параметров.

1. Точность. Наиболее часто регистрируемый параметр. Поскольку большинство заданий, предъявляемых испытуемому в психологических экспериментах, являются задачами на достижения, то точность или противоположный параметр - ошибочность действий - будет главным регистрируемым параметром поведения.

2. Латентность. Психические процессы протекают скрытно от внешнего наблюдателя. Время от момента предъявления сигнала до выбора ответа называется латентным временем. В некоторых случаях латентное время является важнейшей характеристикой процесса, например при решении мыслительных задач.

3. Длительность, или скорость, исполнения. Является характеристикой исполнительного действия. Время между выбором действия и окончанием его выполнения называют скоростью действия (в отличие от латентного времени).

4. Темп, или частота, действий. Важнейшая характеристика, особенно при исследовании простейших форм поведения.

5. Продуктивность. Отношение числа ошибок или качества выполнения действий ко времени выполнения. Служит важнейшей характеристикой при исследовании научения, познавательных процессов, процессов принятия решения и т. д. Содержательные параметры поведения предполагают категоризацию формы поведения либо в терминах обыденного языка, либо в терминах той теории, предположения которой проверяются в данном эксперименте.

Распознавание различных форм поведения - дело специально обученных экспертов или наблюдателей. Требуется немалый опыт, чтобы характеризовать один поступок как проявление покорности, а другой - как проявление подобострастия.

Проблема фиксации качественных особенностей поведения решается посредством: а) обучения наблюдателей и разработки карт наблюдения; б) измерения формально-динамических характеристик поведения с помощью тестов.

Зависимая переменная должна быть валидной и надежной. Надежность переменной проявляется в устойчивости ее регистрируемости при изменении условий эксперимента в течение времени. Валидность зависимой переменной определена только в конкретных условиях эксперимента и применительно к определенной гипотезе.

Можно выделить три типа зависимых переменных : 1) одновременную; 2) многомерную; 3) фундаментальную. В первом случае регистрируется лишь один параметр, и именно он считается проявлением зависимой переменной (между ними существует функциональная линейная связь), как, например, при изучении времени простой сенсомоторной реакции. Во втором случае зависимая переменная многомерна. Например, уровень интеллектуальной продуктивности проявляется во времени решения задачи, его качестве, трудности решенной задачи. Эти параметры могут фиксироваться независимо. В третьем случае, когда известно отношение между отдельными параметрами многомерной зависимой переменной, параметры рассматриваются в качестве аргументов, а сама зависимая переменная - в качестве функции. Например, фундаментальное измерение уровня агрессии F(a) рассматривается как функция отдельных ее проявлений (а) мимики, пантомимики, брани, рукоприкладства и др.

F(a) =f(a 1 ,а 2 ,... ,а n).

Существует еще одно важное свойство зависимой переменной, а именно - сензитивность (чувствительность) зависимой переменной к изменениям независимой. Суть в том, что манипуляция независимой переменной влияет на изменение зависимой. Если же мы манипулируем независимой переменной, а зависимая не изменяется, то зависимая переменная несензитивна по отношению к независимой. Два варианта проявления несензитивности зависимой переменной получили названия «эф­фект потолка» и «эффект пола». Первый случай встречается тогда, когда предъявляемая задача так проста, что уровень ее выполнения много выше всех уровней независимой переменной. Второй эффект, напротив, возникает тогда, когда задание настолько сложно, что уровень его выполнения оказывается ниже всех уровней независимой переменной.

Итак, как и прочие компоненты психологического исследования, зависимая переменная должна быть валидна, надежна, обладать чувствительностью к изменению уровня независимой переменной.

Существуют два основных приема фиксации изменений зависимой переменной. Первый применяется наиболее часто в экспериментах с участием одного испытуемого. Изменение зависимой переменной регистрируется во время эксперимента вслед за изменением уровня независимой переменной. Примером является фиксация результатов в экспериментах по научению. Кривая научения представляет собой классический вариант тренда - изменения успешности выполнения заданий в зависимости от числа проб (времени проведения эксперимента). Для обработки таких данных применяется статистический аппарат анализа трендов. Второй прием фиксации изменения уровня независимой переменной называются отсроченным измерением. Между воздействием и эффектом проходит определенный промежуток времени, его длительность устанавливается по времени отдаленности следствия от причины. Например, прием дозы алкоголя увеличивает время сенсомоторной реакции не сразу, а по прошествии определенного времени. То же самое можно сказать о влиянии заучивания конкретного количества иностранных слов на успешность перевода текста на редкий язык: эффект проявляется не сразу (если проявляется).

Отношения между переменными

В основе построения современной экспериментальной психологии лежит формула К. Левина - поведение есть функция личности и ситуации:

B = f (P; S).

Необихевиористы ставят в формулу вместо Р (личность) О (организм), что более точно, если считать испытуемыми не только людей, но и животных, а личность редуцировать к организму.

Как бы то ни было, большинство специалистов по теории психологического эксперимента, в частности МакГиган, считают, что в психологии существуют два типа законов: 1) «стимул-ответ»; 2) «организм-поведение».

Первый тип законов обнаруживается в ходе экспериментального исследования, когда стимул (задача, ситуация) - это независимая переменная, а зависимая переменная - ответ испытуемого.

Второй тип законов является продуктом метода систематического наблюдения и измерения, поскольку свойствами организма управлять с помощью психологических средств нельзя.

Существуют ли «пересечения»? Разумеется. Ведь в психологическом эксперименте зачастую учитывается влияние так называемых дополнительных переменных, большинство из которых является дифференциально-психологическими характеристиками. Следовательно, есть смысл добавить в список и «системные» законы, описывающие влияние ситуации на поведение личности, обладающей определенными свойствами. Но в психофизиологических и психофармакологических экспериментах можно воздействовать на состояние организма, а в ходе формирующего эксперимента - целенаправленно и необратимо изменять те или иные свойства личности.

В классическом психологическом поведенческом эксперименте устанавливается функциональная зависимость вида

R = f(S),

где R - ответ, a S - ситуация (стимул, задача). Переменная S систематически варьируется, а детерминируемые ею изменения ответа испытуемого фиксируются. В ходе изучения проявляются условия, при которых испытуемый ведет себя тем или иным образом. Результат фиксируется в форме линейной или нелинейной зависимости.

Другой тип зависимостей символизируется как зависимость поведения от лич­ностных свойств или состояний организма испытуемого:

R = f (О) или R = f(P).

Исследуется зависимость поведения испытуемого от того или иного состояния организма (болезни, усталости, уровня активации, фрустрации потребностей и т.д.) или от личностных свойств (тревожности, мотивации и т.д.). Исследования проводятся с участием групп людей, различающихся по данному признаку: свойству или актуальному состоянию.

Естественно, эти две строгие зависимости являются простейшими формами отношений между переменными. Возможны более сложные зависимости, устанавливаемые в конкретном эксперименте, в частности, факторные планы позволяют выявить зависимости вида R = f (S 1 , S 2), когда ответ испытуемого зависит от двух варьируемых параметров ситуации, а поведение является функцией состояния организма и среды.

Остановимся на формуле Левина. В общей форме она выражает идеал экспериментальной психологии возможность предсказать поведение конкретной личности в определенной ситуации. Переменная «личность», которая входит в состав этой формулы, вряд ли может рассматриваться лишь как «дополнительная». Традиция необихевиоризма предлагает использовать термин «промежуточная» переменная. В последнее время за такими «переменными» - свойствами и состояниями личности - закрепился тер­мин «переменная-модератор», т.е. посредник.

Рассмотрим основные возможные варианты отношений между зависимыми переменными. Существует, как минимум, шесть видов связи переменных. Первый, он же простейший, - отсутствие зависимости. Графически он выражается в форме прямой, параллельной оси абсцисс на графике, где по оси абсцисс (X) отложены уровни независимой переменной. Зависимая переменная не чувствительна к изменению независимой.

Монотонно возрастающая зависимость наблюдается тогда, когда увеличению значений независимой переменной соответствует изменение зависимой переменной.

Монотонно убывающая зависимость наблюдается, если увеличению значений независимой переменной соответствует уменьшение уровня независимой переменной.

Нелинейная зависимость U -образного типа обнаруживается в большинстве экспериментов, в которых выявляются особенности психической регуляции поведения.

Инвертированная U -образная зависимость получается в многочисленных экспериментальных и корреляционных исследованиях, как в психологии личности, мотивации, так и в социальной психологии.

Последний вариант зависимости обнаруживается не так часто, как предыдущие, - сложная квазипериодическая зависимость уровня зависимой переменной от уровня независимой.

При выборе способа описания работает «принцип экономии». Любое простое описание лучше, чем комплексное, даже если они одинаково успешны. Поэтому аргументы, распространенные в отечественных научных дискуссиях типа «Все гораздо сложнее на самом деле, чем представляет автор», по меньшей мере, бессмысленны. Тем более что никто не знает, как «на самом деле».

Так называемое «комплексное описание», «многомерное описание» есть зачастую просто попытка уйти от решения научной проблемы, способ маскировки личной некомпетентности, которую хотят скрыть за путаницей корреляционных связей и сложносоставными формулами, где все всему равняется.




© 2024
seagun.ru - Сделай потолок. Освещение. Электропроводка. Карниз