Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Часть iii. многомерные методы и модели





Табл и ца 18.3 Результаты МШ индивидуальных различий восприятия 10 стимулов двумя наблюдателями
ЗИтШих ЫитЬег ОШ.1 ОШ.2
vi -1,73 0,00
у2 -1,15 -0,58
уЗ -0,58 -1,15
у4 0,00 -1,73
у5 0,58 -0,58
у6 1,15 0,58
у7 1,73 1,73
у8 0,58 1,15
у9 -0,58 0,58
ую 0,00 0,00
5иУес1 ЫитЬег 5иЪ)е(д ХУещЬй  
НА) 0,00 1,00
2(5) 1,00 0,00

 

между 10 объектами, в каждой из которых по 3 ложных нулевых значения. К таким данным применима модель МШ индивидуальных различий. Резуль­таты обработки (программа 8Р88) приведены в табл. 18.3. 10 верхних строк этой таблицы — координаты объектов в двух шкалах, а две нижние строки — индивидуальные веса шкал.

Величина индивидуального веса по соответствующей шкале показывает, насколько учитывается признак при различении объектов. Как и следовало ожидать, каждый наблюдатель учитывает только одну координату — точку зрения на объекты, игнорируя другую. Тем не менее, двух точек зрения

-2 -1,5 -1 -0,5 0 0,5 1 1,5 2 Рис. 18.3. Субъективное пространство 10 объектов по данным табл. 18.3

2,00 1,50 1,00 0,50 0,00 -0,50 -1,00 -1,50 -2,00
в данном случае достаточно, чтобы восстановить исходную конфигурацию объектов с точностью до порядковых отношений между расстояниями (рис. 18.3).

Метрические отношения между объектами не удалось воспроизвести точ- но в связи с малым числом наблюдателей. Если бы был третий наблюдатель, точка зрения которого отличалась от первых двух, то восстановились бы и метрические отношения.

Если эксперты не оценивают различия, а упорядочивают объекты по сте­пени предпочтения, то применяется модель предпочтения. Исходными дан­ными для МШ предпочтений является матрица размером ИхР, где N строк соответствуют экспертам, а Р — это столбцы, содержащие ранговые места предпочтений объектов экспертами.



В дистанционной модели предпочтений каждый эксперт характеризуется координатами своей идеальной точки в пространстве /^признаков. Эти коор­динаты — такая комбинация характеристик объектов, которую эксперт счи­тает идеальной. Результирующая матрица содержит, помимо координат объек­тов, и координаты идеальных точек — по одной для каждого эксперта.

Для нашего примера эксперты могли бы упорядочивать объекты по степе­ни их наблюдаемой близости. Таким образом, описание объектов, получен­ное от каждого наблюдателя, стало бы экономнее. Результатом применения модели предпочтения была бы конфигурация объектов и «идеальных точек» наблюдателей, расположенных вблизи тех объектов, которые оказались ря­дом с наблюдателями.

Итак, МШ в своих основных трех модификациях позволяет решать три группы задач:

1. Исходные данные — прямые оценки субъектом различий между стиму­лами или вычисленные расстояния между объектами, характеризующимися совокупностью признаков. Примером второго типа данных могут являться расстояния между ролями (объектами), вычисленные по совокупности кон­структов (репертуарные решетки Келли). МШ позволяет реконструировать психологическое пространство субъекта, как конфигурацию стимулов в осях существенных признаков, по которым эти стимулы различаются субъектом.

2. Исходные данные — те же, что и в предыдущем случае субъективные различия между стимулами (оцененные прямо или вычисленные), но полученные не от одного, а от группы субъектов. Взвешенная модель инди­видуальных различий позволяет получить групповое психологическое про­странство стимулов в осях общих для данной группы существенных призна­ков. Дополнительно к этому для каждого субъекта — индивидуальные веса признаков как меру учета соответствующих точек зрения при различении стимулов.

3. Исходные данные — результаты упорядочивания каждым из группы субъектов набора стимулов по степени предпочтения. Модель анализа пред­почтений позволяет получить групповое психологическое пространство сти­мулов в осях существенных признаков и размещенные в этом же простран­стве идеальные точки для каждого субъекта.

МЕРЫ РАЗЛИЧИЯ

Непосредственными данными для многомерного шкалирования является информация о различиях между объектами. Эти различия должны быть оп­ределены между всеми парами объектов и иметь числовое выражение. Первое требование означает, что анализируется матрица попарных различий УУхА^ (где N — количество изучаемых объектов). Второе условие требует измерения различия, то есть введения метрики. Существуют четыре стандартных крите­рия, которым должна удовлетворять мера различия, чтобы быть метрикой:

1. Симметрия. Даны два объекта: х и у. Расстояние от х до у должно быть равно расстоянию от у до х.

2. Неразличимость идентичных объектов. Расстояние между двумя идентич­ными объектами равно 0.

3. Различимость нетождественных объектов. Расстояние между двумя раз­личающимися объектами не равно 0.

4. Неравенство треугольника. Даны три объекта: х, у и г. Расстояние от х до у меньше или равно сумме расстояний от х до г и от г до у (длина любой стороны треугольника меньше или равна сумме двух других сторон).

Эти очевидные требования, однако, не всегда выполняются в отношении некоторых показателей различия. Например, в случае социальных взаимных предпочтений: Петру нравится Маша, но Маше Петр не нравится. В этом слу­чае симметрия не соблюдена, показатель не может быть метрикой, и такие данные должны быть преобразованы к симметричному виду (разумеется, с потерей информации об асимметрии).

Из критерия симметрии следует, что матрица попарных различий ./Ух ТУ является симметричной относительно главной диагонали. Из критерия не­различимости идентичных объектов следует, что на главной диагонали этой матрицы различий расположены нули.

Выбор меры различия является органической частью исследования, опреде­ляется его процедурой и характером получаемых данных. По процедуре ис­следования можно выделить три типичные ситуации: испытуемые непосред­ственно оценивают степень различия (близости) изучаемых объектов; имеются данные об условной или совместной встречаемости событий (объектов); име­ется совокупность оценок для множества объектов — используются меры раз­личия профилей оценок. Отметим, что для МШ чаще всего используют непосредственные оценки различий. Остальные меры различий более спе­цифичны для кластерного анализа.

Непосредственная оценка различий

Существует большое количество достаточно хорошо разработанных про­цедур субъективной оценки различия между объектами: это и прямая оценка различия пары объектов при помощи заданной шкалы (от 5 до 10 градаций) или графически, и сортировка пар по категориям различия (от идентичных до максимально различных). Основная сложность этих процедур — большое количество пар объектов, предлагаемых испытуемым для сравнения. Для N объектов должно быть оценено количество пар, равное N(N-1)/2. Например, если объектов 20, испытуемый должен оценить различия 190 пар объектов.

Самый простой способ организации предъявления всех возможных пар объектов — табличный ТУх^У, когда испытуемый, оценивая различия, запол­няет нижний (верхний) треугольник таблицы. Однако при таком предъ­явлении на оценку различий между объектами влияют не только сами стимулы, но и порядок их предъявления. Речь идет о так называемых про­странственных и временных искажениях. Пространственные искажения — это влияние порядка следования объектов в каждой паре (второй объект в паре воспринимается иначе, чем первый). Временные искажения — это вли­яние порядка следования пар (пары в начале предъявления воспринимают­ся иначе, чем в конце ряда). Эти искажения могут быть компенсированы путем случайного упорядочивания порядка следования как объектов в паре, так и самих пар.

При большом числе объектов можно воспользоваться неполным планом, когда каждая пара оценивается не всеми испытуемыми. В неполных планах пары делятся на подмножества, и каждый испытуемый оценивает пары толь­ко в одном подмножестве. Каждое из подмножеств оценивается одинаковым числом испытуемых.

При непосредственной оценке различий сложных объектов, например, художественных произведений, людей и т. д., следует иметь в виду принци­пиальную многомерность таких объектов. Это может иметь своим следстви­ем выделение таких тривиальных критериев-шкал, как рост или пол для лю­дей, толщина или формат для книги и пр. Чтобы избежать таких ситуаций, целесообразно ограничивать контекст сравнения в соответствии с целями исследования — при помощи инструкции или процедуры предъявления пар для сравнения.

ПРИМЕР_________________________________________________________________________

В исследовании восприятия студентами учебных курсов, проведенном С. Лященко под нашим руководством', студентам предъявлялись пары этих курсов для сравне­ния. Для ограничения контекста сравнения в инструкции студентам предлагалось представить себе учебный курс, который бы по содержанию во всех отношениях их устраивал («идеал»). Перед сравнением каждой пары объектов каждому испытуе­мому предлагалось отметить тот из них, который ближе к «идеалу». Ограничение контекста позволило исключить такие тривиальные основания сравнения, как, например, пол преподавателя (именно такой критерий оказался главным на пред­шествующем этапе исследования, которое проводилось без ограничения контек­ста сравнения).

Результаты социометрии — матрицу взаимоотношений — тоже допустимо рассматривать как вариант прямой оценки различия. Ясно, что такие матри­цы — несимметричные, следовательно, получаемые данные требуют предва­рительной оцифровки и приведения к симметричному виду. Предложенный нами подход продемонстрирован на примере обработки данных социомет­рии в конце главы 19.

Условные и совместные вероятности

Условные вероятности применяются в исследованиях, где в качестве меры различия объектов (стимулов, событий) л: и у выступает вероятность того, что объект х не встречается при наличии объекта у. Типичные исследования по­добного рода — эксперименты по узнаванию и эксперименты по переходу. В первом случае исследователь предъявляет ТУ стимулов и просит испытуемо­го каждый раз назвать, какой из N шу был предъявлен. Эксперимент повто­ряется многократно. По результатам исследования заполняется таблица ТУхУУ, строки которой — стимулы, столбцы — ответы. В случае совпадения стимула и ответа к содержимому соответствующей ячейки прибавляется 0, в против­ном случае — 1. Затем содержимое каждой ячейки делится на количество эк­спериментов. При таком анализе предполагается, что чем более похожи сти­мулы, тем чаще они будут путаться. Такие матрицы несимметричны, но приводятся к симметричному виду путем сложения строк и столбцов с оди­наковыми номерами. Иначе говоря, исходная матрица складывается с транс­понированной.

Аналогичным образом обрабатываются данные в экспериментах по пере­ходу. Строки в матрице УУхЛ^при этом — состояния в начале процесса, столб­цы — при окончании (например, профессиональная ориентация до обучения и после). Предполагается, что чем ближе состояния, тем чаще будет переход из одного состояния в другое.

Меры различия профилей для количественных переменных

Профиль — это набор оценок (количественных признаков) объекта. Если объекты — это испытуемые, то профилем могут быть их оценки по каким- либо тестам. Сравниваемыми объектами могут быть и сами признаки, и объек­ты, оцениваемые испытуемыми, например, по степени предпочтения. Тогда профилем будет совокупность индивидуальных значений соответственно для признака или оцениваемого объекта. Таким образом, меры различия профи­лей могут применяться к наиболее типичным психологическим данным — типа «объект-признак».

Меры взаимосвязи — самые распространенные и очевидные показатели различия в социальных науках, в том числе в психологии. Иногда, например, в программе 8ТАТ18Т1СА, в качестве меры различия используется величина 1 - г (где г — коэффициент корреляции Пирсона). Чем более сходна форма профилей оценок для двух объектов или чем более согласованы изменения индивидуальных оценок для двух признаков, тем более они похожи (выше коэффициент корреляции), а указанная мера различия — ближе к нулю. Сле­дует отметить важную особенность использования коэффициента корреля­ции в качестве меры различия. Если существует сильная взаимосвязь двух признаков, но она отрицательна (отрицательный коэффициент корреляции), то при анализе эти признаки будут трактоваться как сильно различающиеся. Но если поменять знак одной из переменных, они станут очень близки. Та­ким образом, коэффициенты корреляции могут являться адекватной мерой различия (близости) только в том случае, если все они положительны (или взяты по абсолютной величине — без учета знака).

Меры расстояния — наиболее специфичные показатели различия именно для профилей, то есть множества ^признаков, измеренных для каждого объек­та. Различие между двумя объектами, выраженное мерой расстояния, пока­зывает, насколько в среднем различаются совокупности оценок для двух объек­тов, или насколько в среднем удалены друг от друга профили оценок. Другая трактовка меры расстояния — геометрическая. Это расстояние между двумя точками (объектами) в пространстве, размерность которого равна числу при­знаков. Значения признаков для объекта трактуются как координаты, задаю­щие его положение в этом пространстве.

Есть два способа задания расстояний, и выбор способа зависит от задачи исследования. Обычно исследователь имеет таблицу (матрицу) данных NхР, где N — строки (испытуемые, объекты), Р — столбцы (признаки, оценивае­мые объекты). Если исследователя интересуют различия между объектами или испытуемыми (с точки зрения, например, их классификации), то ему необ­ходимо задавать меры различия (расстояния) между строками. Если же ему важны основания классификации признаков, то выбираются меры различия (расстояния) между столбцами.

Существует множество мер расстояния, но наиболее часто используются две: евклидово (или его квадрат) и «метрика города».

Евклидово расстояние легко представить себе как кратчайшее расстояние (по прямой) между двумя точками (объектами) в пространстве двух, трех и более координат — в соответствии с числом признаков. Наиболее подходит эта метрика для метрических данных (в шкале интервалов или отношений). Если число признаков Р, то евклидово расстояние между объектами с номе­рами / и у выражается формулой:

_р=1

где х\\ х — значения признака р для объектов с номерами / и у соответствен­но. В пространственном представлении эти значения трактуются как коорди­наты объектов / и у по оси р.

«Метрика города» (синонимы — «Манхаттан», «городских кварталов» или сИу-Ыоск) — получила свое название по аналогии с длиной пути пешехода,
движущегося от одного объекта к другому в городе. Пешеход вынужден обходить кварталы домов по ломаной линии. Каждый «квартал» при этом — это абсолютная раз­ность между значениями двух объектов по одному из признаков. «Метрика города» больше подходит для неметрических дан­ных (порядковых и, отчасти, бинарных) и вычисляется по формуле:

р

Важное замечание относительно мер расстояния касается разного масш­таба оценок (переменных). Если переменные представлены в разных шкалах, имеют разный масштаб (средние и стандартные отклонения о), то на рассто­яние больше будут влиять переменные, имеющие больший разброс (диспер­сию). Чтобы уравнять влияние переменных на расстояние между объектами, целесообразно до вычисления расстояний нормировать переменные (делить на стандартное отклонение) или преобразовать их в г-оценки.

Заключая обзор мер различия, следует отметить одно обстоятельство. Наи­более частый вид данных в психологии — это множество признаков, измерен­ных у множества испытуемых. И наиболее вероятно, что исследователь пред­почтет, выбирая многомерное шкалирование или кластерный анализ, опираться на меры различия профилей. В этой ситуации исследователь должен отдавать себе отчет в том, что получаемые показатели различия между объектами не не­сут никакой иной информации, кроме констатации того, что субъект Л по из­меренным признакам более похож на субъекта В, чем на субъекта С. А инфор­мация о том, по каким признакам различия больше, а по каким — меньше, утрачивается при вычислении расстояний. Таким образом, одни и те же значе­ния различий между парами объектов могут быть обусловлены разницей в значе­ниях по разным признакам. Это обстоятельство сильно затрудняет интерпрета­цию мер расстояния. Иначе дело обстоит, если меры различия профилей используются в отношении данных о субъективных предпочтениях, когда вы­числяются меры различия между объектами предпочтения по множеству субъек­тивных оценок (между столбцами — оцениваемыми объектами). Здесь интер­претация достаточно очевидна: объекты будут тем ближе, чем ближе в среднем их располагают субъекты при упорядочивании по степени предпочтения. Во­обще говоря, если у исследователя есть выбор при планировании инструмента­рия, для классификации объектов следует предпочесть непосредственные оцен­ки различия, данные о предпочтениях или условные и совместные вероятности.

Меры различия профилей для номинативных переменных

Меры различия для частот — применяются в отношении данных типа «объект-признак», для которых каждый признак представляет собой абсолют­
ную частоту некоторого события для каждого из объектов. В этом случае в качестве мер различия между объектами компьютерные программы предла­гают вычислять специфические меры различия для частот (Соип1$ Меазигез): хи-квадрат (СЫ-$яиаге) или фи-квадрат (РЫ-зяиаге). Мера хи-квадрат вычис­ляется по формуле для %2-Пирсона (см. главу 9), а мера фи-квадрат — это ве­личина хи-квадрат, нормализованная путем деления ее на квадратный корень общей суммы частот.

Меры различия для бинарных переменных — применяются, если все пе­ременные набора являются бинарными. Для этого случая в компьютерных программах предусмотрен широкий набор бинарных мер различия (Втагу Меа§иге$). Например, в программе 8Р88 предлагается 6 мер для МШ и 27 (!) мер для кластерного анализа. Все эти меры различия основаны на представ­лении о четырехклеточной таблице сопряженности двух бинарных перемен­ных Хи У:

  У
 
* а Ь
  с й

 

где а — количество объектов, для которых и по X и по У значения равны 1, и т. д. Приведем некоторые меры различий для бинарных переменных. Квадрат евклидова расстояния (8циагей ЕисШеап йЫапсе)\ й= Ъ + с.

Евклидово расстояние (ЕисШеап йШапсе)\ с1 = VЬ + с . Коэффициент сопряженности ср-Пирсона (РМ 4-ро 'т1з согге1а(юп):

ай-Ъс

ф= ,

у1(а + Ь)(с + с1)(а + с)(Ь + с1)

О-коэффициент Юла (Уи1е'з ()): 0 = ———

аё + Ьс'

Величина различий (8'це йЩегепсеу. й =------------------------------ ———---------- г-

(|а + Ь + с + с1у'

Простой коэффициент совстречаемости (81тр\е та(скм%)\ (1 =------------------------------------------------ —------------

а + Ь + с + й'

То, какая мера предпочтительней, зависит оттого, какая роль в исследова­нии отводится частотам а, в, с и й.

НЕМЕТРИЧЕСКАЯ МОДЕЛЬ

Это основной вариант многомерного шкалирования, применяемый в на­стоящее время. Он лежит в основе всех остальных вариантов метода. Исход­ные данные для этого метода — матрица размерностью РхР, каждый элемент
которой — мера (оценка) различия между двумя объектами из Р. Рассмотрим кратко основные математико-статистические идеи метода, необходимые для его использования на практике.

Многомерное шкалирование и исторически, как новый шаг в математике, и процессуально — как последовательность обработки данных компьютер­ной программой, начинается с метрического шкалирования, предложенного в 50-х годах У. Торгерсоном. В модели Торгерсона вводится жесткое предполо­жение о том, что оценки различия между объектами равны линейному рас­стоянию между ними в евклидовом пространстве.

Пусть 5,у — имеющаяся в распоряжении исследователя оценка различия между объектами / и у. и х — координаты этих объектов по оси к, одной из осей искомого пространства размерностью К. Расстояние меледу объектами в искомом пространстве обозначим как йу. Тогда основное предположение Тор­герсона можно выразить формулой:

(18.1)

Торгерсон показал, что при соблюдении этого условия возможен переход от исходной матрицы различий между стимулами к их координатам в про­странстве А" признаков. Для этого необходимо прежде всего пересчитать ис­ходную матрицу различий в матрицу «скалярных произведений» — путем двойного центрирования, чтобы среднее значение элементов каждой строки и каждого столбца было равно 0. Элементы такой матрицы обозначим как <5*. Тогда, по Торгерсону, справедливо выражение: к

8* = или в матричной форме: Д* = XX',

к=\

где X — матрица координат стимулов, размерностью РкК.

Это уравнение аналогично главному уравнению факторного анализа, и решается оно относительно ^методом главных компонент с заданным чис­лом К.

В современных алгоритмах МШ метод Торгерсона используется на этапе предварительной оценки координат объектов по матрице исходных разли­чий. Далее следует неметрический этап, соответствующий неметричности ис­ходных данных. На этом этапе исходят из требования соответствия рангово­го порядка расстояний между объектами в результирующем пространстве ранговому порядку исходных различий, то есть, используя принятые обозначения:

^у ^ 8,у < 5 для любых /,у, I, т — номеров объектов.

к=1

Основной мерой выполнения этого требования является специальный по­казатель, который называется стресс — мера отклонения итоговой конфигурации объектов от исходных оценок различия в смысле указанного требования ранго­вого соответствия. Иногда дополнительно применяют коэффициент отчужде­ния тоже как меру подгонки неметрической модели к данным о различии.


Не рассматривая подробно вычислительные проблемы многомерного шка­лирования, укажем, что его алгоритм направлен на нахождение оценок коор­динат объектов, минимизирующих значение стресса. Построен этот алгоритм как градиентная процедура. Первый шаг алгоритма — получение стартовой конфигурации, как правило, методом Торгерсона. На каждом последующем шаге, или итерации, координаты стимулов изменяются в сторону уменьше­ния значения стресса, вычисленного на предыдущем этапе. Итерации повто­ряются многократно, до выполнения одного из трех заданных изначально условий (в программе 8Р88): достижения минимального значения стресса; достижения минимальной разницы между последним и предыдущим значе­ниями стресса; выполнения максимального заданного числа итераций. Каж­дое из трех условий задано в программе «по умолчанию», но может изменять­ся пользователем. Уменьшая пороговые величины стресса и его изменения, увеличивая максимальное число итераций, пользователь может добиться по­вышения точности окончательного решения. Показателем точности являет­ся конечная величина стресса. Наиболее приемлемые величины стресса на­ходятся в диапазоне от 0,05 до 0,2.

Одна из основных проблем, возникающих перед исследователем в МШ — это проблема размерности К. Как и при проведении факторного анализа, в МШ требуется предварительное определение числа шкал. Поэтому от исследо­вателя требуется получить несколько решений в пространствах разной раз­мерности и выбрать из них лучшее. Один из критериев размерности, приме­няемый для предварительной оценки числа шкал, аналогичен критерию отсеивания Кеттелла в факторном анализе: строится график зависимости стресса от числа шкал по результатам решения в разных размерностях. Ис­тинная размерность соответствует точке перегиба графика после резкого его спада.

Другой критерий числа шкал — абсолютная величина стресса. Если реше­ние одномерно, то приемлемая величина стресса — менее 0,1. Если решение размерностью 2 и выше, то приемлемы значения стресса, меньшие 0,1-0,15. Однако если уровень ошибок измерения или выборки высок, то можно при­знать решение и с более высокими значениями стресса. Дополнительно вы­числяется величина Л[21] (Н.80), которая показывает долю дисперсии исходных различий (от единичной), учтенную выделенными шкалами. Чем ближе К.80 к единице, тем полнее данные шкалы воспроизводят исходные различия между объектами.

Окончательный выбор размерности решения определяется на основе кри­териев интерпретируемости и воспроизводимости, так же, как в факторном анализе. Тем не менее, при размерности 2 и выше, следует избегать решений с величиной стресса выше 0,2. Обычный путь для этого — повышение раз­мерности и исключение объектов.

Результаты применения метода — таблица координат объектов в простран­стве А" шкал-признаков, величины стресса и Я8(), интерпретация шкал и вза­имного расположения объектов по таблице координат.

ПРИМЕР 18.1____________________________________________________________________

Исследовалась структура представлений студента о многомерных методах, приме­няемых в психологии. Студенту было предложено сравнить попарно по степени различия пять методов: множественный регрессионный анализ (МРА), дискрими­нантный анализ (ДА), кластерный анализ (КА), факторный анализ (ФА) и много­мерное шкалирование (МШ). При сравнении было предложено использовать 5-балльную шкалу (1 — очень похожи, 5 — совсем разные). Результаты сравнения приведены в табл. 18.4.

Таблица 18.4

Результаты попарного сравнения пяти методов многомерного анализа
Методы Обозначения МРА ДА КА ФА МШ
МРА МКА        
ДА БА      
КА КА    
ФА РА  
МШ МБЗ

 

Обработка на компьютере

Для обработки воспользуемся данными примера 18.1. Исходные данные (Ра1а ЕсИ1ог) представляют собой нижний треугольник матрицы попарных различий между 5 объектами (табл. 18.4).

1. Выбираем Апа1уге > 8са1е > МиШ(Нтеп8юпа1 8саНп§ (АЬ8САЬ)...

Примечание. В последних версиях 8Р88 наряду с вариантом АЬ8САЬ

предлагается более современный вариант многомерного шкалирования РКОХ- 8САЬ. Этот последний вариант, на наш взгляд, действительно более удобен и совершенен. Но поскольку многие пользуются версиями 8Р88, в которых про­граммы РК.ОХ8САЬ еще нет, мы воспользуемся вариантом АЬ8САЬ. Тем более что результаты обработки хоть и различаются, но не существенно. Для тех, кому доступна программа РКОХ8САЬ, не составит большого труда перейти к ней после знакомства с программой АЬ8САЬ.

применяется несимметричная квадратная матрица различий, например, как результат социометрии. В этом случае указывается соответствующая опция: 8Ьаре... 8диаге а5утте(пс.

3. Нажимаем кнопку Мойе1... (Модель...) и задаем параметры модели шка­лирования. Главным параметром здесь является количество шкал. Обычно следует получить результаты для нескольких шкал и выбрать наилучшее из них — по величинам стресса и по отчетливости интерпретации. В данном слу­чае у нас всего 5 объектов, поэтому вряд ли потребуется более двух шкал. За­даем Ошепкюпк (Шкалы) Мшшшп: 2, Махшит: 2.

Параметры Ьеуе! оГ теа$игетеп( (Уровень измерения) можно не менять и оставить принятые по умолчанию ОпНпа): (Порядковый:) их изменение прак­тически не меняет результаты. Разве что можно поставить флажок ШЫе Ней оЬзегуаНоп (Корректировать связанные наблюдения) — для устранения влия­ния связей (повторов) в рангах.

Убеждаемся, что установлено СопйШопаШу: Ма1пх (Условие подгонки: вся матрица).

После задания всех параметров модели нажимаем СопШие.

4. В основном окне диалога нажимаем Орйопк (Опции) для задания пара­метров обработки и вывода результатов. В появившемся окне диалога внизу в поле 0|$р1ау (Выводить) отмечаем флажком Сгоир р1о{$ (Графики для всей груп­пы) — для графического отображения объектов в координатах шкал. В поле СгКепа (Критерии) указаны критерии для итераций по подгонке модели: §-8(ге88 сопуег§епсе: 0,001 (Величина сходимости з-стресса), Мттшт 8-8*ге88 уа1ие: 0,005 (Минимальная величина з-стресса), Махшшт кегаШтв: 30 (Мак­симальное количество итераций). Эти величины можно не менять.

П р и м е ч а н и е. В поле СгНепа (Критерии) минимальная величина стрес­са явно занижена: вполне достаточна величина 0,1. Для увеличения точности решения можно увеличить количество итераций и уменьшить величину схо­димости стресса (разности стресса на последней и предыдущей итерациях). Но при этом следует внимательно просмотреть по результатам «историю» ите­раций, так как там могут быть локальные минимумы величины стресса.

После задания всех параметров обработки и вывода результатов нажимаем СопНпие.

Нажимаем ОК и получаем результаты.

5. Основные результаты МШ.

А) «История» итераций, величины стресса и К.80:

11:егаЬ10п МзСогу Еог СЬе 2 сИтепз:.опа1 во1иЬ1оп

(История итераций для 2-шкального решения.)

Уоипд'з З-зЬгезз Еогти1а 1 13 изе

(Применена формула 5-стресса Юнга.)

1Ьега(:1оп З-зЬгезз 1тргоуетепЬ

(Итерация) (5-стресс) (Улучшение)

1 .00000

1Ьега(;10П8 зЬоррей Ьесаиве З-зЪгезз 13 1езз ЬЬап .005000

(Итерации остановлены, поскольку 8-стресс меньше, чем 0,005.)

ЗСгезз Vа1иез аге Кгизка1'з зСгезз Еогши1а 1.

(Величина стресса вычислена по формуле 1 Краскала.)

Рог таЬггх

(Для всей матрицы)

ЗЬгезз = .00000 К5<Э = 1.00000.

История итераций показывает, что минимальная величина достигнута уже на первом шаге, что на самом деле встречается очень редко. Обычно при боль­шем количестве объектов проблемой является слишком большая величина стресса. Окончательная величина стресса (по формуле 1 Краскала) и величина свидетельствуют о полном соответствии решения исходным данным.

ка а с1а а тга о
тс!з о Га О
-1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 0|тепзюп 1 Т-------------------- 1 Г

В) Координаты объектов в осях шкал:

5Ыши1ив СоогсЦпаЬев
5Ь1ти1из Б1тепз10п
Б1М. 1 Б1М. 2
МКА 1.35 0 . 04
БА 0.44 1.10
КА -1 .29 0 .95
РА 0 . 72 -0.95
МОЗ -1 . 22 -1 . 13

С) График конфигурации стимулов в осях шкал:

1,5 1,0 0,5 0,0


 

-0,5

см с о

м -1,0 с Ф

Е

Ь -1,5

Величина стресса и К.5<3 свидетельствуют о достаточно точной подгонке конечной конфигурации к исходным данным (расстояния между объектами в итоговом пространстве соответствуют исходным различиям). Следователь­но, можно приступать к содержательной интерпретации результатов.

На положительном полюсе первой шкалы располагаются МРА и ФА, на отрицательном — КА и МШ. Промежуточное положение занимает ДА. Та­ким образом, эта шкала отражает наличие знаний у студента о различии ме­тодов по исходным предположениям о структуре данных: ФА, МРА и отчасти ДА исходят из согласованности изменчивости признаков (корреляций), а КА и МШ — из дистантной модели (мер сходства или различия).

На положительном полюсе второй шкалы располагаются ДА и КА — ме­тоды классификации, на отрицательном полюсе — ФА и МШ, структурные методы. Следовательно, наличие этой шкалы свидетельствует о сформиро­ванное™ у студента адекватных знаний о назначении многомерных методов. Наглядное представление о субъективной структуре знаний студента дает гра­фик координат сравниваемых объектов в пространстве двух шкал.

МОДЕЛЬ ИНДИВИДУАЛЬНЫХ РАЗЛИЧИЙ

Этот метод — расширение метода неметрического МШ путем включения в основную модель субъективных параметров. Оценки индивидуальных раз­личий дают, наряду с координатами стимулов, количественное координатное описание субъектов, аналогичное координатному описанию стимулов, полу­чаемому с помощью неметрического МШ. Исходными данными для МШ индивидуальных различий является N матриц оценок различий Р объектов- стимулов, то есть результат оценки попарных различий Р объектов каждым из А'испытуемых.

Индивидуальная матрица различий для каждого испытуемого может быть получена и в результате вычисления матрицы РхР по результатам сравнения испытуемым Робъектов по ряду признаков. Типичный пример последнего — обработка репертуарных решеток Келли, когда исходными данными являются оценки объектов (например, ролей) по совокупности конструктов. Такой вид анализа легко осуществим при помощи компьютерной программы РК.ОХ- 5САЦ входящей в состав 8Р85.

В модели предполагается, что существует общая для всех испытуемых груп­повая матрица координат объектов — X, размерностью Рх К(Р— число объек­тов, К — число координат). При этом для каждого испытуемого имеется ин­дивидуальная матрица координат Х! той же размерности, но по содержанию отличающаяся от групповой. Можно представить себе координаты группо­вой матрицы как совокупность общих (групповых) точек зрения на объекты. Тогда индивидуальная матрица будет отличаться от групповой степенью уче­та данным испытуемым этих общих точек зрения, иначе — индивидуальным весом общих координат.

Таким образом, предполагается, что элементы каждой субъективной мат­рицы координат отличаются от элементов групповой матрицы индивидуаль­ными весовыми коэффициентами — мерами того, насколько учитываются

Каждый субъект может быть охарактери­зован набором индивидуальных весов...

данным субъектом общие точки зрения. А каждый субъект может быть охарактеризован набором ин­дивидуальных весов — по одному для каждой координаты (точки зрения). Индивидуальные веса иногда называют весами важности, весами характеристик или масш­табными коэффициентами. При прочих равных условиях, при увеличении индивидуального веса данной ко­ординаты разность между стимулами по этой координате вносит все боль­ший и больший вклад в оцениваемое различие между этими стимулами.

Изложенное выше можно представить в виде формальных соотношений. Обозначим через х координату объекта / по шкале к в общем групповом про­странстве объектов. Предполагается, что соответствующий элемент субъек­тивной матрицы координат х1к5 для испытуемого 5 связан с элементом группо­вой матрицы соотношением

хИа ~ Хцс^кз

или в матричных обозначениях:

х3 = хт,

где и^ — вес координаты к для субъекта — матрица субъективных весов для всех А"координат, преобразующая групповую матрицу в индивидуальную.

В соответствии с моделью индивидуальных различий исходные данные о субъективном различии объектов / и / субъектом 5 выражаются формулой


 

 


к

К к = \
(18.2)
На

1а(хНс '


 

 









Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2018 zdamsam.ru Размещенные материалы защищены законодательством РФ.