Главная страница
Навигация по странице:

  • Количественная обработка

  • Методы первичной обработки Первичная обработка

  • 2.2. Методы вторичной обработки 2.2.1. Общее представление о вторичной обработке

  • Меры центральной тенденции

  • Меры изменчивости (рассеивания, разброса)

  • 2.2.2. Комплексное вычисление статистик

  • 2.2.2.1. Корреляционный анализ

  • 2.2.2.2. Дисперсионный анализ

  • 2.2.2.3. Факторный анализ

  • 2.2.2.4. Регрессионный анализ

  • 2.2.2.5. Таксономический анализ

  • Косвенное

  • Прямое

  • Планирование эксперимента. Решение следующих задач


    Скачать 208.98 Kb.
    НазваниеРешение следующих задач
    АнкорПланирование эксперимента.docx
    Дата10.09.2018
    Размер208.98 Kb.
    Формат файлаdocx
    Имя файлаПланирование эксперимента.docx
    ТипРешение
    #27941

    Подборка по базе: 0.0_Сборник ситуационных задач по нормальной физиологии (с ответ, Жилищное право задачи.docx, Понятия,цели и задачи.docx, 5,7 и 8 задачи.docx, ситуацион задачи по общ микроб.doc, Бюджетное планирование и прогнозирование.docx, Как открыть панель задач.docx, 0практические задачи по геометрии 10 кл прямые и плоскости.docx, Дополнительная задача 3.docx, Менеджер и его задачи.pptx

    1. МЕТОДЫ ОБРАБОТКИ ДАННЫХ


    Обработка данных направлена на решение следующих задач:

    1) упорядочивание исходного материала, преобразование множества данных в целостную систему сведений, на основе которой возможно дальнейшее описание и объяснение изучаемых объекта и предмета;

    2) обнаружение и ликвидация ошибок, недочетов, пробелов в сведени­ях; 3) выявление скрытых от непосредственного восприятия тенденций, закономерностей и связей; 4) обнаружение новых фактов, которые не ожидались и не были замечены в ходе эмпирического процесса; 5) вы­яснение уровня достоверности, надежности и точности собранных дан­ных и получение на их базе научно обоснованных результатов.

    Обработка данных имеет количественный и качественный аспек­ты. Количественная обработка есть манипуляция с измеренными ха­рактеристиками изучаемого объекта (объектов), с его «объективизиро­ванными» во внешнем проявлении свойствами. Качественная обра­ботка — это способ предварительного проникновения в сущность объекта путем выявления его неизмеряемых свойств на базе количе­ственных данных.

    Количественная обработка направлена в основном на формальное, внешнее изучение объекта, качественная — преимущественно на со­держательное, внутреннее его изучение. В количественном исследова­нии доминирует аналитическая составляющая познания, что отражено и в названиях количественных методов обработки эмпирического ма­териала, которые содержат категорию «анализ»: корреляционный ана­лиз, факторный анализ и т. д. Основным итогом количественной обра­ботки является упорядоченная совокупность «внешних» показателей объекта (объектов). Реализуется количественная обработка с помощью математико-статистических методов. [16]

    В качественной обработке доминирует синтетическая составляю­щая познания, причем в этом синтезе превалирует компонент объеди­нения и в меньшей степени присутствует компонент обобщения. Обоб­щение — прерогатива следующего этапа исследовательского процес­са— интерпретационного. В фазе качественной обработки данных главное заключается не в раскрытии сущности изучаемого явления, а пока лишь в соответствующем представлении сведений о нем, обеспе­чивающем дальнейшее его теоретическое изучение. Обычно результа­том качественной обработки является интегрированное представление о множестве свойств объекта или множестве объектов в форме класси­фикаций и типологий. Качественная обработка в значительной мере апеллирует к методам логики.

    Противопоставление друг другу качественной и количественной обработок (а, следовательно, и соответствующих методов) довольно условно. Они составляют органичное целое. Количественный анализ без последующей качественной обработки бессмыслен, так как сам по себе он не в состоянии превратить эмпирические данные в систему зна­ний. А качественное изучение объекта без базовых количественных данных в научном познании — немыслимо. Без количественных дан­ных качественное познание — это чисто умозрительная процедура, не свойственная современной науке. В философии категории «качество» и «количество», как известно, объединяются в категории «мера». Един­ство количественного и качественного осмысления эмпирического ма­териала наглядно проступает во многих методах обработки данных: факторный и таксономический анализы, шкалирование, классифика­ция и др. Но поскольку традиционно в науке принято деление на коли­чественные и качественные характеристики, количественные и каче­ственные методы, количественные и качественные описания, примем количественные и качественные аспекты обработки данных как само­стоятельные фазы одного исследовательского этапа, которым соответ­ствуют определенные количественные и качественные методы.

    Качественная обработка естественным образом выливается в опи­сание и объяснение изучаемых явлений, что составляет уже следую­щий уровень их изучения, осуществляемый на стадии интерпретации результатов. Количественная же обработка полностью относится к эта­пу обработки данных. [17]


    1. Количественные методы


    Процесс количественной обработки данных имеет две фазы: пер­вичную и вторичную.


      1. Методы первичной обработки

    Первичная обработка нацелена на упорядочивание информации об объекте и предмете изучения, полученной на эмпирическом этапе исследования. На этой стадии «сырые» сведения группируются по тем или иным критериям, заносятся в сводные таблицы, а для наглядности представляются графически. Все эти манипуляции позволяют, во-пер­вых, обнаружить и ликвидировать ошибки, совершенные при фикса­ции данных, и, во-вторых, выявить и изъять из общего массива неле­пые данные, полученные в результате нарушения процедуры обследо­вания, несоблюдения испытуемыми инструкции и т. п. Кроме того, первично обработанные данные, представая в удобной для обозрения форме, дают исследователю в первом приближении представление о характере всей совокупности данных в целом: об их однородности — неоднородности, компактности — разбросанности, четкости — размы­тости и т. д. Эта информация хорошо читается на наглядных формах представления данных и связана с понятиями «распределение данных».

    К основным методам первичной обработки относятся: табулирова­ние, т. е. представление количественной информации в табличной форме, и построение диаграмм (рис. I), гистограмм (рис. 2), полигонов рас­пределения (рис. 3) и кривых распределения (рис. 4). Диаграммы отра­жают распределение дискретных данных, остальные графические формы используются для представления распределения непрерывных данных.

    От гистограммы легко перейти к построению частотного полиго­на распределения, а от последнего — к кривой распределения. Частот­ный полигон строят, соединяя прямыми отрезками верхние точки цент­ральных осей всех участков гистограммы. Если же вершины участков соединить с помощью плавньгх кривых линий, то получится кривая рас­пределения первичных результатов. Переход от гистограммы к кривой распределения позволяет путем интерполяции находить те величины исследуемой переменной, которые в опыте не были получены. [18]


    2.2. Методы вторичной обработки
    2.2.1. Общее представление о вторичной обработке

    Вторичная обработка заключается главным образом в статис­тическом анализе итогов первичной обработки. Уже табулирование и построение графиков, строго говоря, тоже есть статистическая обра­ботка, которая в совокупности с вычислением мер центральной тен­денции и разброса включается в один из разделов статистики, а именно в описательную статистику. Другой раздел статистики — индуктивная статистика [19]— осуществляет проверку соответствия данных вы­борки всей популяции, т. е. решает проблему репрезентативности ре­зультатов и возможности перехода от частного знания к общему [10, 34, 41, 42]. Третий большой раздел — корреляционная статистика — выявляет связи между явлениями. В целом же надо понимать, что «ста­тистика — это не математика, а, прежде всего, способ мышления, и для ее применения нужно лишь иметь немного здравого смысла и знать основы математики» [19, т. 2, с. 277].

    Статистический анализ всей совокупности полученных в исследо­вании данных дает возможность охарактеризовать ее в предельно сжа­том виде, поскольку позволяет ответить на три главных вопроса: 1) ка­кое значение наиболее характерно для выборки?; 2) велик ли разброс данных относительно этого характерного значения, т. е. какова «размы­тость» данных?; 3) существует ли взаимосвязь между отдельными дан­ными в имеющейся совокупности и каковы характер и сила этих связей? Ответами на эти вопросы служат некоторые статистические показатели исследуемой выборки. Для решения первого вопроса вычисляются меры центральной тенденции (или локализации), второго — меры изменчиво­сти (или рассеивания, разброса), третьего — меры связи (или корреля­ции). Эти статистические показатели приложимы к количественным дан­ным (порядковым, интервальным, пропорциональным).

    Меры центральной тенденции (м. ц. т.) — это величины, вокруг которых группируются остальные данные. Эти величины являются как бы обобщающими всю выборку показателями, что, во-первых, позво­ляет по ним судить обо всей выборке, а во-вторых, дает возможность сравнивать разные выборки, разные серии между собой. К мерам цент­ральной тенденции относятся: среднее арифметическое, медиана, мода, среднее геометрическое, среднее гармоническое.

    Среднее арифметическое (М) —это результат деления суммы всех значений (X) на их количество (N): М = ЕХ / N.

    Медиана (Me) — это значение, выше и ниже которого количество отличающихся значений одинаково, т. е. это центральное значение в последовательном ряду данных.

    Примеры: 3,5,7,9,11,13,15; Me = 9.

    3,5,7,9, 11, 13, 15, 17; Me = 10. [20]

    Из примеров ясно, что медиана не обязательно должна совпадать с имеющимся замером, это точка на шкале. Совпадение происходит в случае нечетного числа значений (ответов) на шкале, несовпадение — при четном их числе.

    Мода (Мо) — это значение, наиболее часто встречающееся в вы­борке, т. е. значение с наибольшей частотой.

    Пример: 2, 6, 6, 8, 9, 9, 9, 10; Мо = 9.

    Если всё значения в группе встречаются одинаково часто, то счи­тается, что моды нет (например: 1, 1, 5, 5, 8, 8). Если два соседних значения имеют одинаковую частоту и они больше частоты любого дру­гого значения, мода есть среднее этих двух значений (например: 1, 2, 2, 2, 4, 4, 4, 5, 5, 7; Мо = 3). Если то же самое относится к двум несмеж­ным значениям, то существует две моды, а группа оценок является би­модальной (например: 0, 1, 1, 1, 2, 3, 4, 4, 4, 7; Мо = 1 и 4).

    Обычно среднее арифметическое применяется при стремлении к наибольшей точности и когда впоследствии нужно будет вычислять стандартное отклонение. Медиана — когда в серии есть «нетипичные» данные, резко влияющие на среднее (например: 1, 3, 5, 7, 9, 26, 13). Мода — когда не нужна высокая точность, но важна быстрота опреде­ления м. ц. т.
    Меры изменчивости (рассеивания, разброса) — это статисти­ческие показатели, характеризующие различия между отдельными зна­чениями выборки. Они позволяют судить о степени однородности по­лученного множества, о его компактности, а косвенно и о надежности полученных данных и вытекающих из них результатов. Наиболее ис­пользуемые в исследованиях показатели: размах, сред­нее отклонение, дисперсия, стандартное отклонение, полуквартилъное отклонение.

    Размах (Р) —это интервал между максимальным и минимальным значениями признака. Определяется легко и быстро, но чувствителен к случайностям, особенно при малом числе данных.

    Примеры: (0, 2, 3, 5, 8; Р = 8); (-0.2, 1.0, 1.4, 2.0; Р - 2,2).

    Среднее отклонение (МД) — это среднеарифметическое разницы (по абсолютной величине) между каждым значением в выборке и ее средним: МД = Id / N, где: d = |Х-М|; М — среднее выборки; X — конкретное значение; N — число значений. [21]

    Множество всех конкретных отклонений от среднего характери­зует изменчивость данных, но, если их не взять по абсолютной величи­не, то их сумма будет равна нулю, и мы не получим информации об их изменчивости. МД показывает степень скученности данных вокруг сред­него. Кстати, иногда при определении этой характеристики выборки вместо среднего (М) берут иные меры центральной тенденции — моду или медиану.

    Дисперсия (Д) (от лат. dispersus — рассыпанный). Другой путь из­мерения степени скученности данных предполагает избегание нулевой суммы конкретных разниц (d = Х-М) не через их абсолютные величи­ны, а через их возведение в квадрат. При этом получают так называе­мую дисперсию:

    Д = Σd2 / N — для больших выборок (N > 30);

    Д = Σd2 / (N-1) — для малых выборок (N < 30).

    Стандартное отклонение (δ). Из-за возведения в квадрат отдель­ных отклонений d при вычислении дисперсии полученная величина оказывается далекой от первоначальных отклонений и потому не дает о них наглядного представления. Чтобы этого избежать и получить ха­рактеристику, сопоставимую со средним отклонением, проделывают обратную математическую операцию — из дисперсии извлекают квад­ратный корень. Его положительное значение и принимается за меру изменчивости, именуемую среднеквадратическим или стандартным отклонением:



    МД, Д и d применимы для интервальных и пропорционных дан­ных. Для порядковых данных обычно в качестве меры изменчивости берут полуквартильное отклонение (Q), именуемое еще полуквартильным коэффициентом или полумеждуквартильным размахом. Вычис­ляется этот показатель следующим образом. Вся область распределе­ния данных делится на четыре равные части. Если отсчитывать на­блюдения, начиная от минимальной величины на измерительной шкале (на графиках, полигонах, гистограммах отсчет обычно ведется слева направо), то первая четверть шкалы называется первым квартилем, а точка, отделяющая его от остальной части шкалы, обозначается сим­волом Q,. Вторые 25% распределения — второй квартиль, а соответ­ствующая точка на шкале — Q2. Между третьей и четвертой четвертя-[22]ми распределения расположена точка Q,. Полу квартальный коэффи­циент определяется как половина интервала между первым и третьим квартилями: Q = (Q.-Q,) / 2.

    Понятно, что при симметричном распределении точка Q0 совпа­дет с медианой (а следовательно, и со средним), и тогда можно вычис­лить коэффициент Q для характеристики разброса данных относитель­но середины распределения. При несимметричном распределении это­го недостаточно. И тогда дополнительно вычисляют коэффициенты для левого и правого участков: Qлев=(Q2-Q,) / 2; Qправ= (Q, — Q2) / 2.
    Меры связи

    Предыдущие показатели, именуемые статистиками, характери­зуют совокупность данных по одному какому-либо признаку. Этот из­меняющийся признак называют переменной величиной или просто «пе­ременной». Меры связи же выявляют соотношения между двумя пере­менными или между двумя выборками. Эти связи, или корреляции (от лат. correlatio — 'соотношение, взаимосвязь') определяют через вы­числение коэффициентов корреляции (R), если переменные находятся в линейной зависимости между собой. Но наличие корреляции не означает, что между переменными су­ществует причинная (или функциональная) связь. Функциональная за­висимость— это частный случай корреляции. Даже если связь при­чинна, корреляционные показатели не могут указать, какая из двух переменных причина, а какая — следствие. Кроме того, любая обнару­женная связь, как правило, существует благодаря и дру­гим переменным, а не только двум рассматриваемым. К тому же взаи­мосвязи признаков столь сложны, что их обусловлен­ность одной причиной вряд ли состоятельна, они детерминированы множеством причин.

    Виды корреляции:

    I. По тесноте связи:

    1) Полная (совершенная): R = 1. Констатируется обязательная вза­имозависимость между переменными. Здесь уже можно говорить о функциональной зависимости.

    2) связь не выявлена: R = 0. [23]

    3) Частичная: 0
    Встречаются и другие градации оценок тесноты связи [61].

    Кроме того, при оценке тесноты связи используют так называемую «частную» классификацию корреляционных связей. Эта классификация ориентирована не на абсолютную величину коэффици­ентов корреляции, а на уровень значимости этой величины при опреде­ленном объеме выборки. Эта классификация применяется при статис­тической оценке гипотез. Тогда чем больше выборка, тем меньшее зна­чение коэффициента корреляции может быть принято для признания достоверности связей. А для малых выборок даже абсолютно большое значение R может оказаться недостоверным [75].
    II. По направленности:

    1) Положительная (прямая);

    Коэффициент R со знаком «плюс» означает прямую зависимость: при увеличении значения одной переменной наблюдается увеличение другой.

    2) Отрицательная (обратная).

    Коэффициент R со знаком «минус» означает обратную зависимость: увеличение значения одной переменной влечет уменьшение другой.
    III. По форме:

    1) Прямолинейная.

    При такой связи равномерным изменениям одной переменной со­ответствуют равномерные изменения другой. Если говорить не только о корреляциях, но и о функциональных зависимостях, то такие формы зависимости называют пропорциональными.

    2) Криволинейная.

    Это связь, при которой равномерное изменение одного признака сочетается с неравномерным изменением другого.

    Формулы коэффициента корреляции:

    При сравнении порядковых данных применяется коэффициент ранговой корреляции по Ч. Спирмену (ρ): ρ = 6Σd2 / N (N2 — 1), где: d — разность рангов (порядковых мест) двух величин, N — число сравни­ваемых пар величин двух переменных (X и Y). [24]

    При сравнении метрических данных используется коэффициент корреляции произведений по К. Пирсону (r): r = Σ ху / Nσxσy

    где: х — отклонение отдельного значения X от среднего выборки (Мх), у — то же для Y, Ох — стандартное отклонение для X, а — то же для Y, N — число пар значений X и Y.

    Внедрение в научные исследования вычислительной техники по­зволяет быстро и точно определять любые количественные характери­стики любых массивов данных. Разработаны различные программы для ЭВМ, по которым можно проводить соответствующий статистический анализ практически любых выборок. Из массы статистических приемов наибольшее распространение получили следующие: 1) комплексное вычисление статистик; 2) корреляционный анализ; 3) дисперсионный анализ; 4) регрессионный анализ; 5) факторный ана­лиз; 6) таксономический (кластерный) анализ; 7) шкалирование.
    2.2.2. Комплексное вычисление статистик

    По стандартным программам производится вычисление как основ­ных совокупностей статистик, представленных нами выше, так и до­полнительных, не включенных в наш обзор. Иногда получением этих характеристик исследователь и ограничивается, но чаще совокупность этих статистик представляет собой лишь блок, входящий в более ши­рокое множество показателей изучаемой выборки, получаемых по бо­лее сложным программам. В том числе по программам, реализующим приводимые ниже методы статистического анализа.

    2.2.2.1. Корреляционный анализ

    Сводится к вычислению коэффициентов корреляции в самых раз­нообразных соотношениях между переменными. Соотношения задаются исследователем, а переменные равнозначны, т. е., что является причи­ной, а что следствием, установить через корреляцию невозможно. Кро­ме тесноты и направленности связей метод позволяет установить фор­му связи (линейность, нелинейность) [6, 27]. Надо заметить, что нели­нейные связи не поддаются анализу общепринятыми математическими и статистическими методами. Данные, относящиеся [25] к нелинейным зонам (например, в точках разрыва связей, в местах скач­кообразных изменений), характеризуют через содержательные описа­ния, воздерживаясь от формально-количественного их представления [17, с. 17-23]. Иногда для описания нелинейных явлений удается применить непараметрические математико-статистические ме­тоды и модели. Например, используется математическая теория катаст­роф [62, с. 523-525].
    2.2.2.2. Дисперсионный анализ

    В отличие от корреляционного анализа этот метод позволяет вы­являть не только взаимосвязь, но и зависимости между переменными, т. е. влияние различных факторов на исследуемый признак. Это влия­ние оценивается через дисперсионные отношения. Изменения изучае­мого признака (вариативность) могут быть вызваны действием отдель­ных известных исследователю факторов, их взаимодействием и воз­действиями неизвестных факторов. Дисперсионный анализ позволяет обнаружить и оценить вклад каждого из этих влияний на общую вари­ативность исследуемого признака. Метод позволяет быстро сузить поле влияющих на изучаемое явление условий, выделив наиболее существен­ные из них. Таким образом, дисперсионный анализ — это «исследова­ние влияния переменных факторов на изучаемую переменную по дис­персиям» [80, с. 340]. В зависимости от числа влияющих переменных различают одно-, двух-, многофакторный анализ, а в зависимости от характера этих переменных — анализ с постоянными, случайными или смешанными эффектами [18, 80, 87]. Дисперсионный анализ широко применяется при планировании эксперимента.
    2.2.2.3. Факторный анализ

    Метод позволяет снизить размерность пространства данных, т. е. обоснованно уменьшить количество измеряемых признаков (перемен­ных) за счет их объединения в некоторые совокупности, выступаю­щие как целостные единицы, характеризующие изучаемый объект. Эти составные единицы и называют в данном случае факторами, от кото­рых надо отличать факторы дисперсионного анализа, представляющие [26] собой отдельные признаки (переменные). Считается, что именно совокупность признаков в определенных комбинациях может харак­теризовать многие явления или закономерность их развития, тогда как по отдельности или в других комбинациях эти признаки не дают информации. Как правило, факторы не видны «на глаз», скрыты от непосредственного наблюдения. Особенно продуктивен факторный анализ в предварительных исследованиях, когда необходимо выделить в первом приближении скрытые закономерности в исследуемой обла­сти. Основой анализа является матрица корреляций, т. е. таблицы ко­эффициентов корреляции каждого признака со всеми остальными (принцип «все со всеми»). В зависимости от числа факторов в корре­ляционной матрице различают однофакторный (по Спирмену), би­факторный (по Холзингеру) и многофакторный (по Терстону) ана­лизы. По характеру связи между факторами метод делится на анализ с ортогональными (независимыми) и с облическими (зависимыми) факторами. Существуют и иные разновидности метода [9, 31, 46, 57, 85]. Весьма сложный математический и логический аппараты фактор­ного анализа часто затрудняют выбор адекватного задачам исследо­вания варианта метода. Тем не менее популярность его в научном мире растет с каждым годом.
    2.2.2.4. Регрессионный анализ

    Метод позволяет изучать зависимость среднего значения одной ве­личины от вариаций другой (других) величины. Специфика метода зак­лючается в том, что рассматриваемые величины (или хотя бы одна из них) носят случайный характер. Тогда описание зависимости распадает­ся на две задачи: 1) выявление общего вида зависимости и 2) уточнение этого вида путем вычисления оценок параметров зависимости. Для ре­шения первой задачи стандартных методов не существует, и здесь произ­водится визуальный анализ корреляционной матрицы в сочетании с ка­чественным анализом природы исследуемых величин (переменных). Это требует от исследователя высокой квалификации и эрудиции. Вторая за­дача по сути есть нахождение аппроксимирующей кривой. Чаще всего эта аппроксимация осуществляется с помощью математического метода наименьших квадратов [11, 23, 27].

    2.2.2.5. Таксономический анализ

    Метод представляет собой математический прием группировки данных в классы (таксоны, кластеры) таким образом, чтобы объекты, входящие в один класс, были более однородны по какому-либо призна­ку по сравнению с объектами, входящими в другие классы. В итоге по­является возможность определить в той или иной метрике расстояние между изучаемыми объектами и дать упорядоченное описание их взаи­моотношений на количественном уровне [26, 52, 84]. В силу недоста­точной проработанности критерия эффективности и допустимости кла­стерных процедур данный метод применяется обычно в сочетании с другими способами количественного анализа данных. С другой сторо­ны, и сам таксономический анализ используется как дополнительная страховка надежности результатов, полученных с использованием дру­гих количественных методов, в частности, факторного анализа. Суть кластерного анализа позволяет рассматривать его как метод, явно со­вмещающий количественную обработку данных с их качественным анализом. Поэтому причислить его однозначно к разряду количествен­ных методов, видимо, не правомерно. Но поскольку процедура метода по преимуществу математическая и результаты могут быть представле­ны численно, то и метод в целом будем относить к категории количе­ственных.

    2.2.2.6. Шкалирование

    Шкалирование в еще большей степени, чем таксономический ана­лиз, совмещает в себе черты количественного и качественного изуче­ния реальности. Количественный аспект шкалирования состоит в том, что в его процедуру в подавляющем большинстве случаев входят изме­рение и числовое представление данных. Качественный аспект шка­лирования выражается в том, что, во-первых, оно позволяет манипули­ровать не только количественными данными, но и данными, не имею-[28]щими единиц измерения, а во-вторых, включает в себя элементы каче­ственных методов (классификации, типологизации, систематизации).

    Еще одной принципиальной особенностью шкалирования, затруд­няющей определение его места в общей системе научных методов, яв­ляется совмещение в нем процедур сбора данных и их обработки. Мож­но даже говорить о единстве эмпирических и аналитических процедур при шкалировании. Не только в конкретном исследовании трудно ука­зать на последовательность и разнесенность этих процедур (они часто совершаются одновременно и совместно), но и в теоретическом плане не удается обнаружить стадиальную иерархию (невозможно сказать, что первично, а что вторично).

    Третий момент, не позволяющий однозначно отнести шкалирова­ние к той или иной группе методов, — это его органическое «враста­ние» в специфические области знания и приобретение им наряду с при­знаками общенаучного метода признаков узкоспецифических. Если другие методы общенаучного значения (например, наблюдение или эк­сперимент) можно довольно легко представить как в общем виде, так и в конкретных модификациях, то шкалирование на уровне всеобщего без потери необходимой информации охарактеризовать весьма непрос­то. Причина этого очевидна: совмещение в шкалировании эмпиричес­ких процедур с обработкой данных. Эмпирика конкретна, математика абстрактна, поэтому срастание общих принципов математического ана­лиза со специфическими приемами сбора данных дает указанный эф­фект.

    Осознав все эти факторы, мы все же помещаем шкалирование в разряд количественных методов обработки данных, поскольку на прак­тике шкалирование встречается в двух ситуациях. Первая — это построение шкал, а вторая — их использова­ние. В случае с построением все упомянутые особенности шкалирова­ния проявляются в полной мере. В случае же использования они отхо­дят на второй план, поскольку применение готовых шкал (например, «стандартных» шкал при тестировании) предполагает просто сравнение-[29] с ними показателей, полученных на этапе сбора данных. Кроме того, формальное построение шкал, как правило, выносится за пределы непосредственных измерений и сбора данных об объекте, т. е. основные шкалообразующие действия математического характера проводятся после сбора данных, что сопос­тавимо с этапом их обработки.

    В самом общем смысле шкалирование есть способ познания мира через моделирование реальности с помощью формальных (в первую очередь, числовых) систем. Применяется этот способ практически во всех сферах научного познания (в естественных, точных, гуманитар­ных, социальных, технических науках) и имеет широкое прикладное значение.

    Наиболее строгим определением представляется следующее: шка­лирование — это процесс отображения по заданным правилам эм­пирических множеств в формальные. Под эмпирическим множе­ством понимается любая совокупность реальных объектов (людей, животных, явлений, свойств, процессов, событий), находящихся в оп­ределенных отношениях друг с другом. Эти отношения могут быть пред­ставлены четырьмя типами (эмпирическими операциями): 1) равенство (равно — не равно); 2) ранговый порядок (больше — меньше); 3) ра­венство интервалов; 4) равенство отношений.

    Под формальным множеством понимается произвольная совокуп­ность символов (знаков, чисел), связанных между собой определенны­ми отношениями, которые соответственно эмпирическим отношениям описываются четырьмя видами формальных (математических) опера­ций: 1) «равно — не равно» (= ≠); 2) «больше — меньше» (> <); 3) «сло­жение — вычитание» (+ -); 4) «умножение — деление» (* :).

    При шкалировании обязательным условием является взаимооднозначное соответствие между элементами эмпирического и формаль­ного множеств. Это означает, что каждому элементу первого множе-[30]ства должен соответствовать только один элемент второго, и наоборот. При этом взаимооднозначное соответствие типов отношений между элементами обоих множеств (изоморфизм структур) не обязательно. В случае изоморфности этих структур производится так называемое пря­мое (субъективное) шкалирование, при отсутствии изоморфизма про­изводится косвенное (объективное) шкалирование.

    Итогом шкалирования является построение шкал (лат. scala — 'лестница'), т. е. некоторых знаковых (числовых) моделей исследуемой реальности, с помощью которых можно эту реальность измерить. Та­ким образом, шкалы являются измерительными инструментами. Об­щее представление обо всем многообразии шкал можно получить из работ [21, 22], где приведена их классификационная система и даны краткие описания каждого вида шкал.

    Отношения между элементами эмпирического множества и соот­ветствующие допустимые математические операции (допустимые пре­образования) обуславливают уровень шкалирования и тип получаемой шкалы (по классификации С. Стивенса). Первому, наиболее простому типу отношений (= ≠) соответствуют наименее информативные шка­лы наименований, второму (> <) — шкалы порядка, третьему (+ -) — шкалы интервалов, четвертому (* :) — самые информативные шка­лы отношений.

    Одномерное шкалирование — это про­цесс отображения эмпирического множества в формальное по одному критерию. Получаемые одномерные шкалы отображают либо отноше­ния между одномерными эмпирическими объектами (или одними и теми же свойствами многомерных объектов), либо изменения одного свой­ства многомерного объекта. Реализуется одномерное шкалирование с помощью методов и прямого (субъективного), и косвенного (объектив­ного) шкалирования. [32]

    Под многомерным шкалированием понимается процесс отобра­жения эмпирического множества в формальное одновременно по не­скольким критериям. Многомерные шкалы отражают либо отношения между многомерными объектами, либо одновременные изменения не­скольких признаков одного объекта. Процесс многомерного шкалиро­вания в отличие от одномерного характеризуется большей трудоемкос­тью второго этапа, т. е. формализации данных. В связи с этим привле­кается мощный статистико-математический аппарат, например, кластерный или факторный анализы, входящие неотъемлемой частью в методы многомерного шкалирования.

    Исследование проблем многомерного шкалирования связано с именами Ричардсона и Торгерсона, предложивших его первые модели. Начало разработкам методов неметрического многомерного шкалиро­вания положил Шепард. Наиболее распространенный и впервые теоре­тически обоснованный алгоритм многомерного шкалирования предло­жил Краскал. Обобщение сведений по многомерному шкалированию провел М. Дейвисон [25].

    Косвенное, или объективное, шкалирование — это процесс отображения эмпирического множества в формальное при вза­имном несоответствии (отсутствие изоморфизма) между структурами этих множеств. Прямое, или субъективное, шкалирование представляет собой процесс отображения эмпирического множества в формальное при вза­имооднозначном соответствии (изоморфизм) структур этих множеств.

    В заключение обзора метода шкалирования надо указать на про­блему его соотношения с измерением. На наш взгляд, эта проблема обус­ловлена отмеченными выше особенностями шкалирования: 1) совме-[34]щением в нем эмпирических процедур сбора данных и аналитических процедур обработки данных; 2) единством количественного и качествен­ного аспекта процесса шкалирования; 3) сочетанием общенаучности и узкопрофильности, т. е. «срастанием» общих принципов шкалирова­ния со специфическими процедурами конкретных методик.

    Часть исследователей в явном или неявном виде отождествляет понятия «шкалирование» и «измерение» [24, 32, 35, 58, 90, 92, 95]. На эту точку зрения особенно сильно «работает» авторитет С. Стивенса, который измерение определял как «приписывание числовых форм объектам или событиям в соответствии с определенными правилами» и тут же указывал, что подобная процедура ведет к построению шкал [77, с. 20, с. 51]. Но поскольку процесс разработки шкалы есть процесс шкалирования, то в итоге получаем, что измерение и шкалирование — одно и то же. Противоположная позиция состоит в том, что с измерени­ем сопоставляется только метрическое шкалирование, связанное с по­строением интервальных и пропорциональных шкал [79, 88, 91].

    Представляется, что вторая позиция строже, поскольку измерение предполагает количественное выражение измеряемого, а следователь­но, наличие метрики. Острота дискуссии может быть снята, если изме­рение понимать не как исследовательский метод [24, 35], а как инстру­ментальное сопровождение того или иного метода, в том числе шкали­рования.

    Кстати, метрология (наука об измерениях) в понятие «измерение» включает как его обязательный атрибут средства измерения [12, 48]. Для шкалирования же (по крайней мере, для неметрического шкалиро­вания) измерительные средства необязательны.


    написать администратору сайта