Параметрические и непараметрические процедуры статистического анализа данных. Параметрические методы оценивания. Выбор критерия для сравнения двух выборок

Одним из факторов, ограничивающих применения статистических критериев, основанных на предположении нормальности, является объем выборки. До тех пор, пока выборка достаточно большая (например, 100 или больше наблюдений), можно считать, что выборочное распределение нормально, даже если нет уверенности в том, что распределение переменной в генеральной совокупности является нормальным. Тем не менее, если выборка мала, то параметрические критерии следует использовать только при наличии уверенности, что переменная действительно имеет нормальное распределение. Однако и для таких переменных нет способа проверить это предположение на малой выборке (статистические критерии проверки на нормальность эффективно начинают работать на выборке содержащей не менее чем 51 наблюдение).

Непараметрические методы наиболее приемлемы, когда объем выборок мал и данные отнесены к порядковым или номинальным шкалам. Если же эмпирических данных достаточно много (например, n>100), то часто не имеет смысла и даже видится некорректным использовать непараметрическую статистику. Если размер выборки очень мал (например, n=10 или меньше), то уровни значимости р для тех непараметрических критериев, которые используют нормальное приближение, можно рассматривать только как грубые оценки.



Применение критериев, основанных на предположении нормальности, кроме того, ограничено принадлежностью исследуемых признаков к определенной шкале измерений. Такие статистические методы, как, например, t-критерий Стьюдента (для зависимых и независимых выборок), линейная корреляция Пирсона, а также регрессионный, кластерный и факторный анализ предполагают, что исходные данные непрерывны (значения изучаемых переменных отнесены к интервальной шкале или шкале отношений). Однако имеются случаи, когда данные, скорее, просто ранжированы (измерены в порядковой шкале), чем измерены точно. Тогда целесообразным видится использовать такие статистические критерии, как, например, Т-критерий Вилкоксона, G-критерий знаков, U-критерий Манна‑Уитни, Z-критерий Валъда‑Волъфовица, ранговая корреляция Спирмена и др. На номинальных данных будут работать свои статистические методы, например, корреляция качественных признаков, ХИ-квадрат критерий, Q-критерий Кохрена и др. Выбор того или иного критерия сопряжен с гипотезой, которую выдвигает исследователь в ходе научных изысканий, и далее пытается ее доказать на эмпирическом уровне.

Итак, для каждого параметрического критерия имеется, по крайней мере, одна непараметрическая альтернатива. В общем, эти процедуры попадают в одну из следующих категорий: (1) оценка степени зависимости между переменными; (2) критерии различия для независимых выборок; (3) критерии различия для зависимых выборок.

Для оценки зависимости (взаимосвязи), или степени тесноты (плотности, силы) связи, вычисляют коэффициент корреляции Пирсона (r). Строго говоря, его применение имеет также ограничения, связанные, например, с типом шкалы, в которой измерены данные и нелинейностью зависимости. Поэтому в качестве альтернативы используются непараметрические, или так называемые ранговые коэффициенты корреляции (например, коэффициент ранговой корреляции Спирмена (ρ), статистики тау Кендалла (τ), Гамма (Gamma)), применяемые для порядковых (ранжированных) данных. Если имеется более двух переменных, то используют коэффициент конкордации Кендалла (Kendall Coeff. of Concordance). Он применяется, например, для оценки согласованности мнений независимых экспертов (например, баллов, выставленных одному и тому же испытуемому, участнику конкурса).

Если данные измерены в номинальной шкале, то их естественно представлять в таблицах сопряженности, в которых используется критерий ХИ‑квадрат Пирсона с различными вариациями и поправками на точность.

Различия между независимыми группами . Если имеются две выборки (например, юноши и девушки), которые нужно сравнить относительно некоторого среднего значения, например, креативного мышления, то можно использовать t-критерий для независимых выборок (t-test for independent samples). Непараметрическими альтернативами этому тесту являются критерий серий Валъда‑Волъфовица (Wald-Wolfowitz runs test), U-критерий Манна-Уитни (Mann‑Whitney U test) и двухвыборочный критерий Колмогорова-Смирнова (Kolmogorov‑Smirnov two‑sample test). Следует помнить, что двухвыборочный критерий Колмогорова-Смирнова чувствителен не только к различию в положении двух распределений, но также и к форме распределения. Фактически он чувствителен к любому отклонению от гипотезы однородности, но не указывает, с каким именно отклонением исследователь имеет дело.

Различия между зависимыми группами . Если надо сравнить две переменные, относящиеся к одной и той же выборке, например, показатели агрессивности одних и тех же испытуемых до и после коррекционной работы, то обычно используется t-критерий для зависимых выборок (t-test for dependent samples). Альтернативными непараметрическими тестами являются критерий знаков (Sign Test) и критерий Вилкоксона парных сравнений (Wilcoxon matched pair test). Критерий Вилкоксона предполагает, что можно ранжировать различия между сравниваемыми наблюдениями. Если этого сделать нельзя, то используют критерий знаков, который учитывает лишь знаки разностей сравниваемых величин.

Если рассматриваемые переменные категориальные (номинальные), то подходящим является ХИ-квадрат Макнемара (McNemar Chi-square). Если же имеются две категориальные переменные, то для оценки степени зависимости используют стандартные статистики и соответствующие критерии для таблиц сопряженности: ХИ-квадрат (Chi-square), ФИ-коэффициент (Phi-square), точный критерий Фишера (Fisher exact).

В ниже приведенной таблице представлены параметрические критерии и их непараметрические альтернативы с учетом следующих категорий: 1) оценка степени зависимости между переменными; 2) критерии различия.

Таблица 4.1 - Параметрические и непараметрические критерии

Параметрические критерии Непараметрические критерии
оценка зависимости (взаимосвязи)
коэффициент корреляции Пирсона (r) ранговые коэффициенты корреляции (коэффициент ранговой корреляции Спирмена ρ), статистики тау Кендалла (τ), Гамма (Gamma)); ХИ‑квадрат Пирсона (для номинальных данных)
различия между независимыми группами
t-критерий Стьюдента для независимых выборок (t-test for independent samples) Z-критерий серий Валъда‑Волъфовица (Wald-Wolfowitz runs test), U-критерий Манна-Уитни (Mann‑Whitney U test), двухвыборочный критерий Колмогорова-Смирнова (Kolmogorov-Smirnov two‑sample test)
различия между зависимыми группами
t-критерий Стьюдента для зависимых выборок (t-test for dependent samples) G-критерий знаков (Sign Test), T-критерий Вилкоксона парных сравнений (Wilcoxon matched pair test); ХИ-квадрат Макнемара (McNemar Chi-square), ХИ-квадрат (Chi-square), коэффициент ФИ-квадрат (Phi-square), точный критерий Фишера (Fisher exact) (для номинальных данных)

Если рассматривается более двух переменных, относящихся к одной и той же выборке (например, до коррекции, после коррекции-1 и после коррекции-2), то обычно используется дисперсионный анализ с повторными измерениями, который можно рассматривать как обобщение t-критерия для зависимых выборок, позволяющее увеличить чувствительность анализа. Английское сокращение дисперсионного анализа - ANOVA (Analysis of Variation). Дисперсионный анализ позволяет одновременно контролировать не только базовый уровень зависимой переменной, но и другие факторы, а также включать в план эксперимента более одной зависимой переменной. Альтернативными непараметрическими методами являются дисперсионный анализ Краскела-Уоллиса и медианный тест (Kruskal-Wallis ANOVA, median test), ранговый дисперсионный анализ Фридмана (Friedman ANOVA by Ranks).

Приступая к статистической обработке своих исследований, психо-лог должен решить, какие методы ему более подходят по особенностям его материала -- параметрические или непараметрические. Раз-личие между ними легко понять.

Ранее уже говорилось об измерении двигательной скорости детей-шес-тиклассников.

Как обработать эти данные?

Нужно записать все произведенные измерения -- в данном случае это будет число точек, поставленных каждым испытуемым, -- затем вычис-лить для каждого испытуемого среднее арифметическое по его резуль-татам. После этого расположить все данные в их последовательности, например начиная с наименьших к наибольшим. Для облегчения обозри-мости этих данных их обычно объединяют в группы; в этом случае можно объединить по 5-9 измерений в группе. Вообще же при таком объеди-нении желательно, если общее число случаев не более ста, чтобы общее число групп было порядка двенадцати.

Далее нужно установить, сколько раз в опытах встретились числовые значения, соответствующие каждой группе. Сделав это, для каждой группы записать ее численность. Полученные в такой таблице данные носят назва-ние распределения численностей или частот. Рекомендуется предста-вить это распределение в виде диаграммы, на которой изображается по-лигон распределения, или гистограмма распределения. Контуры этого полигона помогут решить вопрос о статистических методах обработки.

Нередко эти контуры напоминают контуры колокола, с наивысшей точкой в центре полигона и с симметричными ветвями, отходящими в ту и другую сторону. Такой контур соответствует кривой нормально-го распределения. Это понятие было введено в математическую ста-тистику К. Ф. Гауссом (1777-1855), поэтому кривую именуют также кривой Гаусса . Он же дал математическое описание этой кривой. Для построения кривой Гаусса (или кривой нормального распределения) теоретически требуется бесчисленное количество случаев. Практиче-ски же приходится довольствоваться тем фактическим материалом, который накоплен в исследовании. Если данные, которыми распола-гает исследователь, при их внимательном рассмотрении или после пе-реноса их на диаграмму лишь в незначительной степени расходятся с кривой нормального распределения, то это дает право исследователю применять в статистической обработке параметрические методы, ис-ходные положения которых основываются на нормальной кривой рас-пределения Гаусса.

Нормальное распределение называют параметрическим потому, что для построения и анализа кривой Гаусса достаточно иметь всего два параметра: среднее значение, которое должно соответствовать высоте перпендикуляра, восстановленного в центре кривой, и так называемое среднее квадратическое, или стандартное, отклонение величины, ха-рактеризующей рассеивание значений вокруг среднего значения; о спо-собах вычисления той и другой величины будет рассказано ниже.

Параметрические методы обладают для исследователя многими преимуществами, но нельзя забывать о том, что применение их право-мерно только тогда, когда обрабатываемые данные показывают рас-пределение, лишь несущественно отличающееся от гауссовского.

При невозможности применить параметрические надлежит обра-титься к непараметрическим методам . Эти методы успешно разраба-тывались в последние 3-4 десятилетия, и их разработка была вызвана прежде всего потребностями ряда наук, в частности психологии. Они показали свою высокую эффективность. Вместе с тем они не требуют сложной вычислительной работы.

Современному психологу-исследователю нужно исходить из того, что «...имеется большое количество данных, которые либо вообще не поддаются анализу с помощью кривой нормального распределения, либо не удовлетворяют основным предпосылкам, необходимым для ее использования».

Генеральная совокупность и выборка . Психологу постоянно при-ходится иметь дело с этими двумя понятиями.

В современных исследованиях по проблемам педагогики широко используются методы математической обработки данных. К методам обработки количественных данных относятся статистические приемы подведения итогов исследования, выявления определенных связей между ними, проверки достоверности выдвинутой гипотезы.

Математическая обработка результатов исследования обеспечивает их доказательность, репрезентативность. В сочетании с качественными показателями количественная обработка данных значительно повышает объективность исследования. Статистическая обработка результатов, регистрирующая изучение отдельных явлений позволяет сделать обобщения и выводы относительно всей совокупности изучаемых явлений. Важной особенностью использования статистических методов в педагогических исследованиях состоит в том, что это позволяет применять количественное изучение даже там, где невозможно определить сами свойства изучаемых объектов. Например, невозможно прямо измерить уровень развития нравственных качеств обучаемых, степень эффективности конкретного метода обучения и пр. Но, регистрируя соответствующие события, поступки, проявления, можно получить определенные качественные характеристики всех этих признаков, определить возможные закономерности их проявления, подтвердить правильность высказанных гипотез.

В статистике проверка гипотез осуществляется с помощью критериев статической оценки различий. Статистический критерий – это решающее правило, обеспечивающее надежное поведение, т.е. принятие истинной и отклонение ложной гипотезы с высокой вероятностью (Г.В.Суходольский). Статистические критерии обозначают также метод расчета определенного числа и само это число.

Статистические критерии, применяемые в педагогике, делятся на параметрические и непараметрические. К параметрическим относятся критерии, включающие в формулу расчета параметры распределения, т.е. среднее и дисперсии (критерии Стьюдента, Фишера, Хи-квадрат). К непараметрическим относят критерии, основанные на оперировании частотами или рангами и не включающие в формулу расчета параметров распределения (критерии знаков, Колмогорова-Смирнова, Уилкоксона, Манна-Уитни). Обе группы критериев имеют свои преимущества и недостатки. Сравнительная характеристика возможностей и ограничений параметрических и непараметрических критериев дана в следующей таблице.



Параметрические критерии Непараметрические критерии
Позволяют прямо оценить различия в средних, полученных в двух выборках (критерий Стьюдента) Позволяют оценить лишь средние тенденции (напр., ответить на вопрос, чаще ли в выборке А встречаются более высокие, а в выборке Б – более низкие значения признака (критерии Q,U и др.)
Позволяют прямо оценить различия в дисперсиях (критерий Фишера) Позволяют оценить лишь различия в диапазонах вариативности признака
Позволяют выявить тенденции изменения признака при переходе от условия к условию (дисперсионный однофакторный анализ), но лишь при условии нормального распределения признака Позволяют выявить тенденции изменения признака при переходе от условия к условию при любом распределении признака (критерии тенденций L и S)
Позволяют оценить взаимодействие двух и более факторов в их влиянии на изменения признака (двухфакторный дисперсионный анализ) Эта возможность отсутствует
Экспериментальные данные должны отвечать двум, а иногда трем условиям: а) значения признака измерены по интервальной шкале; б)распределение признака является нормальным; в)в дисперсионном анализе должно соблюдаться требование равенства дисперсий в ячейках комплекса Экспериментальные данные могут не отвечать ни одному из условий: а) значения признака могут быть представлены в любой шкале, начиная от шкалы наименований; б)распределение признака может быть любым и совпадение его с каким-либо теоретическим законом распределения необязательно и не нуждается в проверке; в)требование равенства дисперсий отсутствует
При выполнении указанных условий параметрические критерии являются более мощными по сравнению с непараметрическими критериями При несоблюдении указанных условий непараметрические критерии более надежны, т.к. они менее чувствительны к «засорениям»
Математические расчеты довольно сложны Математические расчеты большей частью просты и занимают мало времени

Параметрические методы

Критерий Стьюдента

Для сравнения выборочных средних величин, принадлежащих к двум совокупностям данных, и для решения вопроса о том, отличаются ли средние значения статистически достоверно друг от друга в психолого-педагогических экспериментах часто используют t -критерий Стьюдента, расчетное значение которого определяется по формуле:

,

где ‑ среднее выборочное значение переменной по одной выборке данных; ‑среднее выборочное значение по другой выборке данных; m 1 и m 2 ‑ интегрированные показатели отклонений частных значений из двух выборок от соответствующих их средних величин.

Если t расч больше или равно табличному, то делают вывод о том, что сравниваемые средние значения из двух выборок действительно статистически достоверно различаются с вероятностью допустимой ошибки.

Такая методика применяется тогда, когда необходимо установить, удался или не удался эксперимент, оказал или не оказал он влияние на уровень того качества, для изменения которого он предназначался.

Если t расчетное меньше t табличного, то в этом случае нет убедительных оснований для того, что эксперимент удался, даже если сами средние величины в начале и в конце эксперимента по своим абсолютным значениям различны.

Критерий φ*- угловое преобразование Фишера

Данный метод описан во многих руководствах (Плохинский Н.А., 1970; Гублер Е.В., 1978; Ивантер Э.В., Коросов А.В., 1992 и др.) Настоящее описание опирается на тот вариант метода, который был разработан и изложен Е.В. Гублером.

Критерий Фишера предназначен для сопоставления двух выборок по частоте встречаемости интересующего исследователя эффекта. Критерий оценивает достоверность различий между процентными долями двух выборок, в которых зарегистрирован интересующий исследователя эффект.

Суть углового преобразования Фишера состоит в переводе процентных долей в величины центрального угла, который измеряется в радианах. Большей процентной доле будет соответствовать больший угол φ, а меньшей доле - меньший угол, но соотношения здесь не линейные:

φ = 2·arcsin(),

где - процентная доля, выраженная в долях единицы.

При увеличении расхождения между углами φ 1 и φ 2 и увеличения численности выборок значение критерия возрастает. Чем больше величина φ*, тем более вероятно, что различия достоверны.

При решении вопросов построения моделей систем особую акту­альность имеет задача формирования исходной информации о парамет­рах элементов, входящих в состав системы. От точности и достовер­ности исходной информации зависит точность оценок анализируемых характеристик систем, точность расчетов по оптимизации стратегий функционирования и правил их обслуживания, решение проблем, связан­ных с прогнозированием поведения системы в будущем, и другие воп­росы. При формировании исходной информации о параметрах элемен­тов, как правило, за основу берется информация, получаемая в ходе проведения обследования систем и изучения опыта ее эксплуатации. Иными словами за основу берется информация о поведении комплек­тующих элементов системы в процессе ее функционирования.

Анализ исходных показателей элементов, узлов, составных частей, который производят на этапах эксплуатации, испытаний, конструкторс­ких разработок, выполняется в целях разрешения следующих вопросов:

    определения фактических значений исследуемых характеристик комплектующих элементов в условиях их реальной эксплуатации;

    выявления взаимосвязи изучаемых характеристик элементов и условий их эксплуатации, анализа влияния на исследуемые показатели вне­шних воздействий;

    прогнозирования поведения вновь создаваемого оборудования.

Таким образом, для решения указанных задач, в первую очередь,

необходимо организовать контроль за поведением оборудования в ре­альных условиях его эксплуатации. В дальнейшем информация, полу­чаемая в процессе эксплуатации объектов, используется для построе­ния моделей систем, в отношении которых проводится анализ.

При проведении экспериментальных исследований большую роль играет информация, полученная в результате наблюдений за объекта­ми, поведение которых имеет вероятностную природу. Изучение таких систем осуществляется по результатам реализации выходных парамет­ров, являющихся случайными величинами. Наиболее общей характе­ристикой, описывающей поведение одномерной случайной величины, является ее плотность распределения / (0- Зная плотность распреде­ления случайной величины, можно однозначно определить такие харак­теристики, как вероятность реализации некоторого события, интенсив­ность наступления события, среднее время между реализациями собы­тий и пр. Приведем формулы, позволяющие оценить соответствующие показатели.

Вероятность реализации события за время t определяется по фор­муле

Q{t) = F(t)=\f(t)dt.

На практике часто находит применение величина, определяемая через функцию распределения следующим образом:

Например, в теории надежности так определяется вероятность бе­зотказной работы.

Среднее время между реализациями событий определяется из соот­ношения

T a =]tf(f)dt=]p(t)dt.

Интенсивность наступления события можно определить по формуле

" _ /(f) _ ClF j t ) I _ dP (t) 1 P(t)dt P{t) dt Pit)"

Таким образом, зная плотность или функцию распределения случай­ной величины, можно перейти к определению характеристик сложной системы. На практике функция распределения бывает неизвестна. Ее приходится восстанавливать по статистическим данным реализации случайной величины. Поскольку статистика о результатах наблюдений всегда присутствует в ограниченном виде, восстановление функции распределения возможно с некоторой долей достоверности. Следова­тельно, если функция распределения оценена с определенной ошибкой,

урЫа

f - т ) 2 ^ 2а 2

" (х-т ) 2 ^ 2 а 2

Вычислим частные производные:

d P N (t,m, o ) _ 1

d m

d P N (t, т, О ) _ д а 2

г г \ т

2 о 2

\ /-J

то и вычисление характеристик системы будет также осуществляться с ошибкой.

Точность оценивания показателей сложных систем характеризует­ся величиной дисперсии. Пусть необходимо произвести оценивание не­которого показателя R(t). Покажем, как определяется дисперсия в его оценке. Будем считать, что показатель R(t ) определяется через функ­цию распределения. Пусть функция распределения зависит от двух па­раметров аир. Примерами двухпараметрических функций являются нормальное распределение, усеченное нормальное, логарифмически нормальное, гамма-распределение, распределение Вейбулла и ряд дру­гих. Итак, пусть F(t) = F(t, а, р). Соответственно оцениваемый показа­тель сложной системы можно представить как функционал от F(t) = F(t, а, р):

K(r) = K = K(f,a,p).

Разложим оценку R ( t) в ряд Тейлора в точке а, р и ограничимся тре­мя членами:

i(0 = K(0+^®(a-a)+^®(p-p).

К обеим частям данного выражения применим операцию вычисле­ния дисперсии

(t- m ) 2

ехр

Нормальное распределение

Плотность нормального закона распределения имеет вид

P n (t, m , о) = 1 -7=- J ехр

F n (t , т, о) = -у=- J ехр

(t-m )

2

Среднее время между реализациями событий определяется по форму­

(t- m) 2 2 a 2

где cov(a, Р) - ковариация между параметрами аир. Таким образом, для оценки дисперсии некоторого показателя необходимо определить ча­стные производные данного показателя по параметрам закона распре­деления и дисперсии в оценке параметров закона распределения.

Рассмотрим вопросы определения частных производных для пока­зателей, введенных выше для конкретных законов" распределения. Оп­ределение дисперсии оценок параметров законов распределения будет описано далее.

В качестве примера рассмотрим определение частных производных оцениваемого показателя по параметрам закона распределения для нормального закона.

Ґ ( t-m) 2 ^

2 с 2

Соответственно частные производные определяются как

d T N (m, a ) 1 7

-- - = - f=~ ехр

d m V2nab

d T N (m , o ) I

i t = Ф

f 2 ~\ m

2 0

\ /

И, наконец, для интенсивности наступления события имеем

X(t, т,о) = -

Одностороннее усеченное нормальное распределение

Плотность распределения усеченного нормального закона с одно­сторонним усечением слева в точке 0 имеет вид

/ (t-m ) 2 ^ 2 а 2

\ І2 по

(X - т) 2 2а 2

\І2по{

Выражения для частных производных имеют вид

dX N (t, m,a ) _ f N (t, m,a )" m (l -F N (t, m,o))-f N (t, m,o )[ l-F N (t, m,o )]" m m

2

d m

с = -

(*-Ю 2 2 Ъ

о yj2nb

, ., t-m I (t-m ) 2

f H (fW O ra =Ir=-T ex PV

Ґ , ч2 4 V

( t-m) 2

( 2 M т

2 а 2

\

7

\ / J

" a2

da 2

2

[( t-m ) 2 - a 2 ] 2л/2лст 3

(t-m )

d x

P (Щ ,Ь) = \- {

(t -m) 2 a 2

m 2O 2

\ =

(t - m) exp

m exp

2 2 по 3

Введем обозначения:

R = J ехр

J

Таким образом, представлены формулы для определения соответ­ствующих производных показателей по параметрам закона распреде­ления для нормального закона. Обобщением нормального закона рас­пределения является усеченное нормальное распределение. Рассмот­рим применение одностороннего усеченного нормального распределе­ния в задачах оценивания показателей сложных систем. В ряде задач системного анализа случайные параметры положительно определены. Примером могут служить задачи теории надежности, в которых слу­чайные параметры имеют область определения от 0 до например, наработка до отказа - величина положительно определенная. В этом случае нормальный закон распределения применять для описания дан­ных случайных величин неправомерно. В таких ситуациях применяют усеченное слева нормальное распределение. Рассмотрим данный слу­чай применительно к оцениванию показателей надежности.

(х-ц) 2 2 Ь

( х - У-У

dx ; Q = j exp

Соответствующие производные имеют вид

Ґ 2\ .Hl

2 Ъ

r," H

d b (Q-Rf

где соответствующие составляющие определяются по формулам

Среднее время между реализациями событий определяется по форму­ле

2 Ь 2

/ . .і \ (*-Ю

S / ч’ ^

л/тс л/тс фГ Г-М-

(Q-W b =^ exp

I^lb I- J l b Jb

Обозначим числитель через L.

Соответствующие производные вычисляются по формулам

Логарифмически-нормальное распределение

Логарифмически-нормальному закону распределения подчиняется случайная величина t, логарифм которой распределен по нормальному закону. Плотность распределения логарифмически-нормального закона имеет вид

КМЬ) _ i;q-% l Jf _ urz _______

"-!Li S )

/ 2 N .й! 2fc

ЩАМ KQ-Ul.

-^ , А,-ех Р

Функция распределения имеет вид

2 Ь 2

Наконец, интенсивность наступления событий равна

(*-10 2 В

2 Ь

где В = Ъ 1 .

Запишем формулы для определения показателей надежности

-M-) 2 2 Ъ

(x -\i .? 2 Ъ

dx -j exp о

Я„(*,И,Д) = I - Jexp

Введем обозначение

Соответствующие производные имеют вид

(*-Ю

M = ехр

2 \

( (I n f -H ) 2 В

Р лн (; , Н.Д ) _ 1 Эн - J l nB

P„Jt,\i,B) 1пг-н

Определим производные интенсивности по параметрам

dk yM (t,№) _ M^jQ-R )- (Q -RY 11 M ЭЦ (Q-R) 2 :

э в


( (г-н) м 2 Ь

Для определения средней наработки до отказа используют формулу

(г-ю 2

M 11 =-т^ехр

; (б-Л)"= ехр

и последнее выражение

Производные равны

дТ ля Ц , р , В ) 1 (в ,

Запишем выражение для вероятности безотказной работы

Выражение для определения интенсивности отказов имеет вид \J t, \i , B) = -

P B (t,a,b) = exp\

K a J

Вычислим производные данного выражения по параметрам распреде­ления:

<У2дВ I 2 В

Э P^(t,a,b) _ b да а

d P B (t, a , b ) _

Частные производные определяются из выражений

Э КЛ^В) _

^ 2

L tjbw в ехр|

(lnf - |X ) 2 2 В

где (/ лн (0)

7 B(a ^) = J ex P

(Inf-(X ) 2 2 В

Э T B (a,b)_~ r b(t

* (t" In

\d f , Э7в(а ^ э ь

дК»ЩВ) (0 ) " й (I - (0 )- /л. (I - F n J t))"

ЭВ 2

* п

Интенсивность отказа равна

(^ b -" , а

Производные по параметрам имеют вид

it, а, Ь )

(1 - F „„) = - I n Vii exp

_ (I n f - (X ) 2 В

Э^а, b ) Ь 2

Э Х в іа,Ь )_Ґ" Ь

да ~ а 2

д Ь а ь а

а ,

Распределение Вейбулла

Плотность распределения Вейбулла имеет вид

f B (t,a,b) = -(-

Гамма-распределение

Плотность гамма-распределения записывается следующим обра­

F B (t,a,b) = 1-ехр

Соответственно функция распределения имеет вид

х, а *

F r (t, X,а) = f х а ~ " exn (-Xx ) dx.

Вероятность безотказной работы вычисляется по формуле

P v (t , X , a) = I fехр(-Xx)dx.

Производные по параметрам равны

і і OcX a4 Jx a4 exp (-Xx) Jx-X a Jx a exp( -Xx)dx

Э Х г (г,а,Х ) _ (f r ( ‘Xa)) K - / r (f ,X, a ); Эа 2

J ехр(-Хх)(а - Xx)dx \

[!-,F r (ZAa)];=-

дР г (t, X , а) _ X 1

Па) і

дР ^да а) = ~ Г^а) I * а ~" ex P(-^t r (a)(ta ^ - 111 0 - Г"(а)]Жс, где Г(а) = J X a t a ~ " ехр(- Xt)dt =J Z a " 1 ехр(-г)<&; Г(а) = J г“"’ exp(-z) In z 4 z

Средняя наработка до отказа определяется по формуле

Г г (о,Х)= J^- e xp (-Xt)d i =~.

оГ(а)X

Соответствующие производные равны

дТ г (а,Х ) а дГ г ( а ,Х) _ 1 ЭХ. X 2 да ~Х"

Интенсивность отказов записывается

X a t a -" е хр (- Xt )

X r (t, а ) =

(f r (t , X ,a )) a = ^-y-^-[(X a InXf a "exp(- Xt)+X a t a 1 Infexp(-Xt))-

X 1 V a " 1 exp(-Xf)r„ (a)];

Г а ((X)X a Jjr a " 1 exp (-Xx) Jx-

t t X а In Xj X а ’ 1 exp (-Xx)dx +X a Jx a 1 Injfexp (-Xx)dx

Таким образом, получены выражения, позволяющие решать вопро­сы оценки точности в определении показателей сложных систем. Рас­смотрены наиболее часто используемые в системном анализе законы распределения. Получены формулы для определения основных показа­телей систем и вычислены первые частные производные показателей по параметрам соответствующих законов распределения. Следующим вопросом, который требует решения, является вопрос оценивания па­раметров выбранного закона распределения. Рассмотрим, как решает­ся данная задача.

Производные по параметрам определяются в виде

d X r ( t,a , X) _ (f r (t X а) ) \ -/ r (t , X,a) 2

где a ^ g " 1 «pW-X-r-exp(-Xr)

Критерий t-Стьюдента для независимых и
зависимых выборок.
Критерий F-Фишера.
Критерий U-Манна-Уитни.
Критерий T-Вилкоксона и др.

Статистические критерии – это
ПРАВИЛО, обеспечивающее принятие
истинной и отклонение ложной гипотезы с
высокой вероятностью.
Статистические критерии – это МЕТОД
расчета определенного числа.
Статистические критерии – это ЧИСЛО.

Параметрические критерии – это
критерии, включающие в формулу расчета
параметры распределения (среднее и
дисперсии).
Непараметрические критерии – это
критерии, не включающие в формулу
расчета параметров распределения и
основанные на оперировании частотами
или рангами.

Позволяют прямо оценить различия в средних,
полученных в двух выборках (t-критерий
Стьюдента)
Позволяют прямо оценить различия в дисперсиях
(критерий F-Фишера)
Позволяют выявить тенденции изменения признака
при переходе от условия к условию (дисперсионный
однофакторный анализ)
Позволяют оценить взаимодействие двух и более
факторов и их влияние на изменение признака
(двухфакторный дисперсионный анализ)

Возможности и ограничения параметрических критериев

Экспериментальные данные должны отвечать двум, а
иногда трем, условиям:
а) значения признака измерены по интервальной
шкале;
б) распределение признака является нормальным;
в) в дисперсионном анализе должно соблюдаться
требование равенства дисперсий в ячейке комплекса.
Если перечисленные условия выполняются, то
параметрические критерии оказываются более
мощными, чем непараметрические.

Позволяют оценить лишь средние тенденции, например,
ответить на вопрос, чаще ли в выборке А встречаются
более высокие, а в выборке Б – более низкие значения
признака (критерии Розенбаума, Манна-Уитни,
угловое преобразование Фишера и др.).
Позволяют оценить лишь различия в диапазонах
вариативности признака (критерий угловое
преобразование Фишера).
Позволяют выявить тенденции изменения признака при
переходе от условия к условию при любом
распределении признака (критерии тенденций
Пейджа, Джонкира).

Возможности и ограничения непараметрических критериев

Отсутствует возможность оценить взаимодействие
двух и более факторов.
Экспериментальные данные могут НЕ ОТВЕЧАТЬ
ни одному из условий параметрической статистики:
а) значения признака могут быть представлены в
любой шкале, начиная от шкалы наименований;
б) распределение признака может быть любым и
совпадение его с каким-либо теоретическим законом
распределения необязательно и не нуждается в
проверке;
в) требование равенства дисперсий отсутствует.

Статистический критерий имеет эмпирическое и
критическое значение.
Эмпирическое значение критерия – это число, полученное
по правилу расчета критерия.
Критическое значение критерия – это число, которое
определено для данного критерия при заданных переменных
(например, количества человек в выборке), выделяющее
зону значимости и незначимости для признака. См.
Таблицы критических значений критерия.
По соотношению эмпирического и критического значений
критерия выявляется уровень статистической значимости и
делается вывод о том, подтверждается или опровергается
нулевая гипотеза.

Правило принятия статистического вывода

1) на основе полученных экспериментальных
данных вычислить эмпирическое значение
критерия Кэмп
2) по соответствующим критерию таблицам
найти критические значения К1кр и К2кр, которые
отвечают уровням значимости в 5% и 1%
3) записать критическое значение в виде:
К1кр для p ≤ 0 05 и К2кр для p ≤ 0 01

10. 4) расположить эмпирическое значение критерия Кэмп и критические значения К1кр и К2кр на оси значимости (ось абсцисс Ох

декартовой системы координат, на
которой выделено три зоны: левая (незначимости),
средняя (неопределенности, р ≤ 0,05), правая
(значимости, р ≤ 0,01)

11. Правило принятия статистического вывода

5) сформулировать принятие решения:
если Кэмп находится в зоне незначимости, то
принимается гипотеза Н0 об отсутствии различий;
если Кэмп находится в зоне неопределенности, то
есть вероятность принятия ложного решения
(необходимо увеличить выборку или воспользоваться
другим критерием);
если Кэмп находится в зоне значимости, то гипотеза
об отсутствии различий Н0 отклоняется и
принимается гипотеза Н1 о наличии различий

12. Правило признания значимости различий

В большинстве случаев для признания различий
значимыми ЭМПИРИЧЕСКОЕ (полученное)
ЗНАЧЕНИЕ КРИТЕРИЯ должно ПРЕВЫШАТЬ
КРИТИЧЕСКОЕ (табличное) в соответствии с
числом степеней свободы для двух независимых
выборок df = (n1 + n2) – 2, для двух зависимых
выборок df = (n1 + n2) – 1 или объемом выборки
(n).
Исключение: критерий U-Манна-Уитни, критерий
G-знаков, критерий T-Вилкоксона, в которых нужно
придерживаться противоположного правила.

13. Зависимые и независимые выборки

Зависимые выборки – это те выборки, в
которых каждому респонденту одной выборки
поставлен в соответствие по определенному
признаку респондент другой выборки.
Независимые выборки – это те выборки, в
которых вероятность отбора любого
респондента одной выборки не зависит от
отбора любого из респондентов другой
выборки.

14. Выбор критерия для сравнения двух выборок

Соответствие
распределений
нормальному закону
(параметрический)
Несоответствие
распределения(й)
нормальному закону
(непараметрический)
Независимые
выборки
t – критерий
Стьюдента
для
независимых
выборок
U-критерий
Манна-Уитни;
Зависимые
выборки
t – критерий
Стьюдента для
зависимых
выборок
Критерий
серий
Критерий знаков
Т-критерий
Вилкоксона;

15. Критерий t-Стьюдента для независимых выборок


генеральных совокупностей из которых извлечены
независимые выборки, отличаются друг от друга.
Исходные предположения:
1.
Одна выборка извлекается из одной генеральной
совокупности, другая – из другой (значения
измеренных признаков гипотетически не должны
коррелировать между собой).
2.
В обеих выборках распределение приблизительно
соответствует нормальному закону.
3.
Дисперсии признаков в двух выборках примерно
одинаковы.

16. Критерий t-Стьюдента для независимых выборок

Структура исходных данных: изучаемый
признак(и) измерен у респондентов, каждый
из которых принадлежит к одной из
сравниваемых выборок.
Ограничения:
1. Распределения существенно не отличаются
от нормального закона в обеих выборках.
2. При разной численности выборок дисперсии
статистически достоверно не различаются
(проверяется по критерию F-Фишера или по
критерию Ливена).

17. Формула для подсчетов

где,
– среднее значение первой выборки
– среднее значение второй выборки
– стандартное отклонение по первой выборке
– стандартное отклонение по второй выборке

18. Критерий t-Стьюдента для зависимых выборок

Проверяет гипотезу о том, что средние значения двух
генеральных совокупностей, их которых извлечены
сравниваемые зависимые выборки, отличаются друг от
друга.
Исходные предположения:
1.
Каждому представителю одной выборки поставлен в
соответствие представитель другой выборки.
2.
Данные двух выборок положительно коррелируют.
3.
Распределение в обеих выборках соответствует
нормальному закону.
Структура исходных данных: имеется по два значения
изучаемого признака(ов).

19. Критерий F-Фишера

Применяется для проверки гипотезы о равенстве
дисперсий двух выборок. Его относят к критериям
рассеяния.
*Имеет смысл перед использованием критерия t-Стьюдента
предварительно проверить гипотезу о равенстве дисперсий.
Если она верна, то для сравнения средних можно
воспользоваться критерием t-Стьюдента (гипотезы о равенстве
средних значений в двух выборках).
Критерий Фишера основан на дополнительных
предположениях о независимости и нормальности
выборок данных. Перед его применением
рекомендуется выполнить проверку нормальности
распределения признака.

20. Критерий F-Фишера

В регрессионном анализе критерий Фишера
позволяет оценивать значимость линейных
регрессионных моделей.
В частности, он используется в шаговой
регрессии для проверки целесообразности
включения или исключения независимых
переменных (признаков) в регрессионную модель.
В дисперсионном анализе критерий Фишера
позволяет оценивать значимость факторов и их
взаимодействия.

21. U-критерий Манна-Уитни для независимых выборок

Показывает насколько совпадают (пересекаются) два ряда
значений измеренного признака (ов).
Условия для применения:
1.
Распределение хотя бы в одной выборке отличается от
нормального вида.
2.
Небольшой объем выборки (больше 100 человек –
используют параметрические критерии, меньше 10
человек – непараметрические, но результаты
считаются предварительными).
3.
Нет гомогенности дисперсий при сравнении средних
значений.

22. Т-критерий Вилкоксона для зависимых выборок

В основе лежит упорядочивание величин
разностей (сдвигов) значений признака в
каждой паре его измерений.
Идея критерия заключается в подсчете
вероятности получения минимальной из
положительных и отрицательных
разностей при условии, что распределение
положительных или отрицательных
разностей равновероятно и равно

23. Н-критерий Крускала-Уоллиса для 3 и более независимых выборок

Применяется для оценки различий по степени
выраженности анализируемого признака
одновременно между тремя, четырьмя и
более выборками.
Позволяет выявить степень изменения
признака в выборках, не указывая на
направление этих изменений.

24. Н-критерий Крускала-Уоллиса

Условия для применения:
1. Измерение должно быть проведено в шкале
порядка, интервалов или отношений.
2. Выборки должны быть независимыми.
3. Допускается разное число респондентов в
сопоставляемых выборках.
4. При сопоставлении трех выборок допускается,
чтобы в одной из них было n=3, а в двух других
n=2. Но в этом случае различия могут быть
зафиксированы только на уровне средней
значимости.

25. Критерий Фишера φ* (фи) (Угловое преобразование Фишера)

Критерий φ (фи) предназначен для
сопоставления двух рядов выборочных
значений по частоте встречаемости какоголибо признака.
Этот критерий можно применять на любых
выборках – зависимых и независимых. А
также можно оценивать частоту
встречаемости признака и количественной,
и качественной переменной.

26. Критерий Фишера φ*

Условия для применения:
1. Измерение может быть проведено в любой
шкале.
2. Характеристики выборок могут быть любыми.
3. Нижняя граница – в одной из выборок может
быть только 2 наблюдения, при этом во второй
должно быть не менее 30 наблюдений. Верхняя
граница не определена.
4. При малых объемах выборок, нижние границы
выборок должны содержать не менее 5
наблюдений каждая.

27. Классификация задач и методов их решения

Задачи
Условия
Методы
1. Выявление
а) 2 выборки
Q - критерий Розенбаума;
различий в уровне испытуемых
U - критерий Манна-Уитни;
исследуемого
φ* - критерий (угловое
признака
преобразование Фишера)
б) 3 и более выбоS - критерий тенденций Джонкира;
рок испытуемых
Н - критерий Крускала-Уоллиса.
2. Оценка сдвига а) 2 замера на одной
Т - критерий Вилкоксона;
значений
и той же выборке
G - критерий знаков;
исследуемого
испытуемых
φ* - критерий (угловое
признака
преобразование Фишера).
б) 3 и более замеров
χл2 - критерий Фридмана;
на одной и той же
L - критерий тенденций Пейджа.
выборке испытуемых

28. Классификация задач и методов их решения

Задачи
3. Выявление
различий в
распределении
4.Выявление
степени
согласованности
изменений
Условия
Методы
а) при сопоставлении
эмпирического
признака распределе
ния с теоретическим
χ2 - критерий Пирсона;

m - биномиальный критерий
б) при сопоставлении
двух эмпирических
распределений
χ2 - критерий Пирсона;
λ - критерий КолмогороваСмирнова;
φ* - критерий (угловое
преобразование Фишера).
rs - коэффициент ранговой
корреляции Спирмена.
rs - коэффициент ранговой
корреляции Спирмена
а) двух признаков
б) двух иерархий или
профилей

29. Классификация задач и методов их решения

Задачи
Условия
5. Анализ
а) под влиянием
изменений
одного фактора
признака под
влиянием
контролируемых
условий
б) под влиянием
двух факторов
одновременно
Методы
S - критерий тенденций
Джонкира;
L - критерий тенденций Пейджа;
однофакторный дисперсионный
анализ Фишера.
Двухфакторный дисперсионный
анализ Фишера.