Скачати 146.34 Kb.
|
Статистические методы. ТВ и МС ч.4. 2.4 Законы распределения В разделе 1.1 мы рассматривали элементарные примеры случайных величин. В случаях с монетой и кубиком говорили о том, что все возможные значения равновероятны. Так вот, если случайная величина Х принимает значения X1,X2,...,Xn с одинаковой вероятностью р, то говорят, что случайная величина Х имеет равномерное распределение или равномерно распределена. Вероятность p появления каждого значения Xn одинакова, то есть p=1/n. Нужно отметить то, что значения равномерно распределенной величины всегда находятся в замкнутом или конечном интервале числовой оси. Однако, когда мы рассматривали пример с двумя кубиками, и как можно видеть из таблицы, значения случайной величины имеют различную вероятность, то в этом случае, мы имеем закон распределения случайной величины отличающийся от равномерного. Из всего многообразия законов распределения существующих в природе, одним из наиболее изученных есть закон нормального распределения. ^ Известна шутка: практики широко используют нормальное распределение, т.к. его применимость доказана теоретиками; теоретики же многие свои выводы делают для нормального распределения, т.к. его очень часто применяют практики. На самом же деле нормальное распределение - не более, чем удобная модель, широкое применение которой однако можно обосновать. В теории вероятностей существует центральная предельная теорема, которая утверждает: если случайная величина есть результат совместного действия очень многих факторов, причем: • ни один из факторов по " силе своего действия" не превосходит многократно остальные факторы; • факторы действуют независимо друг от друга и не подчиняются какой-то общей тенденции; • количество факторов достаточно велико, то независимо от того, какие воздействия производят отдельные факторы, результатом их совместного действия будет нормальное распределение. Заметим в качестве примера, что если взять несколько, например, 10 случайных величин, имеющих равномерное распределение в интервале [0,1] и вычислить среднее арифметическое от этих равномерно распределенных величин, то это среднее будет иметь почти нормальное распределение, и притом, с очень высокой точностью. То есть центральная предельная теорема здесь срабатывает уже при количестве факторов (случайных чисел), равном всего 10, но все они входят в результат "с равной силой". Такой метод и применяется в ЭВМ для моделирования нормально распределенной случайной величины. На практике с достаточно хорошей точностью нормальное распределение получается при усреднении всего 4-х равномерно-распределенных случайных величин. Это значит, что средние арифметические значения от выборок объема п=4 или более можно считать нормально распределенными величинами, даже если исходные выборочные данные достаточно далеки от нормального распределения. В очень многих производственных процессах разброс как раз и является результатом действия очень многих факторов, действующих совместно. Иногда кажется, что факторов немного, но бывает, что каждый из них есть уже результат множества других факторов. В практических ситуациях предположение о нормальности распределения чаще всего основывается на ситуациях-аналогах, где нормальность распределения подтверждена продолжительной практикой его использования и достаточной точностью результатов. Если же ситуаций-аналогов нет или они сомнительны, то не остается ничего другого, кроме проверки гипотезы о нормальности по одному из критериев согласия, которые имеются во многих учебниках по статистике. Но в этом случае потребуется взятие выборки из десятков или даже сотен деталей, причем процесс за это время не должен изменять своих статистических свойств, т.е. распределение должно сохраняться "неподвижным". Мы же сейчас будем предполагать, что нормальность распределения выполняется. Рассмотрим основные важные для практики свойства нормального закона. На рис. 3 изображен график плотности нормального распределения диаметров поршневых пальцев, который мы уже рассматривали ранее на гистограмме, под ним изображена функция соответствующего распределения. ![]() Рис.3 График плотности нормального распределения и график функции нормального распределения ^ Перечислим основные свойства нормального распределения: 1) Плотность W(x) описывается формулой: ![]() (4.1) где ![]() ![]() Параметры распределения присутствуют в формуле плотности в явном виде. Если мы формально попробуем вычислить математическое ожидание и среднее квадратическое отклонение для (4.1), то получим соответственно ![]() ![]() Плотность распределения для приведенного в разделе 1.2 примера с диаметрами поршневых пальцев приведена на рисунке 3. 1.а) Плотность симметрична относительно ![]() ![]() 1.б) Как видно из (4.1), формально плотность распределения существует для значений X в пределах от ( ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ^ (Х) (как впрочем, и любого другого) является определенным интегралом от плотности распределения по всей области левее заданного значения X, те. F(X) равняется площади под кривой W(х) левее заданного значения X. Например, для Х=-6 мкм значение F(X) равно площади под кривой W(х) левее значения Х=-6 мкм. Интеграл от плотности (4.1) в явном виде не берется, поэтому F(X) в формульном виде остается в виде интеграла ![]() (4.2) Значение F(X) или интеграл (4.2) численно равны вероятности того, что случайная величина не превосходит определенного заданного значения: х < X Иногда эту вероятность называют долей распределения, лежащей левее заданного значения X. Методика вычисления этой вероятности описана ниже. ^ А < х < В численно равна площади под кривой W(х) между значениями х = А и х = В (рис. 4) и определяется как разность между F(B) и F(A). P{A В самом деле, согласно свойству 2: (Вероятность попасть левее В) = (Площадь под кривой плотности левее В) = F(B) (Вероятность попасть левее А) = (Площадь под кривой плотности левее А) = F(A) ![]() (Вероятность попасть между А и В) = (Площадь под кривой плотности между А и В) = (Площадь под кривой плотности левее В) - (Площадь под кривой плотности левее А) = F(B)-F(A). Рисунок 4. Иногда эту вероятность называют долей распределения, лежащей между А и В. В частности, доля распределения, лежащая в заданном допуске с нижней границей Тн и верхней границей Тв. P{Tн ^ как функция от ширины интервала, изображена на рисунке 5. Ширина интервала задана в определенном количестве значений ![]() ![]() ![]() Рисунок 5 3б) Из определения вероятности как определенного интеграла от плотности распределения, т.е. площади под кривой (4.1), следует, что вероятность для строгих и нестрогих неравенств по х равны между собой: P{A ![]() ![]() ![]() ![]() Это справедливо для любых заданных значений А и В, причем А<В. 3в) Максимум вероятности попадания в допуск соответствует значению ![]() Это является следствием симметрии плотности распределения (4.1) и ее монотонного убывания при удалении значений x от ![]() На практике этот случай соответствует минимальному уровню несоответствий (уровню дефектности), который может дать технологический процесс или станок. Поэтому, если нет каких-то веских оснований, настройку станка или технологического процесса стремятся вести по центру допуска. ^ Изменяя значение ![]() ![]() Это важнейшее свойство позволяет любое нормальное распределение преобразовать к стандартному нормальному распределению и наоборот. Стандартное нормальное распределение имеет параметры: ![]() соответствующая стандартная нормально-распределенная случайная величина обычно обозначаетcя z и имеет плотность распределения вида: ![]() (4.3) и функцию стандартного нормального закона распределения вида: ![]() (4.4) Функция распределения (1.18) рассчитана для различных значений Z и представлена в виде таблиц (табл.2). По этой таблице для любого заданного Z можно определить F(Z) и наоборот. 5) Для отрицательных значений нормально-распределенной величины (4.3)- (4.4) функция распределения обладает свойством: ![]() ^ Любое определенное значение Х для случайной величины может быть преобразовано в эквивалентное определенное значение^ для стандартной случайной величины z: ![]() Эти преобразования сохраняют значение функции распределения F, т.е. значения вероятностей для Х и Z совпадают: P(x Приведенные преобразования широко используются при любых вероятностных расчетах, в частности при расчетах вероятности попадания в допуск. Они позволяют, вместо вычисления вероятностей для исходной случайной величины Х методом взятия интегралов, приводить их для стандартной случайной величины Z, для которой эти интегралы уже посчитаны и приведены в табл.2. Для более наглядного представления метод преобразования нормальной случайной величины к стандартной и наоборот изображен на рис. 6, а ниже приведены методики ряда типовых расчетов. При незначительном практическом навыке оператор проводит такие расчеты за несколько минут. Для приобретения навыка достаточно 3-4 раза решить практические задачи. При этом, особенно на первых порах, рекомендуется рисовать картинки с плотностями распределения, аналогичные приведенным на рис. 6, но с соблюдением реальных масштабов, т.е. с сохранением соотношения между величиной интервала [А,В] и величиной ![]() ![]() ![]() Рисунок 6 - Проведение вероятностных расчетов для нормально-распределенных величин ^ В таблице 6 даны значения функции стандартного нормального закона распределения ![]() т.е. значения площади под кривой плотности стандартного нормального закона распределения: ![]() Площадь F(Z) под кривой W(z) определяется левее заданной точки Z, эта площадь численно равна вероятности того, что стандартная нормальная случайная величина z не превосходит заданного значения Z. Значения F(Z) для различных положительных значений аргумента Z с шагом 0,01 приведены в таблице 6. При этом F(Z) для Z=0,50 и т.д. до Z=0,99 приведены в третьей колонке таблицы, озаглавленной: F(0,5+Z); для Z=l,00 и т.д. до Z=l,49 - в четвертой колонке таблицы, озаглавленной F(1,0+Z) и т.д. Пример - Для Z = 1,86 =(1,5 + 0,36); F(l,86) = 0,96856. С достаточной для практики точностью можно считать, что для Z =3,5 и более выполняется: F(Z)= 1,000. Значения функции F(Z) для отрицательных Z рассчитывают по формуле: F(-Z)=1-F{Z). например, F(-l,56) = I- F( 1,56) == 1-0,94062 = 0,05938. Обратное действие - по значению функции F найти значение аргумента Z: значение квантили Z, уровня у находится как значение аргумента Z. соответствующего значению функции F(Z)= у. Пример - для у= 0.99 (ближайшее табличное значение - 0.99010): Z = 2.0+ 0.33 = 2.33. ^ Расчет вероятностей попадания случайной величины в допуск [А,В], ниже допуска и выше допуска. Имеется выборка значений показателя качества X: {Xi,...,Xк} и границы поля допуска А и В. Требуется определить оценку трех вероятностей: "в допуске", "ниже допуска", "выше допуска". Проводим оценку параметров ![]() ![]() Проводим пересчет границ допуска А и В для масштаба переменной Z: ![]() Желательно изобразить плотности W(x) и W(z) в масштабе с соответствующими границами допусков, как это сделано на рис. 4. Находим F(Az) по табл. 2(5.1). Имеем: Р{х < A} = P{z < Az}= F{Az}, т.e. определили вероятность попадания "ниже допуска" или уровень несоответствий с заниженными значениями X. Находим F(Bz) по табл.2(5.1). Имеем: Р{х < В} = P{z < Вz} = F(Bz), Р{х > В} = 1 - P{z < Вz} = 1 - F(Bz), т.е. определили долю распределения ниже значения В, остальное - доля распределения (уровень несоответствий) с завышенными значениями х (выше В): Доля распределения в допуске: P{A < x < B}=P{Az < Z < Bz}=F(Bz) - F(Az). Таблица 2 - Значения функции стандартного нормального закона распределения
|