Конспект лекцій з дисципліни icon

Конспект лекцій з дисципліни




Скачати 243.32 Kb.
НазваКонспект лекцій з дисципліни
Дата26.06.2012
Розмір243.32 Kb.
ТипКонспект


Міністерство освіти і науки України

Харківська національна академія міського господарства


М.В.Федоров, О.М.Хренов, М.Ю.Воєводіна

Конспект лекцій з дисципліни


Елементи теорії ймовірностей і математичної статистики”


Частина 2

“Елементи математичної статистики”


/для студентів 2 курсу денної форми навчання, а також іноземних студентів спеціальностей

6.060101 - “Промислове та цивільне будівництво”;

6.060101 - “Міське будівництво та господарство”;

6.092100 - “Теплогазопостачання та вентиляція”/


Харків - ХНАМГ- 2008

Конспект лекцій з дисципліни “Елементи теорії ймовірностей і математичної статистики”. Частина 2. “Елементи математичної статистики” /для студентів 2 курсу денної форми навчання, а також іноземних студентів спеціальностей 6.060101 - “Промислове та цивільне будівництво”; 6.060101 - “Міське будівництво та господарство”; 6.092100 - “Теплогазопостачання та вентиляція”/.Авт.: Федоров Н.В., Хренов О.М., Воєводіна М.Ю.. – Харків: ХНАМГ, 2008. – 28 с.


Автори: М.В.Федоров,

О.М.Хренов,

М.Ю.Воєводіна


Рецензент: к.т.н., доц. І. В. Наумейко (Харківський національний університет радіоелектроніки )


Рекомендовано кафедрою ПМ і ІТ, протокол № 11 від 29.04.2008 р.

Лекція №1.

Основні задачі математичної статистики. Визначення законів розподілу випадкових величин на основі експериментальних даних.

  1. Предмет і задачі математичної статистики.

Математичною статистикою називається наука, що вивчає методи обробки дослідних даних, отриманих у результаті спостережень над випадковими явищами. Будь-який такий результат можна подати як сукупність значень, отриманих у результаті n випробувань над якоюсь випадковою величиною або системою випадкових величин. Тому подальший матеріал викладається мовою випадкових величин.

Предмет математичної статистики складають методи реєстрації, опису й аналізу статистичних експериментальних даних, отриманих у результаті спостереження масових випадкових явищ.

До основних задач математичної статистики відносяться:

  • Задача визначення закону розподілу випадкової величини за статистичними даними.

Теоретично при досить великому числі дослідів закономірності, що властиві досліджуваним випадковим величинам, будуть здійснюватися як завгодно точно. На практиці ми завжди маємо справу з обмеженою кількістю експериментальних даних; у зв'язку з цим результати наших спостережень і їхньої обробки завжди містять більший або менший елемент випадковості. До методики обробки експериментальних даних варто висунути такі вимоги, щоб вона, по можливості, зберігала типові, характерні риси явища, що спостерігається, і відкидала все несуттєве, другорядне, пов'язане з недостатнім обсягом дослідного матеріалу. У зв'язку з цим виникає задача згладжування або вирівнювання статистичних даних, представлення їх у найбільш компактному вигляді за допомогою простих аналітичних залежностей.

  • Задача перевірки правдоподібності гіпотез.

Ставиться вона так: у нашому розпорядженні є сукупність дослідних даних. Запитується, чи суперечать ці дані тій або іншій гіпотезі? Наприклад, гіпотезі про те, що випадкова величина X розподілена за законом із щільністю f(x). У результаті перевірки правдоподібності гіпотези може бути зроблений один із висновків: 1) відкинути гіпотезу, що суперечить дослідним даним; 2) не відкидати гіпотезу, вважати її прийнятною.

  • Задача визначення невідомих параметрів розподілу.

Як на підставі статистичних даних оцінити, хоча б приблизно, характеристики, що цікавлять нас, наприклад, математичне сподівання, дисперсію і середньо квадратичне відхилення випадкової величини, над якою велися спостереження? З якою точністю при даній кількості дослідів будуть оцінюватися ці характеристики?

  1. ^ Проста й впорядкована статистична сукупність.

Сукупність спостережених значень випадкової величини Х являє собою первинний статистичний матеріал, що підлягає обробці. Така сукупність називається «простою статистичною сукупністю» або «простим статистичним рядом». Звичайно, проста статистична сукупність оформляється у вигляді таблиці, в першому стовпчику якої записують номер досліду, а в другому – спостережене значення випадкової величини. Якщо значення випадкової величини розташувати у зростаючому порядку, ми одержимо впорядковану статистичну сукупність

  1. ^ Статистична функція розподілу.

Статистичною функцією розподілу випадкової величини Х називається частота події Х<х у даному статистичному матеріалі

.

Для того щоб знайти значення статистичної функції розподілу при даному х, досить підрахувати число дослідів, у яких величина Х прийняла значення, менше ніж х, і розділити на загальну кількість зроблених дослідів n.

Статистична функція розподілу будь-якої випадкової величини – дискретної або неперервної – являє собою переривану східчасту функцію, стрибки якої відповідають спостереженим значенням випадкової величини і за величиною дорівнюють частотам цих значень. При збільшенні числа дослідів n, відповідно до теореми Бернуллі, при будь-якому х частота події Х<х наближається (сходиться за ймовірністю) до ймовірності цієї події. Отже, при збільшенні n статистична функція розподілу F*(x) наближається (сходиться по ймовірності) до справжньої функції розподілу випадкової величини Х.

Якщо Х – неперервна випадкова величина, то при збільшенні числа спостережень n число стрибків функції F*(x) збільшується, самі стрибки зменшуються і графік функції F*(x) необмежено наближається до плавної кривої F(x) – функції розподілу величини Х.

  1. Статистичний ряд.

Розділимо весь діапазон спостережених значень Х на інтервали або «розряди» і підрахуємо кількість значень mi, що приходиться на кожний i-ий розряд. Це число розділимо на загальне число спостережень n і знайдемо частоту, що відповідає даному розряду:

pi*=mi/n

Сума частот усіх розрядів, очевидно, має дорівнювати одиниці.

Побудуємо таблицю, у якій приведені розряди в порядку їхнього розташування уздовж осі абсцис і відповідні частоти. Ця таблиця називається статистичним рядом:


Ii

x1;x2

x2;x3

. . .

xi;xi+1

. . .

xk;xk+1

pi*

p1*

p2*




pi*




pk*


Тут Ii– позначення і-го розряду; xi;xi+1– його границі; pi*– відповідна частота; k– число розрядів.

Якщо значення випадкової величини знаходиться саме на границі двох розрядів, то можна (чисто умовно) вважати дане значення приналежним рівною мірою до обох розрядів і додавати до чисел mi того й іншого розряду по 0,5.

Число розрядів, на які слід групувати статистичний матеріал, не повинно бути занадто великим (тоді ряд розподілу стає невиразним, і частоти в ньому виявляють незакономірні коливання); з іншого боку, воно не повинно бути занадто малим (при малому числі розрядів властивості розподілу описуються статистичним рядом занадто грубо). Практика показує, що в більшості випадків раціонально вибирати число розрядів порядку 10 – 20. Довжини розрядів можуть бути як однаковими, так і різними. При виборі рівних інтервалів розбивки діапазону зміни випадкової величини оптимальна довжина інтервалу може бути визначена за оптимальною кількістю інтервалів відповідно до таблиці:


n

100

200

400

600

800

1000

1500

2000

k

12

16

20

24

27

30

35

37




  1. Гістограма.

Статистичний ряд часто оформляється графічно у вигляді гістограми. Гістограма будують в такий спосіб. По осі абсцис відкладають розряди, і на кожному з розрядів як на основі будується прямокутник, площа якого дорівнює частоті даного розряду. Для побудови гістограми потрібно частоту кожного розряду розділити на його довжину й отримане число взяти як висоту прямокутника. У випадку рівних за довжиною розрядів висоти прямокутників пропорційні відповідним частотам. Зі способу побудови гістограми випливає, що повна площа її дорівнює одиниці.

Очевидно, при збільшенні числа дослідів можна вибирати все більш і більш дрібні розряди; при цьому гістограма буде все більше наближатися до деякої кривої, що обмежує площу, рівну одиниці. Неважко переконатися, що ця крива являє собою графік щільності розподілу величини Х.





  1. ^ Числові характеристики статистичного розподілу.

Кожній числовій характеристиці випадкової величини Х відповідає її статистична аналогія. Для математичного сподівання випадкової величини аналогією є середнє арифметичне спостережених значень випадкової величини:



де xi– значення випадкової величини, спостережене в і-му досліді, n– число дослідів. Ця характеристика називається статистичним середнім випадкової величини.

Відповідно до закону великих чисел, при необмеженому збільшенні числа дослідів статистичне середнє наближається (сходиться за ймовірністю) до математичного сподівання. При досить великому n статистичне середнє може бути прийняте приблизно дорівнюючим математичному сподіванню. При обмеженому числі дослідів статистичне середнє є випадковою величиною, що, проте, зв'язана з математичним сподіванням і може дати про нього відоме представлення.

Подібні статистичні аналогії існують для всіх числових характеристик. Будемо позначати ці статистичні аналогії тими ж літерами, що і відповідні числові характеристики, але з позначкою *.

Розглянемо, наприклад, дисперсію випадкової величини. Вона являє собою математичне сподівання випадкової величини :

.

Якщо в цьому виразі замінити математичне сподівання його статистичною аналогією – середнім арифметичним, ми одержимо статистичну дисперсію випадкової величини Х:

,

де mx*=M*[X]– статистичне середнє.

Аналогічно визначаються статистичні початкові і центральні моменти будь-яких порядків:





Усі ці визначення повністю аналогічні визначенням числових характеристик випадкової величини, з тією різницею, що в них скрізь замість математичного сподівання фігурує середнє арифметичне. При збільшенні числа спостережень, мабуть, усі статистичні характеристики будуть сходитися за ймовірністю до відповідних математичних характеристик і при достатньому n можуть бути прийняті приблизно дорівнюючими їм.

Неважко довести, що для статистичних початкових і центральних моментів справедливі ті ж властивості, що були виведені для математичних моментів. Зокрема, статистичний перший центральний момент завжди дорівнює нулю:



Співвідношення між центральними і початковими моментами також зберігаються:



При дуже великій кількості дослідів обчислення характеристик за наведеними вище формулами стає надмірно громіздким, тоді можна застосувати наступний прийом: скористатися тими ж розрядами, на які був розподілений статистичний матеріал для побудови статистичного ряду або гістограми, і вважати приблизно значення випадкової величини в кожному розряді постійним і рівним середньому значенню, що виступає в ролі «представника» розряду. Тоді статистичні числові характеристики будуть виражатися наближеними формулами:

,

,

,

,

де – «представник» i-го розряду, pi*– частота i-го розряду, k – число розрядів.

Як видно, ці формули цілком аналогічні формулам, що визначають математичне сподівання, дисперсію, початкові й центральні моменти дискретної випадкової величини Х, з тією різницею, що замість ймовірностей у них використуються частоти, замість математичного сподівання – статистичне середнє, замість числа можливих значень випадкової величини – число розрядів.

Лекція №2.

Вирівнювання статистичних рядів. Перевірка статистичних гіпотез.

  1. ^ Вирівнювання статистичних рядів.

Задача вирівнювання (згладжування) полягає в тому, щоб підібрати теоретичну плавну криву розподілу, що виражає лише істотні риси статистичного матеріалу, але не випадковості, пов'язані з недостатнім обсягом експериментальних даних. Ця крива, з тієї або іншої точки зору найкращим чином має описувати даний статистичний розподіл.

Задача про найкраще вирівнювання статистичних рядів, як і взагалі задача про найкраще аналітичне представлення емпіричних функцій, є задача значною мірою невизначеною, і вирішення її залежить від того, що умовитися вважати «найкращим». При цьому питання про те, в якому саме класі функцій слід шукати найкраще наближення, вирішується вже не з математичних міркувань, а з міркувань, пов'язаних з фізикою розв'язуваної задачі, з урахуванням характеру отриманої емпіричної кривої і ступеню точності зроблених спостережень. Аналогічно, при вирішенні задачі вирівнювання статистичних рядів, принциповий вид теоретичної кривої вибирається заздалегідь із міркувань, пов'язаних із суттю задачі, а в деяких випадках просто із зовнішнім виглядом статистичного розподілу. Нехай для випадкової величини Х ми побудували гистограмму, що має вигляд, наведений на рисунку. Природно припустити, що досліджувана випадкова величина Х підпорядковується нормальному закону:

.



Тоді задача вирівнювання переходить у задачу про раціональний вибір параметрів m і ?.

Будь-яка аналітична функція, за допомогою якої вирівнюється статистичний розподіл, повинна мати основні властивості щільності розподілу:

.

Припустимо, що, виходячи з тих чи інших міркувань, нами обрана функція f(x), що задовольняє наведеним вище умовам. За допомогою цієї функції ми хочемо вирівняти даний статистичний розподіл; у вираз функції f(x) входить кілька параметрів a, b, …; потрібно підібрати ці параметри так, щоб функція найкраще описувала даний статистичний матеріал. Один з методів, застосовуваних для вирішення цієї задачі, – так званий метод моментів.

Відповідно до методу моментів, параметри a, b, … вибирають з таким розрахунком, щоб кілька найважливіших числових характеристик (моментів) теоретичного розподілу дорівнювали відповідним статистичним характеристикам. Наприклад, якщо теоретична крива f(x) залежить тільки від двох параметрів a і b, ці параметри вибираються так, щоб математичне сподівання mx і дисперсія Dx теоретичного розподілу збігалися з відповідними статистичними характеристиками mx* і Dx*. Якщо крива f(x) залежить від трьох параметрів, можна підібрати їх так, щоб збіглися перші три моменти, і т.і.

При вирівнюванні статистичних рядів нераціонально користуватися моментами вище четвертого, тому що точність обчислення моментів різко падає зі збільшенням їхнього порядку.

  1. ^ Перевірка гіпотези про узгодженість теоретичного і статистичного розподілу.

Припустимо, що даний статистичний розподіл вирівняний за допомогою деякої теоретичної кривої. Як би добре не була підібрана теоретична крива, між нею і теоретичним розподілом неминучі деякі розбіжності. Виникає питання: чи обумовлені ці розбіжності тільки випадковими обставинами, пов'язаними з обмеженою кількістю спостережень, або вони є істотними і пов'язані з тим, що підібрана нами крива погано вирівнює даний статистичний розподіл. Для відповіді на таке запитання використовують так звані «критерії згоди».

Ідея застосування критеріїв згоди полягає в наступному. Нехай на підставі даного статистичного матеріалу необхідно перевірити гіпотезу Н, яка полягає в тому, що випадкова величина Х підпорядковується деякому визначеному закону розподілу. Цей закон може бути заданий у тій або іншій формі: наприклад, у вигляді функції розподілу F(x) або у вигляді щільності розподілу f(x), або ж у вигляді сукупності ймовірностей pi, де pi– ймовірність того, що величина Х попадає в межі і-го розряду.

Для того щоб прийняти або спростувати гіпотезу Н, розглянемо деяку величину U, що характеризує ступінь розбіжності теоретичного й статистичного розподілів. Ця величина може бути обрана різними способами; наприклад, у якості U можна взяти суму квадратів відхилень теоретичних ймовірностей pi від відповідних частот pi* або ж суму тих же квадратів з деякими коефіцієнтами («вагами»), або ж максимальне відхилення статистичної функції розподілу F*(x) від теоретичної F(x) і т. д. Припустимо, що величина U обрана тим чи іншим способом. Очевидно, це є деяка випадкова величина. Закон розподілу цієї випадкової величини залежить від закону розподілу випадкової величини Х, що досліджувалась, і від кількості дослідів n. Якщо гіпотеза Н правильна, закон розподілу величини U визначається законом розподілу величини Х і числом n.

Припустимо, що цей закон розподілу нам відомий. У результаті даної серії дослідів виявлено, що обрана нами міра розбіжності U прийняла деяке значення u. Запитується, чи можна пояснити це випадковими причинами або ж ця розбіжність занадто велика і вказує на наявність істотної різниці між теоретичним і статистичним розподілами і, отже, на непридатність гіпотези Н? Для відповіді на це запитання припустимо, що гіпотеза Н правильна, і обчислимо в цьому припущенні ймовірність того, що за рахунок випадкових причин, пов'язаних із недостатнім обсягом дослідницького матеріалу, міра розбіжності U виявиться не менше, ніж спостережене нами в досліді значення u, тобто обчислимо ймовірність події:

U?u.

Якщо ця ймовірність досить мала, то гіпотезу Н варто відкинути як мало правдоподібну; якщо ж ця ймовірність значна, варто визнати, що експериментальні дані не суперечать гіпотезі Н.

Виникає питання про те, яким же способом варто вибирати міру розбіжності U? Виявляється, що при деяких способах її вибору закон розподілу величини U має досить прості властивості і при досить великому n практично не залежить від функції F(x). Саме такими мірами розбіжності і користуються в математичній статистиці в якості критеріїв згоди.

Одним із найбільш часто використовуваних критеріїв згоди є, так званий, «критерій ?2» Пірсона.

Припустимо, що зроблено n незалежних дослідів, у кожному з яких випадкова величина X прийняла певне значення. Результати дослідів зведені в k розрядів і оформлені у вигляді статистичного ряду:


Ii

x1; x2

X2; x3



xk; xk+1

pi*

p1*

p2*



pk*

Треба перевірити, чи узгоджуються експериментальні дані з гіпотезою про те, що випадкова величина Х має даний закон розподілу (заданий функцією розподілу F(x) або щільністю f(x)). Назвемо цей закон розподілу «теоретичним».

Знаючи теоретичний закон розподілу, можна знайти теоретичні ймовірності потрапляння випадкової величини в кожний з розрядів:

p1, p2, . . . , pk.

Перевіряючи погодженість теоретичного й статистичного розподілів, будемо виходити з розбіжності між теоретичними ймовірностями pi і спостереженими частотами pi*. Природно вибрати як міру розбіжності між теоретичним й статистичним розподілами суму квадратів відхилень (pi*-pi), взятих з деякими «вагами» ci:

.

Коефіцієнти ci («ваги» розрядів) введені тому, що в загальному випадку відхилення, що відносяться до різних розрядів, не можна вважати рівноправними за значущістю. Однакове за абсолютною величиною відхилення (pi*-pi) може бути мало значним, якщо сама ймовірність pi велика, і дуже помітним, якщо вона мала. Тому природно «ваги» ci взяти зворотно пропорційними ймовірностям розрядів pi.

К. Пірсон показав, що якщо покласти

,

то при великих n закон розподілу величини U має досить прості властивості: він практично не залежить від функції розподілу F(x) і від числа дослідів n , а залежить тільки від числа розрядів k, а саме цей закон при збільшенні n наближається до так званого «розподілу ?2»

При такому виборі коефіцієнтів ci міра розбіжності, звичайно, позначається ?2:

.

Розподіл ?2 залежить від параметра r, названого числом «ступенів свободи» розподілу. Число «ступенів свободи» r дорівнює числу розрядів k мінус число незалежних умов («зв'язків»), накладених на частоти pi*. Прикладами таких умов можуть бути

,

якщо ми вимагаємо тільки того, щоб сума частот дорівнювала одиниці (ця вимога накладається у всіх випадках);

,

якщо ми підбираємо теоретичний розподіл з тією умовою, щоб збігалися теоретичне і статистичне середні значення;

,


якщо ми вимагаємо, крім того, збігу теоретичної і статистичної дисперсій і т.д.

Для розподілу ?2 складені спеціальні таблиці. Фрагмент такої таблиці наведений нижче:

r

p

0,10

0,05

0,02

8

13,36

15,51

18,17

9

14,68

16,92

19,68

10

15,99

18,31

21,20

У цій таблиці входами є: значення ймовірності p і кількість ступенів свободи r. Числа що записані в таблиці, являють собою значення ?z2 для яких виконується умова

,

де pz– задане значення p.

Схема застосування критерію до оцінки узгодженості теоретичного й статистичного розподілів зводиться до наступного:

  1. визначається міра розбіжності ?2набл за формулою

;

  1. визначається число ступенів свободи r як число розрядів k мінус число накладених зв'язків s:

r=k – s;

  1. за r і заданим малим значенням p за таблицею знаходять значення ?2крит , для якого справедливо

;

  1. якщо , то гіпотезу можна визнати як не суперечну дослідним даним, у протилежному разі гіпотеза відкидається як неправдоподібна.

Наскільки малою має бути ймовірність p для того, щоб відкинути або переглянути гіпотезу, – питаннє невизначене; воно не може бути вирішене з математичних міркувань, так само як і питання про те, наскільки малою має бути ймовірність події для того, щоб вважати її практично неможливою. На практиці рекомендується вибирати p?0,1.

Лекція №3.

Оцінка параметрів випадкових величин.

  1. Оцінка як функція випадкових величин – результатів спостережень.

Розглянемо питання про визначення числових характеристик випадкової величини Х в разі n незалежних дослідів. Позначимо спостережені значення випадкової величини

Х1, Х2, …, Хn.

Їх можна розглядати як n «екземплярів» випадкових величин Х, тобто n незалежних випадкових величин, кожна з яких розподілена за тим же законом, що і випадкова величина Х.

Позначимо г оцінку параметра а. Будь-яка оцінка, обчислена на основі матеріалу Х1, Х2, …, Хn має являти собою функцію цих величин:

г=?(Х1, Х2, …, Хn)

і, отже, сама є величиною випадковою. Така оцінка називається «точковою». Закон розподілу г залежить, по-перше, від закону розподілу величини Х (і, зокрема, від самого невідомого параметра а): по-друге, від числа дослідів n. У принципі, цей закон розподілу може бути знайдений відомими методами теорії ймовірностей.

  1. ^ Критерії оцінок.

  • Обґрунтованість.

Якщо при збільшенні числа досвідів n оцінка г сходиться зо ймовірністю до параметра а, то така оцінка називається обґрунтованою.



  • Незміщеність.

Якщо математичне сподівання оцінки a дорівнює оцінюваному параметру а, тобто виконується

М[a]=a,

така оцінка називається незміщеною.

  • Ефективність.

Якщо оцінка a має в порівнянні з іншими оцінками найменшу дисперсію, тобто

D[a]=min,

вона буде названа ефективною.

На практиці не завжди вдається задовольняти всім цим вимогам. Наприклад, може виявитися, що, навіть коли ефективна оцінка існує, формули для її обчислення виявляються занадто складними, і доводиться задовольнятися іншою оцінкою, дисперсія якої трохи більше. Іноді застосовуються незначно зсунені оцінки. Однак вибору оцінки завжди має передувати її критичний розгляд з усіх перерахованих вище критеріїв.

  1. ^ Оцінки для математичного сподівання та дисперсії.

Нехай є випадкова величина Х з математичним сподіванням m і дисперсією D; обидва параметри невідомі. Над величиною Х зроблено n незалежних дослідів, що дали результати X1, X2, . . . , Xn.

Як оцінку для математичного сподівання природно взяти статистичне середнє m*:

.

Можна довести, що ця оцінка є обґрунтованою і незміщеною. Якщо величина Х розподілена за нормальним законом, дисперсія буде мінімальною з можливих, тобто оцінка є ефективною. Для інших законів розподілу це може бути і не так.

Якщо за оцінку дисперсії взяти статистичну дисперсію D*

,

то при перевірці виявиться, що ця оцінка обґрунтована, але не є незміщеною. Її математичне сподівання

.

Користуючись оцінкою D* замість дисперсії D, будемо робити деяку систематичну похибку в меншу сторону. Щоб ліквідувати цей зсув, досить ввести виправлення, помноживши величину D* на n/(n-1).

Оцінка



називається «виправленою» статистичною дисперсією. Ця оцінка обґрунтована і незміщена, але вона не є ефективною. Однак у випадку нормального розподілу вона є «асимптотично ефективною», тобто при збільшенні n відношення її дисперсії до мінімальної з можливих необмежено наближається до одиниці.

  1. ^ Метод моментів для оцінки параметрів розподілу.

Цей метод заснований на тому, що початкові й центральні статистичні моменти є спроможними оцінками відповідно початкових і центральних теоретичних моментів того ж порядку. Метод запропонований К. Пірсоном і полягає в дорівнюванні теоретичних моментів розглянутого розподілу відповідним статистичним моментам того ж порядку.

Нехай заданий вигляд щільності розподілу f(x,?) обумовлений одним невідомим параметром ?. Потрібно знайти точкову оцінку параметра ?.

Виходячи з методу моментів, дорівняємо початковий теоретичний момент першого порядку початковому статистичному моменту першого порядку:

m=m*

Математичне сподівання, як видно зі співвідношення



є функція від ?, тому вираз



можна розглядати як рівняння з одним невідомим ?. Розв’язавши це рівняння щодо параметра ?, тим самим знайдемо його точкову оцінку.

Нехай заданий вигляд щільності розподілу f(x;?1,?2), обумовлений невідомими параметрами ?1 і ?2. Для відшукання двох параметрів необхідні два рівняння щодо цих параметрів. Виходячи з методу моментів, дорівняємо початковий теоретичний момент першого порядку початковому статистичному моменту першого порядку і центральний теоретичний момент другого порядку центральному статистичному моменту другого порядку:

m=m* D=D*

З огляду на те, що



і



можемо скласти систему двох рівнянь з двома невідомими:

.

Розв’язавши цю систему щодо невідомих параметрів ?1 і ?2, тим самим одержимо їхні точкові оцінки.

  1. Метод найбільшої правдоподібності. Його запропонував Р. Фішер.

Дискретні випадкові величини.

Нехай Х – дискретна випадкова величина, що у результаті n випробувань набула значення x1, x2, . . . , xn. Припустимо, що вигляд закону розподілу величини Х заданий, але параметр ?, яким визначається цей закон, невідомий. Потрібно знайти його точкову оцінку.

Позначимо ймовірність того, що в результаті випробування величина Х набуде значення xi (i=1, 2, . . ., n), через p(xi; ?).

Функцією правдоподібності дискретної випадкової величини Х називають функцію аргументу ?:

,

де x1, x2, . . . , xn – фіксовані числа.

За точкову оцінку параметра ? приймають таке його значення ?*, при якому функція правдоподібності досягає максимуму. Оцінку ?* називають оцінкою найбільшої правдоподібності.

Функції L і ln(L) досягають максимуму при тому самому значенні, тому замість відшукання максимуму функції L шукають (що зручніше) максимум функції ln(L). Функцію ln(L) називають логарифмічною функцією правдоподібності.

Неперервні випадкові величини.

Нехай Х – неперервна випадкова величина, що у результаті n випробувань прийняла значення x1, x2. . . , xn . Допустимо, що вигляд щільності розподілу f(x; ?) заданий, але параметр ?, яким визначається ця функція, невідомий.

Функцією правдоподібності неперервної випадкової величини Х називють функцію аргументу ?



де x1, x2, . . . , xn – фіксовані числа.

Оцінку найбільшої правдоподібності невідомого параметра розподілу неперервної випадкової величини шукають так само, як у випадку дискретної величини.

  1. ^ Довірчий інтервал. Довірча ймовірність.

Щоб дати уявлення про точність і надійність оцінки г, в математичній статистиці користуються так званими довірчими інтервалами і довірчими ймовірностями. Ці поняття особливо актуальні при малому числі спостережень, коли точкова оцінка г значною мірою випадкова і приблизна заміна а на г може призвести до серйозних похибок.

Нехай для параметра а отримана незміщена оцінка г. Ми хочемо оцінити можливу при цьому похибку. Призначимо деяку досить велику ймовірність (наприклад, ?=0,9, 0,95 або 0,99) таку, що подію з ймовірністю ? можна вважати практично достовірною, і знайдемо таке значення ?, для якого

.

Тоді діапазон практично можливих значень похибки, що виникає при заміні а на г, буде ; великі за абсолютною величиною похибки будуть з'являтися тільки з малою ймовірністю.

Перепишемо наведене вище рівняння у вигляді

.

Це означає, що з ймовірністю ? невідоме значення параметра а попадає в інтервал

I?=(г-?; г+?).

Довірчим називають інтервал, що покриває невідомий параметр із заданою ймовірністю (надійністю).

Довірчою ймовірністю (надійністю) називається ймовірність, з якою виконується нерівність .

Величина а не є випадковою, проте випадковим є інтервал. Випадковим є його положення на осі абсцис, обумовлене його центром г; випадковою є взагалі довжина інтервалу 2?, тому що величина ? обчислюється, як правило, за експериментальними даними. Тому краще тлумачити величину ? не як ймовірність «потрапляння» значення а в інтервал I?, а як ймовірність того, що випадковий інтервал I? накриє значення а.

Ми розглядали довірчий інтервал симетричний відносно a, взагалі це не обов'язково.

Щоб оцінити точність і надійність оцінки, потрібно знати її закон розподілу. Якби нам був відомий закон розподілу величини г, задача побудови довірчого інтервалу була б досить проста: достатньо було б знайти таке значення ?, для якого

.

Ускладнення полягає в тому, що закон розподілу оцінки г залежить від закону розподілу величини Х, отже від його невідомих параметрів (зокрема, і від самого параметра а).

  1. Довірчий інтервал для математичного сподівання нормально розподіленої випадкової величини з відомою дисперсією.

Приймемо без доказу, що коли випадкова величина Х розподілена нормально, взяте за оцінку її математичного сподівання статистичне середнє

,

є випадковою величиною, розподіленою нормально, і параметри цього закону такі:

,

де m, D і ? - відповідні параметри закону розподілу випадкової величини Х.

Розглянемо випадкову величину . Закон розподілу ? також буде нормальним, а його параметри:

M[?]=0, D[?]=0, ??=?/?n.

Визначимо ймовірність потрапляння випадкової величини ? на відрізок [-?, ?]:




Тобто:

.

Позначимо



Задавши довірчу ймовірність ?, за таблицею значень інтегральної функції Лапласа легко визначити значення u, з огляду на що . Потім визначаємо ?

.

Тепер можемо записати

,

або

.

У такий спосіб - це довірчий інтервал для математичного сподівання випадкової величини Х, з нормальним законом розподілу, при заданій довірчій ймовірності ?.


^ СПИСОК ЛІТЕРАТУРИ


Вентцель Е.С., Овчаров Л.А. Теория вероятностей и ее инженерные приложения.–М.: Наука, 1988.– 480 с.

Вентцель Е.С., Овчаров Л.А. Прикладные задачи теории вероятностей. – М.: Радио и связь, 1983. – 416 с.

Гмурман В.Е. Теория вероятностей и математическая статистика. Уч. пособие для втузов.- М.: Высш. школа, 2002. – 479 с.

Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. Уч. пособие для втузов. - М.: Высш. Школа, 2002. - 400 с.

Вентцель Е.С. Теория вероятностей. -М.: Наука, 2002. - 575 с.

Гнеденко В.В., Хинчин А.Я. Элементарное введение в теорию вероятностей. -М.: Наука, 1988. - 160 с.

Феллер В. Введение в теорию вероятностей и ее приложения. В 2-х томах. Пер. с англ. -М.: Мир, 1984.

Жалдак М.И., Квитко А.Н. Теория вероятностей с элементами информатики. Практикум: Уч. Пособие / Под общ. ред. М.И.Ядренко. -К.: Вища шк., 1989. -263 с.

Коваленко И.Н., Филиппова А.А. Теория вероятностей и математическая статистика: Уч. пособие для втузов. -М.: Высш. Школа, 1997.

Зубков А.М., Севастьянов Б.А., Чистяков В.П. Сборник задач по теории вероятностей: Уч. пособие для втузов. -М.: Наука, 1989.

Навчальне видання


Конспект лекцій з дисципліни “Елементи теорії ймовірностей і математичної статистики”. Частина 2. “Елементи математичної статистики” /для студентів 2 курсу денної форми навчання, а також іноземних студентів спеціальностей 6.060101 - “Промислове та цивільне будівництво”; 6.060101 - “Міське будівництво та господарство”; 6.092100 - “Теплогазопостачання і вентиляція”/.


Автори: Марія Юріївна Воєводіна

Микола Вікторович Федоров,

Олександр Михайлович Хренов,


Відповідальний за випуск О.М. Хренов

Редактор М.З. Аляб'єв


План 2008, поз. 164 Л


Підп. до друку 3.06.2008 Формат 60х84 1/6

Папір офісний. Друк на різографі.

Умовн. – друк. арк. 1,4

Тираж 150 прим. Замовл. №___


61002, Харків, ХНАМГ, вул. Революції, 12


Сектор оперативної поліграфії ІОЦ ХНАМГ

61002, Харків, вул. Революції, 12.


Схожі:

Конспект лекцій з дисципліни iconКонспект лекцій з дисципліни „Радіоекологія для студентів спеціальності 040106
Конспект лекцій з дисципліни „Радіоекологія” / укладач Р. А. Васькін. – Суми: Сумський державний університет, 2010. – 115 с
Конспект лекцій з дисципліни iconА.І. Кубах Конспект лекцій з дисципліни
Конспект лекцій з дисципліни „Правознавство” (для студентів усіх спеціальностей академії). Автор А.І. Кубах – Харків: хнамг, 2006....
Конспект лекцій з дисципліни iconКонспект лекцій з дисципліни «Композиція»
...
Конспект лекцій з дисципліни iconКонспект лекцій
Конспект лекцій з дисципліни "Внутрішній економічний механізм підприємства". / Авт. В. М. Тюріна. Харків: хнамг, 2004. 63 с
Конспект лекцій з дисципліни iconКонспект лекцій з дисципліни "хімія"
Конспект лекцій з дисципліни “Хімія” (для студентів 1 – 2 курсів денної та заочної форм навчання напряму підготовки 030601 – “Менеджмент”)...
Конспект лекцій з дисципліни iconКонспект лекцій з дисципліни "хімія"
Конспект лекцій з дисципліни “Хімія” (для студентів 1 – 2 курсів денної та заочної форм навчання напряму підготовки 170202 – “Охорона...
Конспект лекцій з дисципліни iconМіського господарства конспект лекцій з дисципліни
Конспект лекцій з дисципліни „Прикладна аероекологія” (для студентів 5 курсу заочної форми навчання спеціальності 070800” Екологія...
Конспект лекцій з дисципліни iconМіського господарства конспект лекцій з дисципліни
Конспект лекцій з дисципліни „Інженерна аероекологія міст” (для студентів 5,6 курсів заочної форм навчання спеціальності 070801”...
Конспект лекцій з дисципліни iconКонспект лекцій
Затверджено на засіданні кафедри як конспект лекцій з дисципліни „Стратегічне управління”
Конспект лекцій з дисципліни iconКонспект лекцій з дисципліни
Конспект лекцій з дисципліни «Водопровідні системи І споруди» для студентів 3 курсу денної І заочної форм навчання напряму підготовки...
Конспект лекцій з дисципліни iconХарківська національна академія міського господарства дворкін С. В. Конспект лекцій з дисципліни
Конспект лекцій з дисципліни „Введення у спеціальність”, (для студентів 1 курсу денної форми навчання напряму підготовки 030504 –...
Додайте кнопку на своєму сайті:
Документи


База даних захищена авторським правом ©zavantag.com 2000-2013
При копіюванні матеріалу обов'язкове зазначення активного посилання відкритою для індексації.
звернутися до адміністрації
Документи