Основы математической статистики |
Статистика
Скачать презентацию |
||
<< Теория вероятности и статистика | Элементы математической статистики >> |
Автор: . Чтобы познакомиться с картинкой полного размера, нажмите на её эскиз. Чтобы можно было использовать все картинки для урока алгебры, скачайте бесплатно презентацию «Основы математической статистики.ppt» со всеми картинками в zip-архиве размером 7263 КБ.
Скачать презентациюСл | Текст | Сл | Текст |
1 | Основы математической статистики. Горшков А.В. | 54 | дисперсии суммы: Но. И. |
2 | Курс «Основы статистики » для студентов факультета «Связи с | 55 | Случайная величина. называется стандартизованной (по |
общественностью» рассчитан на то, чтобы дать представление об | отношению к x) или просто стандартизацией x Стандартизованная | ||
основных задачах, методах и подходах статистики, ее основах. | случайная величина имеет нулевое математическое ожидание и | ||
Предполагается, что студенты знают основы курса высшей | единичную дисперсию. Пример. Дисперсия при бросании кубика. | ||
математики (элементы математического анализа: теория предела, | Математическое ожидание 3.5. Считаем математическое ожидание | ||
производная, интегралы, в том числе несобственные) в пределах | квадрата случайной величины: Среднее квадратичное отклонение. | ||
курса высшей математики для студентов гуманитарных факультетов | Таблица стандартизованных значений. -1.4639. -0.8783. -0.2928. | ||
университетов. Курс состоит из двух частей. Первая - элементы | 0.2928. 0.8783. 1.4639. | ||
теории вероятностей. Вторая - основы математической статистики. | 56 | Задача. Проводится лотерея. Разыгрывается 50 билетов по 1 | |
Первая часть необходима для более глубокого и полного понимания | рублю. Известно, что среди билетов 1 выигрывает 30 руб., 2 – по | ||
основных задач и методов статистики. Объем курса 36 часов | 10 руб. Приобретено 2 билета. Вычислить математическое ожидание | ||
лекций. Отчетность – зачет. | чистого дохода. | ||
3 | Литература. Шолохович Ф.А. Высшая математика в кратком | 57 | Коэффициент корреляции. Ковариацией двух случайных величин x |
изложении. Екатеринбург, УрГУ, 2003 Турецкий В.Я. Высшая | и h (или ковариацией между x и h) называется число. Из | ||
математика. Екатеринбург, 1997. Гмурман В.Е. Теория вероятностей | определения следуют некоторые простые свойства ковариации. 1. 2. | ||
и математическая статистика. М.: Высшая Школа, 2001, 479 с. | Ковариаиия коммутативна: 3. Ковариация суммы случайных величин. | ||
Гмурман В.Е. Руководство к решению задач по теории вероятностей | 4. Ковариация случайной величины с собой. | ||
и математической статистике. Учебное пособие для студентов | 58 | Следующее свойство важно при оценке степени зависимости двух | |
вузов. М.: "Высшая Школа", 1999. Математическая | случайных величин. 5. Если случайные величины x и h независимы, | ||
статистика позволяет обрабатывать результаты опытов, измерений и | то их ковариация равна нулю. Для независимых величин x и h их | ||
т.д. Математическая статистика использует методы теории | центрированные величины также независимы. Поэтому. Ковариация | ||
вероятности. Теория вероятностей определяет законы случайности. | стандартизованных величин называется коэффициентом, корреляции | ||
4 | Шкалы измерений. Номинальная. Позволяет различать предметы, | между случайными величинами x и h. Предполагается, что случайные | |
например по цвету Дихотомическая. Ранговая. Позволяет | величины x и h имеют ненулевые дисперсии. | ||
упорядочить предметы Интервальная Относительная ноль | 59 | Свойства коэффициента корреляции: 4. Если x и h независимы, | |
соответствует полному отсутствию свойства (качества). | то. 1. 2. Коэффициенты корреляции между x и h и между их | ||
5 | Случайные события. Событие называется детерминированным, | стандартизациями совпадают. 3. Коэффициент корреляции всегда по | |
если в результате опыта оно происходит или не происходит | модулю меньше 1. 5. Коэффициент корреляции равен +1 или -1 тогда | ||
наверняка. В детерминированном случае мы точно знаем, что данная | и только тогда, когда случайные величины линейно зависимы: | ||
причина приведет к единственному, вполне определенному | 60 | P. 0.2. 0.2. 0.2. 0.2. 0.2. P. 0.2. 0.2. 0.2. 0.2. 0.2. X. | |
следствию. Событие называется случайным, если в результате опыта | -2. -1. 0. 1. 2. X. -2. -1. 0. 1. 2. Y. 1. 2.5. 4. 5.5. 6. Y. 1. | ||
мы не можем заранее предсказать - произойдет событие или нет. | 0. -1. -2. -3. P. 0.2. 0.2. 0.2. 0.2. 0.2. P. 0.2. 0.2. 0.2. | ||
При этом предполагается, что опыт можно повторять неограниченное | 0.2. 0.2. X. -2. -1. 0. 1. 2. X. -2. -1. 0. 1. 2. Y. 4. 1. 0. 1. | ||
число раз при неизменных условиях. События, исход которых нельзя | 4. Y. 1. 0. 1. 2. 1. Вычислительная формула. Примеры. Даны | ||
предсказать, но и невозможно повторять многократно, называются | таблицы распределения. Найти коэффициенты корреляции. | ||
неопределенными. | 61 | Mx=0, Dx=2, MY=1, DY=2 MXY=-2, R=-1 Mx=0, Dx=2, MY=3.8, | |
6 | События A и B называются несовместными, если появление | DY=3.46 MXY=2.6, R=0.9884 Mx=0, Dx=2, MY=2, DY=2.8 MXY=0, R=0 | |
одного исключает появление другого. Событие B следует из события | Mx=0, Dx=2, MY=1, DY=0.4 MXY=0.4, R=0.4472. | ||
A, если событие B происходит всегда, когда произошло событие A . | 62 | Функция распределения. Свойства функции распределения. 3. | |
Это обозначается тем же символом, что и подмножество: A?B . | При любом х выполняется неравенство. Функция действительной | ||
Будем говорить о равенстве двух событий A и B, если из A следует | переменной. Называется функцией распределения случайной величины | ||
B и из B следует A. Событие называется невозможным, если оно не | x . 1. 2. Это справедливо, поскольку функция распределения есть | ||
может произойти никогда при данных условиях. Событие называется | вероятность 4. Функция распределения есть неубывающая функция. | ||
достоверным, если оно происходит всегда при данных условиях. | 63 | 6. Функция распределения непрерывна слева, то есть. | |
7 | Пусть случайный эксперимент проводится раз n, и событие A | 64 | 7. Для любой непрерывной случайной величины. 8. Функция |
произошло m раз. Тогда говорят, что относительная частота | распределения непрерывной случайной величин имеет вид. | ||
события A есть n(A)=m/n . Частота события связана с его | 65 | Свойства плотности функции распределения. Функция | |
вероятностью. Относительную частоту называют еще эмпирической | неотрицательна при всех x 2. Условие нормировки. Справедливо | ||
вероятностью потому, что по частоте события мы оцениваем | равенство. 3. В точках непрерывности плотность вероятности равна | ||
возможность его появления в будущем. Для любого случайного | производной функции распределения: | ||
события A 0?Pn(A) ?1 n - количество случайных экспериментов. | 66 | (Если интеграл существует). Математическим ожиданием | |
8 | Алгебра событий. Суммой двух событий A и B называется | непрерывной случайной величины называется число. (если | |
событие A+B, состоящее в том, что произошло событие A или | соответствующий интеграл существует). Дисперсия вычисляется | ||
событие B. В данном случае "или" употребляется в не | через интеграл: | ||
исключающем значении: А или B означает, что произошло событие A, | 67 | Некоторые определения. Квантилью случайной величины x | |
или событие B или оба этих события одновременно. | порядка p называется число xp такое, что вероятность события | ||
9 | {x<x} равна p. Модой распределения случайной величины x | ||
10 | Две теоремы о вероятности суммы событий и произведении. 1. | называется точка локального максимума плотности распределения | |
Если события несовместны, то вероятность суммы событий равна | Медианой называется квантиль x0.5 порядка 0.5 (50-процентная | ||
сумме вероятностей: P(A+B) = P(A) + P(B) 2. Если события | квантиль) распределения mx. На рисунке показано полимодальное | ||
независимы, то вероятность произведения событий равна | распределение. | ||
произведению вероятностей: P(A B) = P(A) P(B) Обобщение этих | 68 | Биномиальное распределение. Где. Распределение Пуассона. | |
теорем докажем позже. | Получается как предельное при очень большом числе испытаний | ||
11 | Примеры. 1. Подбрасываем кубик. Всего исходов 6. Какова | маловероятных событий. | |
вероятность, что выпадет четное число? Благоприятны исходы 2, 4, | 69 | Равномерное распределение. График равномерного на отрезке | |
6. Всего 3. 3/6 2. Какова вероятность, что при первом броске | (a,b) распределения представлен на рисунке. Значение C | ||
выпадет 3, во втором 4? 3. Какова вероятность, что выпадет 3 или | определяется из условия нормировки. | ||
5? Здесь вероятность суммы несовместных событий. P=1/3 4. | 70 | Распределение Гаусса. Говорят, что случайная величина x , | |
Стрелок стреляет по мишени 4 раза. Вероятность попадания в одном | распределена по нормальному закону (имеет нормальное | ||
выстреле 0.8. Считаем, что у него хорошие нервы – каждый | распределение) с параметрами m и s, (s>0) если она имеет | ||
следующий выстрел не зависит от предыдущего. Какова вероятность, | плотность распределения. На рисунке представлены графики | ||
что он промахнется ровно 1 раз? | стандартного (при m=0 и s=1) нормального распределения Гаусса | ||
12 | Решение. Могут произойти следующие события: А1 промах в 1 | (черный) и его плотности (красный). | |
выстреле, А2 промах во 2, А3 - в 3,или А4 - в 4. Следовательно, | 71 | Графики плотности нормального распределения при различных | |
событие, состоящее в одном промахе, можно представить как сумму | значениях дисперсии. | ||
событий А= А1 + А2 +А3 +А4. Но события очевидно, несовместны и | 72 | Свойства нормального распределения. График симметричен | |
P(А)= P(А1) + P(А2 )+P(А3) +P(А4). – вероятность суммы событий | относительно прямой x=m; функция достигает максимума в точке | ||
равна сумме вероятностей. Но каждое событие Аi состоит в том, | x=m; график приближается к нулю при возрастании |x|. Нормальное | ||
что одновременно, в одной серии выстрелов, произошли 4 события, | распределение обозначают N(m,s). Нормальное распределение с | ||
причем эти события независимы по условию: Аi= Аi1Аi2 Аi3 Аi4. Но | параметрами m=0, s=1 называется стандартным нормальным | ||
вероятность произведения независимых событий равна произведению | распределением и задается плотностью. | ||
вероятностей. Нужно найти вероятность промаха. В одном выстреле | 73 | Пусть x~N(m,s). Тогда квантиль xp случайной величины x | |
стрелок может либо попасть, либо промахнуться. Следовательно, | связана с квантилью стандартного нормального распределения | ||
эти события образуют полный набор и они несовместны. Но тогда | следующим соотношением: | ||
вероятность промаха 1-0.8=0.2. | 74 | Законы больших чисел Теорема Бернулли. | |
P(Аi)=P(Аi1)P(Аi2)P(Аi3)P(Аi4.)=0.8*0.8*0.8*0.2=0.1024. Всего | 75 | Центральная предельная теорема Ляпунова. Пусть случайные | |
0.4096. | величины X1, X2, …, Xn независимы, одинаково распределены с | ||
13 | Разностью событий A и B называется событие A - B , состоящее | математическим ожиданием M и конечной дисперсией s2. Тогда | |
в том, что произошло событие A и не произошло событие B. Событие | справедливо предельное соотношение. Сколь угодно близка к | ||
B называется противоположным событию A , если оно состоит в том, | единице, если n достаточно велико. | ||
что не произошло событие A. Элементарные исходы 1. не | 76 | Статистика. Генеральной совокупностью называется вся | |
представимы в виде суммы двух других 2. попарно несовместны 3. | совокупность исследуемых объектов Выборочной совокупностью или | ||
никакие другие исходы в результате опыта произойти не могут | просто выборкой называют совокупность случайно отобранных из | ||
События образуют полный набор, если они несовместны, а их сумма | генеральной совокупности объектов Объемом совокупности называют | ||
есть достоверное событие. Полный набор исходов называют также | число объектов этой совокупности Способы формирования выборочной | ||
пространством элементарных исходов и обозначают обычно буквой W. | совокупности Повторный – после измерений объект возвращают в | ||
14 | Комбинаторика. Например, число перестановок из 6 предметов | генеральную совокупность Бесповторный – после измерений объект в | |
1х2х3х4х5х6=120. Число расстановок из 6 предметов на 4 места | генеральную совокупность не возвращается Выборка должна быть | ||
120/(6-4)!=120/2!=120/2=60. Число сочетаний из 6 предметов по 4 | репрезентативной - представительной. Для этого объекты из | ||
120/(4!(6-4)!)=120/(4!2!)=5х6/2=15. | генеральной совокупности должны отбираться случайно. | ||
15 | Например, число перестановок из 6 предметов 1х2х3х4х5х6=720. | 77 | Простой случайный отбор – объекты извлекают по одному из |
Число сочетаний из 6 предметов по 4. | всей генеральной совокупности Типический отбор - объекты | ||
16 | Классическое определение. Свойства вероятности. I. Для | отбирают не из всей генеральной совокупности, а из каждой ее | |
любого случайного события А 0?P(A) ?1 2. Пусть события A и B | «типической части» Механический отбор – генеральную совокупность | ||
несовместны. Тогда P(A+B)=P(A)+P(B) Например: бросание кубика. | делят механически на несколько групп и из каждой группы отбирают | ||
Всего исходов 6, число исходов, благоприятных выпадению четного | один объект Серийный отбор – объекты из генеральной совокупности | ||
числа – 3. P(A)=1/2. | отбирают не по одному, а сериями, которые подвергают сплошному | ||
17 | Пример. В корзине 15 шаров. Из низ 5 белых и 10 черных. | обследованию. На практике, как правило, используется смешанная | |
Какова вероятность вытащить 3 белых шара? Какова вероятность | схема. | ||
вытащить 3 черных шара? Общее число исходов – число сочетаний из | 78 | Выборка и ее обработка. Совокупность пар (zi, ni ) называют | |
15 по 3: Число благоприятных исходов - число сочетаний из 10 по | статистическим рядом выборки. Часто его представляют в виде | ||
3. Вероятность события 120/455=0,2637. | таблицы – в первой строке zi, во второй ni. Величина ni = ni /n | ||
18 | Пример. Из колоды в 36 карт вытаскиваем 4. Какова | называется относительной частотой Накопленная частота значения | |
вероятность, что среди них 2 короля? Решаем по классической | zi равна n1+n2+…+ni. Относительная накопленная частота | ||
схеме. | n1+n2+…+ni. | ||
19 | Вероятность суммы событий. Даны два события A и B. | 79 | Удобнее всего разбивать на равные интервалы. При этом |
Подсчитаем вероятность суммы событий по классической схеме. m(A) | считается, что правая граница интервала принадлежит следующему | ||
– число исходов, благоприятных только событию A. m(B) – число | интервалу. Последний интервал включает правую границу. После | ||
исходов, благоприятных только событию B. m(AB) – число исходов, | этого подсчитываются частоты – количество ni элементов выборки, | ||
благоприятных событию A и событию B. Тогда сумме событий | попавших в i-й интервал. Получающийся статистический ряд в | ||
благоприятно m(A)+ m(B)+ m(AB) исходов и вероятность суммы | первой строке содержит середины интервалов группировки zi, а во | ||
событий равна. (1). N – общее число исходов. С другой стороны. | второй строке -частоты ni, попадания в соответствующий интервал. | ||
(2). | Наряду с частотами подсчитываются относительные частоты ni, | ||
20 | Вычтем из (2) выражение (1). Отсюда находим формулу | накопленные частоты и накопленные относительные частоты. | |
вероятности суммы событий. Пример. Два стрелка независимо | Результаты обычно сводятся в таблицу частот группированной | ||
стреляют по мишени. Первый попадает с вероятностью 0.8, второй | выборки, а процесс формирования такой таблицы называется | ||
0.7. Какова вероятность, что попадет хотя бы один? Используем | частотной табуляцией выборки. | ||
полученную формулу: 0.8+0.7-0.8*0.7=0.94. | 80 | Пример. Дана выборка 0,0473 0,0543 0,0561 0,0989 0,1107 | |
21 | Условная вероятность. Пусть известно, что в результате | 0,1112 0,1204 0,1647 0,2030 0,2138 0,2147 0,2463 0,2725 0,2734 | |
эксперимента произошло событие B. Зная это, мы хотим подсчитать | 0,3029 0,3222 0,3389 0,3841 0,3909 0,4037 0,4071 0,4173 0,4238 | ||
вероятность некоторого события A. Такую вероятность (при | 0,4308 0,4451 0,5382 0,5454 0,5472 0,6124 0,6320 0,6417 0,6776 | ||
условии, что произошло событие B) называют условной вероятностью | 0,6908 0,7399 0,7715 0,7853 0,8038 0,8174 0,8201 0,8287 0,8693 | ||
события A и обозначают P(A|B). Число исходов, благоприятных B | 0,8704 0,8704 0,8718 0,8965 0,9025 0,9130 0,9366 0,9629 Она | ||
обозначим через m(B). Условная вероятность равна. Если разделить | содержит 49 чисел в отрезке [0,1]. Все числа различны. | ||
числитель и знаменатель на общее число исходов N, мы придем к | 81 | Проведем группировку. Разобьем отрезок на 10 полуинтервалов | |
формуле. | [0,0.1),[0.1,0.2),…[0.8,0.9),[0.9,1.0]. Подсчитаем, сколько | ||
22 | Свойства условной вероятности. 1. P(A|A)=1 . 2. Если B?A , | элементов выборки попало в каждый интервал и получим | |
то P(A|B)=1. 3. Для любого события B с ненулевой вероятностью | статистический ряд 0.05 0.15 0.25 0.35 0.45 0.55 0.65 0.75 0.85 | ||
P(W|B)=1, P(0|B)=0 . 4. Если события B1 и B2 несовместны, то | 0.95 4 4 6 5 6 3 5 3 9 4 Обработку этого примера продолжим в | ||
P(A|(B1+B2))=P(A|B1)+P(A|B2) 5. Теорема умножения | дальнейшем. | ||
P(AB)=P(A|B)P(B). Определение независимости событий. Говорят, | 82 | Эмпирическая функция распределения. Это распределение | |
что событие А не зависит от события В, если P(A|B)=P(A). | называется выборочным, или эмпирическим, распределением. Как и | ||
23 | Формула полной вероятности. Теорема. Пусть события B1, B2, . | для любой конечной случайной величины, для эмпирической | |
. ., Bn попарно несовместны и событие A содержится в их сумме: | случайной величины можно построить ступенчатую функцию | ||
A?B1+B2+…+Bn. Умножим это соотношение на событие A. Тогда в | распределения; она называется выборочной функцией распределения. | ||
левой части получим A2=A, в правой A(B1+B2+…+Bn) и | Кроме того, можно вычислить все числовые характеристики | ||
A=A(B1+B2+…+Bn) Вложение перешло в равенство. Вычислим | выборочной случайной величины xn- математическое ожидание, | ||
вероятность от обеих частей P(A)=P(AB1)+P(AB2)+…+P(ABn) | дисперсию, СКО, медиану и т.д. | ||
Вероятности произведений заменим P(AB1)=P(A|B1)P(B1) Тогда | 83 | ||
вероятность события A можно вычислить по следующей формуле: | 84 | Оценки параметров распределения Точечные оценки. | |
P(A)=P(A|B1)P(B1)+ P(A|B2)P(B2)+…+ P(A|Bn)P(Bn). | 85 | Индекс п в обозначении оценки напоминает, что она получена | |
24 | Пример. Имеется 3 группы корзин. Корзин типа B1 – 5 Корзин | по выборке объема n, «звездочка» показывает, что это не истинное | |
типа B2 – 3 Корзин типа B3 – 2 В каждой корзине типа B1 10 белых | значение параметра, а его оценка. Произвольную функцию от | ||
5 черных шаров. В каждой корзине типа B2 5 белых 10 черных | выборки называют еще статистикой. | ||
шаров. В каждой корзине типа B3 10 белых 15 черных шаров. Какова | 86 | ||
вероятность из выбранной наугад корзины выбрать белый шар? | 87 | Несмещенная оценка называется наиболее эффективной (или | |
Решение. Вероятность выбрать белый шар из B1 P(A|B1)=10/15 | просто эффективной), если она имеет минимальную дисперсию среди | ||
Вероятность выбрать белый шар из B2 P(A|B2)=5/15 Вероятность | всех несмещенных оценок данного параметра. | ||
выбрать белый шар из B3 P(A|B3)=10/25 Вероятность выбрать | 88 | Оценка функции распределения. | |
корзину первой группы P(B1)=5/10 Вероятность выбрать корзину | 89 | Поскольку каждое значение из выборки есть случайная величина | |
второй группы P(B2)=3/10 Вероятность выбрать корзину третьей | с функцией распределения, то вероятность успеха равна p=F(x) . | ||
группы P(B3)=2/10 Подставляем числа в формулу. | Число успехов равно mn(x) , а относительная частота успеха равна | ||
25 | Формула Байеса Теорема. Пусть события B1, B2, . . ., Bn | mn(x)/n и совпадает с выборочной функцией распределения. | |
попарно несовместны и событие A содержится в их сумме: | 90 | Гистограмма. Для оценки плотности распределения генеральной | |
A?B1+B2+…+Bn. Тогда при k=1,2,…,n справедлива формула. | совокупности используется специальный график - гистограмма. На | ||
26 | Пример Те же самые условия. Случайно извлечен белый шар. | рисунке представлена гистограмма, построенная по примеру, | |
Какова вероятность, что он извлечен из первой группы корзин? | рассмотренному ранее. | ||
Т.е. Мы фактически хотим найти вероятность P(B1|A). Решение. | 91 | Полигон. Если соединить отрезками середины верхних сторон | |
P(A)=0.513333 (из предыдущей задачи) P(B1)=5/10, P(A|B1)=10/15. | прямоугольников гистограммы, получится еще одно графическое | ||
После подстановки получим. | представление для плотности распределения – полигон. На рисунке | ||
27 | Схема испытаний Бернулли. Пусть в результате некоторого | представлен полигон, построенный на основе примера. | |
случайного испытания может произойти или не произойти | 92 | Точечная оценка математического ожидания. Выборочное | |
определенное событие А. Если событие произошло, будем называть | среднее. Дает несмещенную и состоятельную оценку математического | ||
испытание успешным, а само событие – успехом. Испытание | ожидания. | ||
повторяется n раз. При этом соблюдаются следующие условия: | 93 | Точечная оценка дисперсии. Вычислим математическое ожидание | |
вероятность успеха P(A)=p в каждом испытании одна и та же; | выборочной дисперсии. Для этого преобразуем выражение для s2 | ||
результат любого испытания не зависит от исходов предыдущих | (через М обозначено математическое ожидание генеральной | ||
испытаний. Такая последовательность испытаний с двумя исходами | совокупности): | ||
(успех/ неуспех) называется последовательностью независимых | 94 | ||
испытаний Бернулли или – схемой испытаний Бернулли. | 95 | Приведенное выражение дает состоятельную несмещенную оценку | |
28 | Формула Бернулли вероятности k успехов в n независимых | дисперсии генеральной совокупности Для вычисления выборочной | |
испытаниях. В серии из n испытаний должно одновременно произойти | дисперсии можно вывести более удобную формулу. | ||
k успехов и n-k - «неуспехов». Вероятность успеха p, «неуспеха» | 96 | Zi. ni. Zi2. Zi ni. Zi2 ni. Пример. 0.05. 4. 0.0025. 0,2. | |
q=1-p, так как для одного испытания события «успех/неуспех» | 0,01. 0.15. 4. 0.0225. 0,6. 0,09. 0.25. 6. 0.0625. 1,5. 0,375. | ||
образуют полную набор. Но тогда вероятность одной серии равна. | 0.35. 5. 0,1225. 1,75. 0,6125. 0.45. 6. 0,2025. 2,7. 1,215. | ||
Сколько может быть различных серий? Очевидно, сколькими | 0.55. 3. 0,3025. 1,65. 0,9075. 0.65. 5. 0,4225. 3,25. 2,1125. | ||
способами мы можем расставить k успехов на n мест. Это число | 0.75. 3. 0,5625. 2,25. 1,6875. 0.85. 9. 0,7225. 7,65. 6,5025. | ||
расстановок. Но все успехи одинаковы. Следовательно, число серий | 0.95. 4. 0,9025. 3,8. 3,61. 49. 25,35. 17,1225. | ||
равно числу сочетаний из n по k. Серии между собой, очевидно, | s2=0,34944-0,517352= 0,081791 S2=49 s2 /48=0,083495. | ||
несовместны, так как отличаются положением хотя бы одного | 97 | Выборочные мода, медиана, квантили. Выборочные мода, медиана | |
успеха. Следовательно, вероятность суммы равна сумме | и квантиль легко определяются по упорядоченной, но не | ||
вероятностей: | сгруппированной выборке. Медиана – середина вариационного ряда. | ||
29 | Пример. Подбрасываем 10 раз кубик. Какова вероятность, что | Справа и слева располагается одинаковое число значений выборки. | |
пятерка выпадет ровно 4 раза? Решение. Схема испытаний Бернулли. | Мода– наиболее часто встречающееся значение выборки. Квантиль – | ||
p=1/6, q=1-1/6=5/6. | левее должно располагаться кол-во значений, соответствующее | ||
30 | Задача 2. Какова вероятность, что число успехов будет от k1 | индексу квантили. Например, для квантили x0.8 Левее должно | |
до k2? Очевидно, что цепочки с числом успехов k1, k1+1,…,k2 | располагаться 80% значений выборки. В нашем примере: мода=0.85, | ||
представляют собой несовместные события. Но тогда вероятность | медиана= 0,4451, x0..8= 0,8287 – левее должно располагаться | ||
суммы равна сумме вероятностей и. Пример. Какова вероятность, | 49*0.8=39.2 39 значений выборки. | ||
что из 10 бросаний монеты орел выпадет от 4 до 6 раз? Решение. | 98 | Интервальные оценки. Интервальная оценка – некоторый | |
Очевидно, что события выпал орел 4 раза, 5 раз, 6 раз | интервал [a,b]. По заданной выборке мы должны найти | ||
несовместны. Следовательно, вероятность суммы равна сумме | a(x1,x2,…,xn) и b(x1,x2,…,xn) такие, чтобы накрывали неизвестное | ||
вероятностей: | значение параметра J с заданной вероятностью g – уровнем | ||
31 | Локальная теорема Лапласа Если вероятность p появления | значимости. Уровень значимости выбирается в зависимости от | |
события A в каждом испытании постоянна и отлична от нуля и | необходимой точности решения задачи. Обычно 0.9 – 0.99. | ||
единицы, то вероятность того, что событие А появится в n | Считается 0.9 – средняя точность, 0.99 – высокая, 0.999 – очень | ||
испытаниях ровно k раз, приближенно равна. Где. | высокая. Часто доверительный интервал строится симметричным | ||
32 | Интегральная теорема Лапласа. Если вероятность p появления | относительно точечной оценки. В дальнейшем будем предполагать, | |
события A в каждом испытании постоянна и отлична от нуля и | что выборка {x1,x2,…,xn} получена из нормально распределенной | ||
единицы, то вероятность того, что событие А появится в n | генеральной совокупности: xi~N(m,s) и при различных условиях | ||
испытаниях от k1 до k2 раз, приближенно равна. Где. | требуется найти доверительные интервалы для параметров m и s2. | ||
33 | Для вычислений по формуле имеются таблицы. В таблицах | 99 | Доверительный интервал математического ожидания. Случай 1. |
приведены значения функции. для положительных значений | Считаем, что известна дисперсия генеральной совокупности s2. | ||
аргумента. Значения для отрицательных значений аргумента | 100 | ||
вычисляются по формуле. На рисунке приведены графики функций | 101 | ||
Ф(x) (черным цветом) и подынтегральной функции (красным цветом). | 102 | Распределение. Пусть x1,x2, . . .,xk независимые случайные | |
34 | Если -x1=x2=x, то справедлива формула. | величины, распределенные по стандартному нормальному закону | |
35 | Пример 1. Какова вероятность, что из 100 подбрасываний | x1,x2, . . .,xk~N(0,1). Говорят, что сумма квадратов этих | |
кубика четверка выпадет ровно 30 раз. n=100, m=30, p=1/6, | величин распределена по закону c2 с k степенями свободы. | ||
q=1-1/6=5/6. | Обозначают c2~ x1,x2, . . .,xk . Запись x~ c2(k) означает, что | ||
36 | Пример 2. Какова вероятность, что из 100 подбрасываний | случайная величина x распределена по закону c2(k) с k степенями | |
кубика 4 выпадет от m1=15 до m2=25 раз. | свободы. | ||
37 | Задача 3 . Сколько раз нужно подбросить кубик, чтобы частота | 103 | Свойства распределения c2 . Случайная величина имеет нулевую |
отличалась от вероятности не более чем на 0.005 с вероятностью | плотность распределения при x?0. При большом числе степеней | ||
0.9? Решение. Основная формула. Роль x1, x2 теоремы Лапласа | свободы k распределение c2(k) близко к нормальному. | ||
играют. Из теоремы Лапласа. | Математическое ожидание случайной величины, распределенной по | ||
38 | Подставив числа, получим уравнение относительно n. По | закону k степенями свободы, равно k: M c2(k)=k. | |
таблице ищем значение аргумента функции Лапласа такое, что ее | 104 | Доверительный интервал для дисперсии. | |
значение равно 0.95. Это 1.65. Отсюда находим n. n=15125. | 105 | ||
39 | Конечная случайная величина. Часто исход случайного | 106 | Распределение Стьюдента. На рисунке красным выделено |
эксперимента выражается некоторым числом. Когда каждому | нормальное распределение, черным – распределение Стьюдента. | ||
элементарному исходу случайного эксперимента мы ставим в | 107 | Свойства распределения Стьюдента. Распределение Стьюдента | |
соответствие некоторое число xk, то мы определяем на множестве | симметрично, причем Mt(k) = 0. При больших k распределение | ||
событий некоторую числовую функцию. Набор чисел может быть | Стьюдента близко к стандартному нормальному распределению | ||
конечным или бесконечным: это зависит от количества элементарных | N(0,1). | ||
исходов эксперимента. Неформально говоря, такое число, | 108 | Доверительный интервал математического ожидания. Случай 2. | |
принимающее случайные значения, и называется случайной | Случайная величина U распределена по нормальному закону. | ||
величиной. Например. Подбрасываем монетку. Поставим в | 109 | Пример. m=0.51735, s=0,288955, n=49. После вычислений | |
соответствие «орлу» - 1 , «решке» - 0. Можно наоборот: «орлу» - | получим 0,0809074. Интервал будет 0.51735- 0,0809074<m< | ||
0 , «решке» - 1. А можно симметрично: «орлу» - -1 , «решке» - 1. | 0.51735+ 0,0809074 0,4364426<m<0,5982574. | ||
Каждой грани кубика ставим в соответствие число очков, которое | 110 | Пример. Интервал для дисперсии. Находим интервал | |
нарисовано на грани. Картам, в зависимости от игры назначают то | 0,056131<s2<0,09353. После вычислений получим 0.51735- | ||
или иное число очков. | 0,082992 <m< 0.51735+ 0,082992 0,434358<m<0,600342. | ||
40 | Случайная величина, принимающая конечное число значений, | 111 | Основы теории проверки статистических гипотез. |
называется конечной случайной величиной. Пусть пространство | Статистической гипотезой называется предположение относительно | ||
элементарных исходов конечно: W={w1,w2,...,wn }. Вероятность P | параметров или вида распределения наблюдаемой случайной величины | ||
любого случайного события, связанного с данным экспериментом, | . Гипотеза называется простой, если она однозначно определяет | ||
полностью определяется набором неотрицательных чисел pi=P(wi) , | распределение генеральной совокупности. В противном случае | ||
i=1,2,…,n, таких, что p1+p2+…+pn=1. | гипотеза называется сложной. Гипотезы о параметрах | ||
41 | Такое вероятностное пространство можно представить с помощью | распределения. Эти гипотезы представляют собой предположение о | |
таблицы. Функцию x(w), заданную на конечном числе аргументов, | значении некоторых параметров распределения генеральной | ||
также задаем табличным способом: Будем предполагать, что все | совокупности. 2. Гипотезы о виде распределения. Эти гипотезы | ||
числа xk различны. Случайная величина принимает значение xk , | более о6щего характера выдвигаются в условиях недостаточной | ||
если произошел исход wk, вероятность которого равна pk Точнее: | информации о генеральной совокупности. Проверяемая гипотеза | ||
вероятность события {x(wk)=xk} равна pk Конечная случайная | называется нулевой гипотезой и обычно обозначается H0. Наряду с | ||
величина полностью определяется своими значениями и их | H0 рассматривают альтернативную (конкурирующую) гипотезу H1. | ||
вероятностями. | 112 | Например: выдвигается гипотеза о значении математического | |
42 | Поэтому таблица. часто отождествляется с самой случайной | ожидания H0 : m=a Возможные альтернативные H1: m?a, m>a, | |
величиной и называется законом распределения конечной случайной | m<a, m=b, b?a Гипотеза m=a, s2= b – сложная гипотеза. Можно | ||
величины. Часто закон распределения записывают короче. Например: | выдвигать и другие гипотезы. | ||
поставим в соответствие выпаданию орла 1, а решке –1. Можно | 113 | Общая схема проверки гипотез. Формирование решающего правила | |
иначе: орлу –0, решке 1. Возможны иные варианты. | опирается на ту же идею, которая используется при построении | ||
43 | Совместное распределение случайных величин. Пусть заданы две | доверительных интервалов. Ищется случайная величина (так | |
конечные случайные величины: Событие {x=xi}{h=yj} состоит в том, | называемая статистика критерия), удовлетворяющая двум основным | ||
что одновременно случайная величина x принимает значение xi , а | требованиям: 1) ее значение можно посчитать, используя только | ||
случайная величина h – значение yj . Назовем вероятности таких | выборку; 2) ее распределение известно в предположении, что | ||
событий совместными вероятностями и обозначим их через pij: | нулевая гипотеза верна. После того, как такая статистика | ||
44 | x1. x2. xm. y1. p11. p12. p1m. q1. y2. p21. p22. p2m. q2. | выбрана, на числовой оси выделяется область, попадание в которую | |
yn. pn1. pn2. pnm. qn. p1. p2. pm. 1. Таблица совместного | для этой случайной величины маловероятно (критическая область). | ||
распределения случайных величин. | Малая вероятность задается числом a (уровнем значимости). | ||
45 | Две конечные случайные величины называются независимыми, | Основной принцип проверки гипотез состоит в следующем. | |
если события {x=xi} и {h=yj} независимы при всех i=1,2,. . .,m и | Маловероятное событие считается невозможным. Событие с большой | ||
j=1,2, .., n . В противном случае случайные величины зависимы. | вероятностью считается достоверным. | ||
Для независимых случайных величин совместное распределение | 114 | Построение решающего правила на основе критерия значимости | |
строится по известным распределениям величин x и h: Пусть заданы | можно разбить на следующие основные шаги. 1. Сформировать | ||
две конечные случайные величины: | нулевую H0 и альтернативную H1 гипотезы. 2. Назначить уровень | ||
46 | Их суммой называется случайная величина x + h , значениями | значимости a . 3. Выбрать статистику Z критерия для проверки | |
которой являются всевозможные суммы. С совместными | гипотезы H0 . 4. Найти плотность распределения статистики | ||
вероятностями. Произведением этих случайных величин называется | fz(x)=fz(x|H0) критерия в предположении, что гипотеза H0 верна. | ||
случайная величина x h, значениями которой являются всевозможные | 5. Определить на числовой оси критическую область Vc из условия | ||
произведения xiyj с теми же вероятностями pij . Пусть заданы две | P(Z? Vc| H0)= a (условная вероятность того, что Z попадает в | ||
конечные независимые случайные величины: Такие случайные | область Vc, при условии, что гипотеза H0 верна). Область R\Vc в | ||
величины называются биномиальными. Вычислим закон распределения | этом случае называется областью принятия решения. Условия, | ||
x + h. Возможные значения суммы: 0- принимается с вероятностью | задающие критическую область, называются просто критерием. 6. По | ||
q2, значение 1 – принимает в двух случаях с вероятностями pq и | выборке вычислить выборочное значение Zs статистики критерия. | ||
значение 2 – с вероятностью p2. | 115 | 7. Принять решение: • если Zs?Vc , гипотеза H0 отклоняется | |
47 | В результате получим таблицу. Этот результат можно обобщить | (то есть принимается гипотеза H1): • если Zs?R\Vc, гипотеза H0 | |
на любое число слагаемых. Теорема. Пусть x1, x2, . . . , xn | не отклоняется. Принятое решение носит вероятностный, случайный | ||
независимые бернулливые случайные величины. Тогда их сумма есть | характер. Поэтому обычно применяют более осторожные | ||
биномиальная случайная величина. Иная трактовка: если xk – число | формулировки. Вместо того чтобы сказать “гипотеза отклоняется, | ||
успехов в k-ом испытании, то число успехов в n испытаниях есть | говорят: "данные эксперимента не подтверждают гипотезу “, | ||
их сумма. | “гипотеза не согласуется с экспериментом” Значение уровня | ||
48 | Математическое ожидание. Математическим ожиданием конечной | значимости не определяет критическую область однозначно. | |
случайной величины. Называется число. Понятие математического | 116 | Пример: проверка гипотезы о математическом ожидании. | |
ожидания упрощенно можно представить иначе. Пусть z1, z2, z3,…, | 117 | Пример 2. Иной вариант альтернативной гипотезы. | |
zk - результаты некоторого испытания, описываемого случайной | 118 | Ошибки при проверке статистических гипотез. Принятие решения | |
величиной x. Среднее значение случайной величины за большое | на основе статистического критерия носит случайный характер. | ||
число k испытаний будет. | Возможны следующие ситуации. Гипотеза верна H0, и она не | ||
49 | Среди этих значений соберем все равные x1, x2,…. В | отвергается. Гипотеза H0 верна, но она отвергается. В этом | |
результате получится. Но отношение есть частота появления | случае говорят, что допущена ошибка I рода. Поскольку нулевая | ||
значения xj. А частота при большом числе опытов близка к | гипотеза верна, статистика Z действительно имеет то | ||
вероятности. В итоге получаем формулу из определения. Например, | распределение, на основании которого принималось решение. Тем не | ||
при бросании кубика вероятность выпадения каждой грани равна | менее выборочное значение статистики попало в критическую | ||
1/6. Тогда математическое ожидание числа очков равно. | область. Вероятность этого события по определению равна уровню | ||
50 | Математическое ожидание обладает следующими свойствами. 1. | значимости a. Вероятность ошибки I рода равна уровню значимости | |
Математическое ожидание постоянной равно ей самой: 4. | критерия. (это риск производителя) 3. Гипотеза H0 неверна, и она | ||
Математическое ожидание суммы (разности) случайных величин равно | отвергается. 4. Гипотеза H0 неверна, но она не отвергается. | ||
сумме (разности) их математических ожиданий: 2. Если случайная | Тогда говорят, что допущена ошибка II рода. (это риск | ||
величина принимает только неотрицательные значения, то. 3. | потребителя). | ||
Константу можно выносить за знак математического ожидания: | 119 | В этой ситуации выборочное значение попало в область | |
51 | Операция вычитания математического ожидания из случайной | принятия решения, тогда как гипотеза на самом деле неверна. Если | |
величины называется центрированием. 5. Для любой случайной | распределение статистики Z известно и в предположении, что верна | ||
величины справедливо равенство. 6. Математическое ожидание | альтернативная гипотеза H1 , то можно посчитать вероятность | ||
произведения независимых случайных величин равно произведению их | ошибки II рода: это условная вероятность того, что Z попадает в | ||
математических ожиданий. Математическое ожидание биномиальной | область R\Vc при условии, что верна гипотеза H1 . Вероятность | ||
случайной величины. Числовое значение величины – кол-во успехов | ошибки II рода обычно обозначают через b. Для оценки вероятности | ||
в серии испытаний. Одно испытание можно рассматривать как серию | ошибки второго рода нужно знать функцию распределения в | ||
из одного испытания. Назначим успеху числовое значение 1, а | предположении, что альтернативная гипотеза верна. | ||
неуспеху – 0. Следовательно, математическое ожидание в одном | 120 | Проверка гипотезы о функции распределения. | |
опыте равно p. Представим серию опытов как сумму отдельных | 121 | Понятие о факторном анализе. Пусть результаты наблюдений | |
испытаний. Тогда по свойству математического ожидания M=np. | составляют k независимых выборок (групп), полученных из k | ||
52 | Дисперсия. По определению математического ожидания, | нормально распределенных генеральных совокупностей, которые | |
дисперсия вычисляется по следующей формуле. Дисперсией конечной | имеют, вообще говоря, различные средние m1,m2,…,mk . Каждая | ||
случайной величины x называется число. Называется | группа содержит nj значений, j=1,2,…,k . Общее число наблюдений | ||
среднеквадратичным отклонением или стандартным отклонением | равно n: n1+n2+…nk=n Проверяется гипотеза о равенстве средних во | ||
случайной величины. | всех k выборках: H0: m1=m2=…=mk Нулевая гипотеза является | ||
53 | Свойства дисперсии. Дисперсия любой случайной величины | сложной: предполагается лишь, что математические ожидания | |
неотрицательна Dx>0 При этом Dx=0 тогда и только тогда, когда | совпадают. Альтернативная гипотеза состоит в том, что хотя бы | ||
случайная величина постоянна. 2. Константа выносится из-под | две выборки имеют различные средние. Обозначим через xij i-й | ||
знака дисперсии с квадратом. 3. Сдвиг на константу не меняет | элемент j-й выборки, i=1,2,…,nj , j=1,2,…,k . | ||
дисперсии: 4. Дисперсия суммы независимых случайных величин | 122 | ||
равна сумме их дисперсий: (X и h независимы ). | 123 | Пример. Даны две выборки {1.5, 2.5, 2., 1.7, 2.25} и {2., | |
54 | 5. Дисперсия равна "среднему квадрата минус квадрат | 1.8, 2.2, 2.5, 1.7, 1.6} Выборочное среднее для первой 1.99, для | |
среднего": Дисперсия биномиальной случайной величины. | второй 1.96667. Значимо ли различие? Оценки дисперсии S1=0.163, | ||
Вычисление проведем по той же схеме, что и для математического | S2=0.114667 Генеральное среднее 1.97727, генеральная дисперсия | ||
ожидания. Биномиальная случайная величина есть сумма n | 0.122682. | ||
независимых бернуллиевых величин. Но тогда используем формулу | |||
«Основы математической статистики» | Основы математической статистики.ppt |
«Статистическое исследование» - Статистика — это прежде всего способ мышления. Нужна ли тебе помощь при выполнении домашнего задания по математике. Какой школьный предмет самый трудный в изучении. Сбор данных. Цель исследования. Статистика знает все. Виды статестического наблюдения. Задачи. Средним арифметическим ряда чисел называется частное.
«Элементы математической статистики» - Точность и надежность. Нормальное распределение. Точечные оценки. Детали изготавливаются на разных станках. Закон распределения. Наука. Генеральная совокупность. Уровень значимости. Проверка гипотезы. Коэффициент корреляции. Корреляционная зависимость. Статистические оценки. Правила проверки. Значение критерия.
«Теория вероятности и статистика» - Интегральная теорема Муавра – Лапласа. Константы распределения. Требования, предъявляемые к точечным оценкам. Область принятия нулевой гипотезы. Совокупность значений критерия. Гистограмма. Формула. Связь номинальных признаков. Параметр. Два типа случайных величин. Среднее арифметическое. Пример графика функции распределения.
«Вероятность и математическая статистика» - 5 конфет. Плюшка. Описательная статистика. Составим таблицу. Сравнение учебных программ. Примеры рассеянных диаграмм. Ручки четырех цветов. Правило умножения. Яблоко. Урезанное среднее. Карамель. Перестановка. Определения. Зимние каникулы. 9 разных книг. Какая диаграмма лучше. Белые и красные розы. Точность полученных значений.
«Основы математической статистики» - Распределение Гаусса. Точечная оценка дисперсии. Среднее квадратичное отклонение. Шкалы измерений. Дисперсия биномиальной случайной величины. Основная формула. Дисперсия вычисляется через интеграл. Общая схема проверки гипотез. Интервал для дисперсии. Алгебра событий. Дисперсией конечной случайной величины x называется число.
«Основные статистические характеристики» - Медиана ряда. Размах ряда. Основные статистические характеристики. Мода ряда. Среднее арифметическое ряда чисел. Медиана. Петроний. Найдите среднее арифметическое. Размах. Школьные тетради. Статистика.