Статистика Скачать
презентацию
<<  Теория вероятности и статистика Элементы математической статистики  >>
Основы математической статистики
Основы математической статистики
Основы статистики
Основы статистики
Литература
Литература
Шкалы измерений
Шкалы измерений
Случайные события
Случайные события
События A и B называются несовместными, если появление одного исключает появление другого
События A и B называются несовместными, если появление одного исключает появление другого
Случайный эксперимент
Случайный эксперимент
Алгебра событий
Алгебра событий
Основы математической статистики
Основы математической статистики
Две теоремы о вероятности суммы событий и произведении
Две теоремы о вероятности суммы событий и произведении
Подбрасываем кубик
Подбрасываем кубик
Событие, состоящее в одном промахе, можно представить как сумму событий
Событие, состоящее в одном промахе, можно представить как сумму событий
Разностью событий A и B называется событие A - B
Разностью событий A и B называется событие A - B
Комбинаторика
Комбинаторика
Число перестановок из 6 предметов
Число перестановок из 6 предметов
Классическое определение
Классическое определение
Число благоприятных исходов
Число благоприятных исходов
Решаем по классической схеме
Решаем по классической схеме
Вероятность суммы событий
Вероятность суммы событий
Находим формулу вероятности суммы событий
Находим формулу вероятности суммы событий
Условная вероятность
Условная вероятность
Свойства условной вероятности
Свойства условной вероятности
Формула полной вероятности
Формула полной вероятности
Какова вероятность из выбранной наугад корзины выбрать белый шар
Какова вероятность из выбранной наугад корзины выбрать белый шар
Формула Байеса
Формула Байеса
Какова вероятность, что он извлечен из первой группы корзин
Какова вероятность, что он извлечен из первой группы корзин
Схема испытаний Бернулли
Схема испытаний Бернулли
Формула Бернулли
Формула Бернулли
Какова вероятность, что пятерка выпадет ровно 4 раза
Какова вероятность, что пятерка выпадет ровно 4 раза
Какова вероятность, что число успехов будет от k1 до k2
Какова вероятность, что число успехов будет от k1 до k2
Локальная теорема Лапласа
Локальная теорема Лапласа
Интегральная теорема Лапласа
Интегральная теорема Лапласа
Для вычислений по формуле имеются таблицы
Для вычислений по формуле имеются таблицы
Формула
Формула
Какова вероятность, что из 100 подбрасываний кубика четверка выпадет ровно 30 раз
Какова вероятность, что из 100 подбрасываний кубика четверка выпадет ровно 30 раз
Какова вероятность, что из 100 подбрасываний кубика 4 выпадет от m1=15 до m2=25 раз
Какова вероятность, что из 100 подбрасываний кубика 4 выпадет от m1=15 до m2=25 раз
Сколько раз нужно подбросить кубик, чтобы частота отличалась от вероятности
Сколько раз нужно подбросить кубик, чтобы частота отличалась от вероятности
Подставив числа, получим уравнение относительно n
Подставив числа, получим уравнение относительно n
Конечная случайная величина
Конечная случайная величина
Случайная величина, принимающая конечное число значений
Случайная величина, принимающая конечное число значений
Вероятностное пространство можно представить с помощью таблицы
Вероятностное пространство можно представить с помощью таблицы
Поставим в соответствие выпаданию орла 1
Поставим в соответствие выпаданию орла 1
Совместное распределение случайных величин
Совместное распределение случайных величин
x1
x1
Две конечные случайные величины называются независимыми
Две конечные случайные величины называются независимыми
Случайная величина x + h
Случайная величина x + h
В результате получим таблицу
В результате получим таблицу
Математическое ожидание
Математическое ожидание
Отношение есть частота появления значения xj
Отношение есть частота появления значения xj
Математическое ожидание
Математическое ожидание
Операция вычитания математического ожидания из случайной величины
Операция вычитания математического ожидания из случайной величины
Дисперсия
Дисперсия
Свойства дисперсии
Свойства дисперсии
Дисперсия равна
Дисперсия равна
Случайная величина
Случайная величина
Проводится лотерея
Проводится лотерея
Коэффициент корреляции
Коэффициент корреляции
Свойство важно при оценке степени зависимости двух случайных величин
Свойство важно при оценке степени зависимости двух случайных величин
Свойства коэффициента корреляции
Свойства коэффициента корреляции
P
P
Mx=0, Dx=2
Mx=0, Dx=2
Функция распределения
Функция распределения
Функция распределения непрерывна слева
Функция распределения непрерывна слева
Функция распределения непрерывной случайной величин
Функция распределения непрерывной случайной величин
Свойства плотности функции распределения
Свойства плотности функции распределения
Математическим ожиданием непрерывной случайной величины называется число
Математическим ожиданием непрерывной случайной величины называется число
Некоторые определения
Некоторые определения
Биномиальное распределение
Биномиальное распределение
Равномерное распределение
Равномерное распределение
Распределение Гаусса
Распределение Гаусса
Графики плотности нормального распределения при различных значениях дисперсии
Графики плотности нормального распределения при различных значениях дисперсии
Свойства нормального распределения
Свойства нормального распределения
Квантиль xp случайной величины x связана с квантилью стандартного нормального распределения
Квантиль xp случайной величины x связана с квантилью стандартного нормального распределения
Законы больших чисел
Законы больших чисел
Центральная предельная теорема Ляпунова
Центральная предельная теорема Ляпунова
Статистика
Статистика
Простой случайный отбор
Простой случайный отбор
Выборка и ее обработка
Выборка и ее обработка
Удобнее всего разбивать на Равные интервалы
Удобнее всего разбивать на Равные интервалы
Пример
Пример
Проведем группировку
Проведем группировку
Эмпирическая функция распределения
Эмпирическая функция распределения
Основы математической статистики
Основы математической статистики
Оценки параметров распределения
Оценки параметров распределения
Индекс п в обозначении оценки
Индекс п в обозначении оценки
Основы математической статистики
Основы математической статистики
Несмещенная оценка
Несмещенная оценка
Оценка функции распределения
Оценка функции распределения
Каждое значение из выборки есть случайная величина
Каждое значение из выборки есть случайная величина
Гистограмма
Гистограмма
Полигон
Полигон
Точечная оценка математического ожидания
Точечная оценка математического ожидания
Точечная оценка дисперсии
Точечная оценка дисперсии
Основы математической статистики
Основы математической статистики
Приведенное выражение дает состоятельную несмещенную оценку дисперсии
Приведенное выражение дает состоятельную несмещенную оценку дисперсии
Zi
Zi
Выборочные мода, медиана, квантили
Выборочные мода, медиана, квантили
Интервальные оценки
Интервальные оценки
Доверительный интервал математического ожидания
Доверительный интервал математического ожидания
Основы математической статистики
Основы математической статистики
Основы математической статистики
Основы математической статистики
Основы математической статистики
Основы математической статистики
Распределение
Распределение
Свойства распределения c2
Свойства распределения c2
Доверительный интервал для дисперсии
Доверительный интервал для дисперсии
Основы математической статистики
Основы математической статистики
Распределение Стьюдента
Распределение Стьюдента
Свойства распределения Стьюдента
Свойства распределения Стьюдента
Доверительный интервал математического ожидания
Доверительный интервал математического ожидания
Пример
Пример
Интервал для дисперсии
Интервал для дисперсии
Основы теории проверки статистических гипотез
Основы теории проверки статистических гипотез
Выдвигается гипотеза о значении математического ожидания
Выдвигается гипотеза о значении математического ожидания
Общая схема проверки гипотез
Общая схема проверки гипотез
Построение решающего правила на основе критерия значимости
Построение решающего правила на основе критерия значимости
Принятое решение носит вероятностный, случайный характер
Принятое решение носит вероятностный, случайный характер
Проверка гипотезы о математическом ожидании
Проверка гипотезы о математическом ожидании
Иной вариант альтернативной гипотезы
Иной вариант альтернативной гипотезы
Ошибки при проверке статистических гипотез
Ошибки при проверке статистических гипотез
Выборочное значение попало в область принятия решения
Выборочное значение попало в область принятия решения
Проверка гипотезы о функции распределения
Проверка гипотезы о функции распределения
Понятие о факторном анализе
Понятие о факторном анализе
Основы математической статистики
Основы математической статистики
Значимо ли различие
Значимо ли различие
Картинки из презентации «Основы математической статистики» к уроку алгебры на тему «Статистика»

Автор: . Чтобы познакомиться с картинкой полного размера, нажмите на её эскиз. Чтобы можно было использовать все картинки для урока алгебры, скачайте бесплатно презентацию «Основы математической статистики.ppt» со всеми картинками в zip-архиве размером 7263 КБ.

Скачать презентацию

Основы математической статистики

содержание презентации «Основы математической статистики.ppt»
Сл Текст Сл Текст
1Основы математической статистики. Горшков А.В. 54дисперсии суммы: Но. И.
2Курс «Основы статистики » для студентов факультета «Связи с 55Случайная величина. называется стандартизованной (по
общественностью» рассчитан на то, чтобы дать представление об отношению к x) или просто стандартизацией x Стандартизованная
основных задачах, методах и подходах статистики, ее основах. случайная величина имеет нулевое математическое ожидание и
Предполагается, что студенты знают основы курса высшей единичную дисперсию. Пример. Дисперсия при бросании кубика.
математики (элементы математического анализа: теория предела, Математическое ожидание 3.5. Считаем математическое ожидание
производная, интегралы, в том числе несобственные) в пределах квадрата случайной величины: Среднее квадратичное отклонение.
курса высшей математики для студентов гуманитарных факультетов Таблица стандартизованных значений. -1.4639. -0.8783. -0.2928.
университетов. Курс состоит из двух частей. Первая - элементы 0.2928. 0.8783. 1.4639.
теории вероятностей. Вторая - основы математической статистики. 56Задача. Проводится лотерея. Разыгрывается 50 билетов по 1
Первая часть необходима для более глубокого и полного понимания рублю. Известно, что среди билетов 1 выигрывает 30 руб., 2 – по
основных задач и методов статистики. Объем курса 36 часов 10 руб. Приобретено 2 билета. Вычислить математическое ожидание
лекций. Отчетность – зачет. чистого дохода.
3Литература. Шолохович Ф.А. Высшая математика в кратком 57Коэффициент корреляции. Ковариацией двух случайных величин x
изложении. Екатеринбург, УрГУ, 2003 Турецкий В.Я. Высшая и h (или ковариацией между x и h) называется число. Из
математика. Екатеринбург, 1997. Гмурман В.Е. Теория вероятностей определения следуют некоторые простые свойства ковариации. 1. 2.
и математическая статистика. М.: Высшая Школа, 2001, 479 с. Ковариаиия коммутативна: 3. Ковариация суммы случайных величин.
Гмурман В.Е. Руководство к решению задач по теории вероятностей 4. Ковариация случайной величины с собой.
и математической статистике. Учебное пособие для студентов 58Следующее свойство важно при оценке степени зависимости двух
вузов. М.: "Высшая Школа", 1999. Математическая случайных величин. 5. Если случайные величины x и h независимы,
статистика позволяет обрабатывать результаты опытов, измерений и то их ковариация равна нулю. Для независимых величин x и h их
т.д. Математическая статистика использует методы теории центрированные величины также независимы. Поэтому. Ковариация
вероятности. Теория вероятностей определяет законы случайности. стандартизованных величин называется коэффициентом, корреляции
4Шкалы измерений. Номинальная. Позволяет различать предметы, между случайными величинами x и h. Предполагается, что случайные
например по цвету Дихотомическая. Ранговая. Позволяет величины x и h имеют ненулевые дисперсии.
упорядочить предметы Интервальная Относительная ноль 59Свойства коэффициента корреляции: 4. Если x и h независимы,
соответствует полному отсутствию свойства (качества). то. 1. 2. Коэффициенты корреляции между x и h и между их
5Случайные события. Событие называется детерминированным, стандартизациями совпадают. 3. Коэффициент корреляции всегда по
если в результате опыта оно происходит или не происходит модулю меньше 1. 5. Коэффициент корреляции равен +1 или -1 тогда
наверняка. В детерминированном случае мы точно знаем, что данная и только тогда, когда случайные величины линейно зависимы:
причина приведет к единственному, вполне определенному 60P. 0.2. 0.2. 0.2. 0.2. 0.2. P. 0.2. 0.2. 0.2. 0.2. 0.2. X.
следствию. Событие называется случайным, если в результате опыта -2. -1. 0. 1. 2. X. -2. -1. 0. 1. 2. Y. 1. 2.5. 4. 5.5. 6. Y. 1.
мы не можем заранее предсказать - произойдет событие или нет. 0. -1. -2. -3. P. 0.2. 0.2. 0.2. 0.2. 0.2. P. 0.2. 0.2. 0.2.
При этом предполагается, что опыт можно повторять неограниченное 0.2. 0.2. X. -2. -1. 0. 1. 2. X. -2. -1. 0. 1. 2. Y. 4. 1. 0. 1.
число раз при неизменных условиях. События, исход которых нельзя 4. Y. 1. 0. 1. 2. 1. Вычислительная формула. Примеры. Даны
предсказать, но и невозможно повторять многократно, называются таблицы распределения. Найти коэффициенты корреляции.
неопределенными. 61Mx=0, Dx=2, MY=1, DY=2 MXY=-2, R=-1 Mx=0, Dx=2, MY=3.8,
6События A и B называются несовместными, если появление DY=3.46 MXY=2.6, R=0.9884 Mx=0, Dx=2, MY=2, DY=2.8 MXY=0, R=0
одного исключает появление другого. Событие B следует из события Mx=0, Dx=2, MY=1, DY=0.4 MXY=0.4, R=0.4472.
A, если событие B происходит всегда, когда произошло событие A . 62Функция распределения. Свойства функции распределения. 3.
Это обозначается тем же символом, что и подмножество: A?B . При любом х выполняется неравенство. Функция действительной
Будем говорить о равенстве двух событий A и B, если из A следует переменной. Называется функцией распределения случайной величины
B и из B следует A. Событие называется невозможным, если оно не x . 1. 2. Это справедливо, поскольку функция распределения есть
может произойти никогда при данных условиях. Событие называется вероятность 4. Функция распределения есть неубывающая функция.
достоверным, если оно происходит всегда при данных условиях. 636. Функция распределения непрерывна слева, то есть.
7Пусть случайный эксперимент проводится раз n, и событие A 647. Для любой непрерывной случайной величины. 8. Функция
произошло m раз. Тогда говорят, что относительная частота распределения непрерывной случайной величин имеет вид.
события A есть n(A)=m/n . Частота события связана с его 65Свойства плотности функции распределения. Функция
вероятностью. Относительную частоту называют еще эмпирической неотрицательна при всех x 2. Условие нормировки. Справедливо
вероятностью потому, что по частоте события мы оцениваем равенство. 3. В точках непрерывности плотность вероятности равна
возможность его появления в будущем. Для любого случайного производной функции распределения:
события A 0?Pn(A) ?1 n - количество случайных экспериментов. 66(Если интеграл существует). Математическим ожиданием
8Алгебра событий. Суммой двух событий A и B называется непрерывной случайной величины называется число. (если
событие A+B, состоящее в том, что произошло событие A или соответствующий интеграл существует). Дисперсия вычисляется
событие B. В данном случае "или" употребляется в не через интеграл:
исключающем значении: А или B означает, что произошло событие A, 67Некоторые определения. Квантилью случайной величины x
или событие B или оба этих события одновременно. порядка p называется число xp такое, что вероятность события
9 {x<x} равна p. Модой распределения случайной величины x
10Две теоремы о вероятности суммы событий и произведении. 1. называется точка локального максимума плотности распределения
Если события несовместны, то вероятность суммы событий равна Медианой называется квантиль x0.5 порядка 0.5 (50-процентная
сумме вероятностей: P(A+B) = P(A) + P(B) 2. Если события квантиль) распределения mx. На рисунке показано полимодальное
независимы, то вероятность произведения событий равна распределение.
произведению вероятностей: P(A B) = P(A) P(B) Обобщение этих 68Биномиальное распределение. Где. Распределение Пуассона.
теорем докажем позже. Получается как предельное при очень большом числе испытаний
11Примеры. 1. Подбрасываем кубик. Всего исходов 6. Какова маловероятных событий.
вероятность, что выпадет четное число? Благоприятны исходы 2, 4, 69Равномерное распределение. График равномерного на отрезке
6. Всего 3. 3/6 2. Какова вероятность, что при первом броске (a,b) распределения представлен на рисунке. Значение C
выпадет 3, во втором 4? 3. Какова вероятность, что выпадет 3 или определяется из условия нормировки.
5? Здесь вероятность суммы несовместных событий. P=1/3 4. 70Распределение Гаусса. Говорят, что случайная величина x ,
Стрелок стреляет по мишени 4 раза. Вероятность попадания в одном распределена по нормальному закону (имеет нормальное
выстреле 0.8. Считаем, что у него хорошие нервы – каждый распределение) с параметрами m и s, (s>0) если она имеет
следующий выстрел не зависит от предыдущего. Какова вероятность, плотность распределения. На рисунке представлены графики
что он промахнется ровно 1 раз? стандартного (при m=0 и s=1) нормального распределения Гаусса
12Решение. Могут произойти следующие события: А1 промах в 1 (черный) и его плотности (красный).
выстреле, А2 промах во 2, А3 - в 3,или А4 - в 4. Следовательно, 71Графики плотности нормального распределения при различных
событие, состоящее в одном промахе, можно представить как сумму значениях дисперсии.
событий А= А1 + А2 +А3 +А4. Но события очевидно, несовместны и 72Свойства нормального распределения. График симметричен
P(А)= P(А1) + P(А2 )+P(А3) +P(А4). – вероятность суммы событий относительно прямой x=m; функция достигает максимума в точке
равна сумме вероятностей. Но каждое событие Аi состоит в том, x=m; график приближается к нулю при возрастании |x|. Нормальное
что одновременно, в одной серии выстрелов, произошли 4 события, распределение обозначают N(m,s). Нормальное распределение с
причем эти события независимы по условию: Аi= Аi1Аi2 Аi3 Аi4. Но параметрами m=0, s=1 называется стандартным нормальным
вероятность произведения независимых событий равна произведению распределением и задается плотностью.
вероятностей. Нужно найти вероятность промаха. В одном выстреле 73Пусть x~N(m,s). Тогда квантиль xp случайной величины x
стрелок может либо попасть, либо промахнуться. Следовательно, связана с квантилью стандартного нормального распределения
эти события образуют полный набор и они несовместны. Но тогда следующим соотношением:
вероятность промаха 1-0.8=0.2. 74Законы больших чисел Теорема Бернулли.
P(Аi)=P(Аi1)P(Аi2)P(Аi3)P(Аi4.)=0.8*0.8*0.8*0.2=0.1024. Всего 75Центральная предельная теорема Ляпунова. Пусть случайные
0.4096. величины X1, X2, …, Xn независимы, одинаково распределены с
13Разностью событий A и B называется событие A - B , состоящее математическим ожиданием M и конечной дисперсией s2. Тогда
в том, что произошло событие A и не произошло событие B. Событие справедливо предельное соотношение. Сколь угодно близка к
B называется противоположным событию A , если оно состоит в том, единице, если n достаточно велико.
что не произошло событие A. Элементарные исходы 1. не 76Статистика. Генеральной совокупностью называется вся
представимы в виде суммы двух других 2. попарно несовместны 3. совокупность исследуемых объектов Выборочной совокупностью или
никакие другие исходы в результате опыта произойти не могут просто выборкой называют совокупность случайно отобранных из
События образуют полный набор, если они несовместны, а их сумма генеральной совокупности объектов Объемом совокупности называют
есть достоверное событие. Полный набор исходов называют также число объектов этой совокупности Способы формирования выборочной
пространством элементарных исходов и обозначают обычно буквой W. совокупности Повторный – после измерений объект возвращают в
14Комбинаторика. Например, число перестановок из 6 предметов генеральную совокупность Бесповторный – после измерений объект в
1х2х3х4х5х6=120. Число расстановок из 6 предметов на 4 места генеральную совокупность не возвращается Выборка должна быть
120/(6-4)!=120/2!=120/2=60. Число сочетаний из 6 предметов по 4 репрезентативной - представительной. Для этого объекты из
120/(4!(6-4)!)=120/(4!2!)=5х6/2=15. генеральной совокупности должны отбираться случайно.
15Например, число перестановок из 6 предметов 1х2х3х4х5х6=720. 77Простой случайный отбор – объекты извлекают по одному из
Число сочетаний из 6 предметов по 4. всей генеральной совокупности Типический отбор - объекты
16Классическое определение. Свойства вероятности. I. Для отбирают не из всей генеральной совокупности, а из каждой ее
любого случайного события А 0?P(A) ?1 2. Пусть события A и B «типической части» Механический отбор – генеральную совокупность
несовместны. Тогда P(A+B)=P(A)+P(B) Например: бросание кубика. делят механически на несколько групп и из каждой группы отбирают
Всего исходов 6, число исходов, благоприятных выпадению четного один объект Серийный отбор – объекты из генеральной совокупности
числа – 3. P(A)=1/2. отбирают не по одному, а сериями, которые подвергают сплошному
17Пример. В корзине 15 шаров. Из низ 5 белых и 10 черных. обследованию. На практике, как правило, используется смешанная
Какова вероятность вытащить 3 белых шара? Какова вероятность схема.
вытащить 3 черных шара? Общее число исходов – число сочетаний из 78Выборка и ее обработка. Совокупность пар (zi, ni ) называют
15 по 3: Число благоприятных исходов - число сочетаний из 10 по статистическим рядом выборки. Часто его представляют в виде
3. Вероятность события 120/455=0,2637. таблицы – в первой строке zi, во второй ni. Величина ni = ni /n
18Пример. Из колоды в 36 карт вытаскиваем 4. Какова называется относительной частотой Накопленная частота значения
вероятность, что среди них 2 короля? Решаем по классической zi равна n1+n2+…+ni. Относительная накопленная частота
схеме. n1+n2+…+ni.
19Вероятность суммы событий. Даны два события A и B. 79Удобнее всего разбивать на равные интервалы. При этом
Подсчитаем вероятность суммы событий по классической схеме. m(A) считается, что правая граница интервала принадлежит следующему
– число исходов, благоприятных только событию A. m(B) – число интервалу. Последний интервал включает правую границу. После
исходов, благоприятных только событию B. m(AB) – число исходов, этого подсчитываются частоты – количество ni элементов выборки,
благоприятных событию A и событию B. Тогда сумме событий попавших в i-й интервал. Получающийся статистический ряд в
благоприятно m(A)+ m(B)+ m(AB) исходов и вероятность суммы первой строке содержит середины интервалов группировки zi, а во
событий равна. (1). N – общее число исходов. С другой стороны. второй строке -частоты ni, попадания в соответствующий интервал.
(2). Наряду с частотами подсчитываются относительные частоты ni,
20Вычтем из (2) выражение (1). Отсюда находим формулу накопленные частоты и накопленные относительные частоты.
вероятности суммы событий. Пример. Два стрелка независимо Результаты обычно сводятся в таблицу частот группированной
стреляют по мишени. Первый попадает с вероятностью 0.8, второй выборки, а процесс формирования такой таблицы называется
0.7. Какова вероятность, что попадет хотя бы один? Используем частотной табуляцией выборки.
полученную формулу: 0.8+0.7-0.8*0.7=0.94. 80Пример. Дана выборка 0,0473 0,0543 0,0561 0,0989 0,1107
21Условная вероятность. Пусть известно, что в результате 0,1112 0,1204 0,1647 0,2030 0,2138 0,2147 0,2463 0,2725 0,2734
эксперимента произошло событие B. Зная это, мы хотим подсчитать 0,3029 0,3222 0,3389 0,3841 0,3909 0,4037 0,4071 0,4173 0,4238
вероятность некоторого события A. Такую вероятность (при 0,4308 0,4451 0,5382 0,5454 0,5472 0,6124 0,6320 0,6417 0,6776
условии, что произошло событие B) называют условной вероятностью 0,6908 0,7399 0,7715 0,7853 0,8038 0,8174 0,8201 0,8287 0,8693
события A и обозначают P(A|B). Число исходов, благоприятных B 0,8704 0,8704 0,8718 0,8965 0,9025 0,9130 0,9366 0,9629 Она
обозначим через m(B). Условная вероятность равна. Если разделить содержит 49 чисел в отрезке [0,1]. Все числа различны.
числитель и знаменатель на общее число исходов N, мы придем к 81Проведем группировку. Разобьем отрезок на 10 полуинтервалов
формуле. [0,0.1),[0.1,0.2),…[0.8,0.9),[0.9,1.0]. Подсчитаем, сколько
22Свойства условной вероятности. 1. P(A|A)=1 . 2. Если B?A , элементов выборки попало в каждый интервал и получим
то P(A|B)=1. 3. Для любого события B с ненулевой вероятностью статистический ряд 0.05 0.15 0.25 0.35 0.45 0.55 0.65 0.75 0.85
P(W|B)=1, P(0|B)=0 . 4. Если события B1 и B2 несовместны, то 0.95 4 4 6 5 6 3 5 3 9 4 Обработку этого примера продолжим в
P(A|(B1+B2))=P(A|B1)+P(A|B2) 5. Теорема умножения дальнейшем.
P(AB)=P(A|B)P(B). Определение независимости событий. Говорят, 82Эмпирическая функция распределения. Это распределение
что событие А не зависит от события В, если P(A|B)=P(A). называется выборочным, или эмпирическим, распределением. Как и
23Формула полной вероятности. Теорема. Пусть события B1, B2, . для любой конечной случайной величины, для эмпирической
. ., Bn попарно несовместны и событие A содержится в их сумме: случайной величины можно построить ступенчатую функцию
A?B1+B2+…+Bn. Умножим это соотношение на событие A. Тогда в распределения; она называется выборочной функцией распределения.
левой части получим A2=A, в правой A(B1+B2+…+Bn) и Кроме того, можно вычислить все числовые характеристики
A=A(B1+B2+…+Bn) Вложение перешло в равенство. Вычислим выборочной случайной величины xn- математическое ожидание,
вероятность от обеих частей P(A)=P(AB1)+P(AB2)+…+P(ABn) дисперсию, СКО, медиану и т.д.
Вероятности произведений заменим P(AB1)=P(A|B1)P(B1) Тогда 83
вероятность события A можно вычислить по следующей формуле: 84Оценки параметров распределения Точечные оценки.
P(A)=P(A|B1)P(B1)+ P(A|B2)P(B2)+…+ P(A|Bn)P(Bn). 85Индекс п в обозначении оценки напоминает, что она получена
24Пример. Имеется 3 группы корзин. Корзин типа B1 – 5 Корзин по выборке объема n, «звездочка» показывает, что это не истинное
типа B2 – 3 Корзин типа B3 – 2 В каждой корзине типа B1 10 белых значение параметра, а его оценка. Произвольную функцию от
5 черных шаров. В каждой корзине типа B2 5 белых 10 черных выборки называют еще статистикой.
шаров. В каждой корзине типа B3 10 белых 15 черных шаров. Какова 86
вероятность из выбранной наугад корзины выбрать белый шар? 87Несмещенная оценка называется наиболее эффективной (или
Решение. Вероятность выбрать белый шар из B1 P(A|B1)=10/15 просто эффективной), если она имеет минимальную дисперсию среди
Вероятность выбрать белый шар из B2 P(A|B2)=5/15 Вероятность всех несмещенных оценок данного параметра.
выбрать белый шар из B3 P(A|B3)=10/25 Вероятность выбрать 88Оценка функции распределения.
корзину первой группы P(B1)=5/10 Вероятность выбрать корзину 89Поскольку каждое значение из выборки есть случайная величина
второй группы P(B2)=3/10 Вероятность выбрать корзину третьей с функцией распределения, то вероятность успеха равна p=F(x) .
группы P(B3)=2/10 Подставляем числа в формулу. Число успехов равно mn(x) , а относительная частота успеха равна
25Формула Байеса Теорема. Пусть события B1, B2, . . ., Bn mn(x)/n и совпадает с выборочной функцией распределения.
попарно несовместны и событие A содержится в их сумме: 90Гистограмма. Для оценки плотности распределения генеральной
A?B1+B2+…+Bn. Тогда при k=1,2,…,n справедлива формула. совокупности используется специальный график - гистограмма. На
26Пример Те же самые условия. Случайно извлечен белый шар. рисунке представлена гистограмма, построенная по примеру,
Какова вероятность, что он извлечен из первой группы корзин? рассмотренному ранее.
Т.е. Мы фактически хотим найти вероятность P(B1|A). Решение. 91Полигон. Если соединить отрезками середины верхних сторон
P(A)=0.513333 (из предыдущей задачи) P(B1)=5/10, P(A|B1)=10/15. прямоугольников гистограммы, получится еще одно графическое
После подстановки получим. представление для плотности распределения – полигон. На рисунке
27Схема испытаний Бернулли. Пусть в результате некоторого представлен полигон, построенный на основе примера.
случайного испытания может произойти или не произойти 92Точечная оценка математического ожидания. Выборочное
определенное событие А. Если событие произошло, будем называть среднее. Дает несмещенную и состоятельную оценку математического
испытание успешным, а само событие – успехом. Испытание ожидания.
повторяется n раз. При этом соблюдаются следующие условия: 93Точечная оценка дисперсии. Вычислим математическое ожидание
вероятность успеха P(A)=p в каждом испытании одна и та же; выборочной дисперсии. Для этого преобразуем выражение для s2
результат любого испытания не зависит от исходов предыдущих (через М обозначено математическое ожидание генеральной
испытаний. Такая последовательность испытаний с двумя исходами совокупности):
(успех/ неуспех) называется последовательностью независимых 94
испытаний Бернулли или – схемой испытаний Бернулли. 95Приведенное выражение дает состоятельную несмещенную оценку
28Формула Бернулли вероятности k успехов в n независимых дисперсии генеральной совокупности Для вычисления выборочной
испытаниях. В серии из n испытаний должно одновременно произойти дисперсии можно вывести более удобную формулу.
k успехов и n-k - «неуспехов». Вероятность успеха p, «неуспеха» 96Zi. ni. Zi2. Zi ni. Zi2 ni. Пример. 0.05. 4. 0.0025. 0,2.
q=1-p, так как для одного испытания события «успех/неуспех» 0,01. 0.15. 4. 0.0225. 0,6. 0,09. 0.25. 6. 0.0625. 1,5. 0,375.
образуют полную набор. Но тогда вероятность одной серии равна. 0.35. 5. 0,1225. 1,75. 0,6125. 0.45. 6. 0,2025. 2,7. 1,215.
Сколько может быть различных серий? Очевидно, сколькими 0.55. 3. 0,3025. 1,65. 0,9075. 0.65. 5. 0,4225. 3,25. 2,1125.
способами мы можем расставить k успехов на n мест. Это число 0.75. 3. 0,5625. 2,25. 1,6875. 0.85. 9. 0,7225. 7,65. 6,5025.
расстановок. Но все успехи одинаковы. Следовательно, число серий 0.95. 4. 0,9025. 3,8. 3,61. 49. 25,35. 17,1225.
равно числу сочетаний из n по k. Серии между собой, очевидно, s2=0,34944-0,517352= 0,081791 S2=49 s2 /48=0,083495.
несовместны, так как отличаются положением хотя бы одного 97Выборочные мода, медиана, квантили. Выборочные мода, медиана
успеха. Следовательно, вероятность суммы равна сумме и квантиль легко определяются по упорядоченной, но не
вероятностей: сгруппированной выборке. Медиана – середина вариационного ряда.
29Пример. Подбрасываем 10 раз кубик. Какова вероятность, что Справа и слева располагается одинаковое число значений выборки.
пятерка выпадет ровно 4 раза? Решение. Схема испытаний Бернулли. Мода– наиболее часто встречающееся значение выборки. Квантиль –
p=1/6, q=1-1/6=5/6. левее должно располагаться кол-во значений, соответствующее
30Задача 2. Какова вероятность, что число успехов будет от k1 индексу квантили. Например, для квантили x0.8 Левее должно
до k2? Очевидно, что цепочки с числом успехов k1, k1+1,…,k2 располагаться 80% значений выборки. В нашем примере: мода=0.85,
представляют собой несовместные события. Но тогда вероятность медиана= 0,4451, x0..8= 0,8287 – левее должно располагаться
суммы равна сумме вероятностей и. Пример. Какова вероятность, 49*0.8=39.2 39 значений выборки.
что из 10 бросаний монеты орел выпадет от 4 до 6 раз? Решение. 98Интервальные оценки. Интервальная оценка – некоторый
Очевидно, что события выпал орел 4 раза, 5 раз, 6 раз интервал [a,b]. По заданной выборке мы должны найти
несовместны. Следовательно, вероятность суммы равна сумме a(x1,x2,…,xn) и b(x1,x2,…,xn) такие, чтобы накрывали неизвестное
вероятностей: значение параметра J с заданной вероятностью g – уровнем
31Локальная теорема Лапласа Если вероятность p появления значимости. Уровень значимости выбирается в зависимости от
события A в каждом испытании постоянна и отлична от нуля и необходимой точности решения задачи. Обычно 0.9 – 0.99.
единицы, то вероятность того, что событие А появится в n Считается 0.9 – средняя точность, 0.99 – высокая, 0.999 – очень
испытаниях ровно k раз, приближенно равна. Где. высокая. Часто доверительный интервал строится симметричным
32Интегральная теорема Лапласа. Если вероятность p появления относительно точечной оценки. В дальнейшем будем предполагать,
события A в каждом испытании постоянна и отлична от нуля и что выборка {x1,x2,…,xn} получена из нормально распределенной
единицы, то вероятность того, что событие А появится в n генеральной совокупности: xi~N(m,s) и при различных условиях
испытаниях от k1 до k2 раз, приближенно равна. Где. требуется найти доверительные интервалы для параметров m и s2.
33Для вычислений по формуле имеются таблицы. В таблицах 99Доверительный интервал математического ожидания. Случай 1.
приведены значения функции. для положительных значений Считаем, что известна дисперсия генеральной совокупности s2.
аргумента. Значения для отрицательных значений аргумента 100
вычисляются по формуле. На рисунке приведены графики функций 101
Ф(x) (черным цветом) и подынтегральной функции (красным цветом). 102Распределение. Пусть x1,x2, . . .,xk независимые случайные
34Если -x1=x2=x, то справедлива формула. величины, распределенные по стандартному нормальному закону
35Пример 1. Какова вероятность, что из 100 подбрасываний x1,x2, . . .,xk~N(0,1). Говорят, что сумма квадратов этих
кубика четверка выпадет ровно 30 раз. n=100, m=30, p=1/6, величин распределена по закону c2 с k степенями свободы.
q=1-1/6=5/6. Обозначают c2~ x1,x2, . . .,xk . Запись x~ c2(k) означает, что
36Пример 2. Какова вероятность, что из 100 подбрасываний случайная величина x распределена по закону c2(k) с k степенями
кубика 4 выпадет от m1=15 до m2=25 раз. свободы.
37Задача 3 . Сколько раз нужно подбросить кубик, чтобы частота 103Свойства распределения c2 . Случайная величина имеет нулевую
отличалась от вероятности не более чем на 0.005 с вероятностью плотность распределения при x?0. При большом числе степеней
0.9? Решение. Основная формула. Роль x1, x2 теоремы Лапласа свободы k распределение c2(k) близко к нормальному.
играют. Из теоремы Лапласа. Математическое ожидание случайной величины, распределенной по
38Подставив числа, получим уравнение относительно n. По закону k степенями свободы, равно k: M c2(k)=k.
таблице ищем значение аргумента функции Лапласа такое, что ее 104Доверительный интервал для дисперсии.
значение равно 0.95. Это 1.65. Отсюда находим n. n=15125. 105
39Конечная случайная величина. Часто исход случайного 106Распределение Стьюдента. На рисунке красным выделено
эксперимента выражается некоторым числом. Когда каждому нормальное распределение, черным – распределение Стьюдента.
элементарному исходу случайного эксперимента мы ставим в 107Свойства распределения Стьюдента. Распределение Стьюдента
соответствие некоторое число xk, то мы определяем на множестве симметрично, причем Mt(k) = 0. При больших k распределение
событий некоторую числовую функцию. Набор чисел может быть Стьюдента близко к стандартному нормальному распределению
конечным или бесконечным: это зависит от количества элементарных N(0,1).
исходов эксперимента. Неформально говоря, такое число, 108Доверительный интервал математического ожидания. Случай 2.
принимающее случайные значения, и называется случайной Случайная величина U распределена по нормальному закону.
величиной. Например. Подбрасываем монетку. Поставим в 109Пример. m=0.51735, s=0,288955, n=49. После вычислений
соответствие «орлу» - 1 , «решке» - 0. Можно наоборот: «орлу» - получим 0,0809074. Интервал будет 0.51735- 0,0809074<m<
0 , «решке» - 1. А можно симметрично: «орлу» - -1 , «решке» - 1. 0.51735+ 0,0809074 0,4364426<m<0,5982574.
Каждой грани кубика ставим в соответствие число очков, которое 110Пример. Интервал для дисперсии. Находим интервал
нарисовано на грани. Картам, в зависимости от игры назначают то 0,056131<s2<0,09353. После вычислений получим 0.51735-
или иное число очков. 0,082992 <m< 0.51735+ 0,082992 0,434358<m<0,600342.
40Случайная величина, принимающая конечное число значений, 111Основы теории проверки статистических гипотез.
называется конечной случайной величиной. Пусть пространство Статистической гипотезой называется предположение относительно
элементарных исходов конечно: W={w1,w2,...,wn }. Вероятность P параметров или вида распределения наблюдаемой случайной величины
любого случайного события, связанного с данным экспериментом, . Гипотеза называется простой, если она однозначно определяет
полностью определяется набором неотрицательных чисел pi=P(wi) , распределение генеральной совокупности. В противном случае
i=1,2,…,n, таких, что p1+p2+…+pn=1. гипотеза называется сложной. Гипотезы о параметрах
41Такое вероятностное пространство можно представить с помощью распределения. Эти гипотезы представляют собой предположение о
таблицы. Функцию x(w), заданную на конечном числе аргументов, значении некоторых параметров распределения генеральной
также задаем табличным способом: Будем предполагать, что все совокупности. 2. Гипотезы о виде распределения. Эти гипотезы
числа xk различны. Случайная величина принимает значение xk , более о6щего характера выдвигаются в условиях недостаточной
если произошел исход wk, вероятность которого равна pk Точнее: информации о генеральной совокупности. Проверяемая гипотеза
вероятность события {x(wk)=xk} равна pk Конечная случайная называется нулевой гипотезой и обычно обозначается H0. Наряду с
величина полностью определяется своими значениями и их H0 рассматривают альтернативную (конкурирующую) гипотезу H1.
вероятностями. 112Например: выдвигается гипотеза о значении математического
42Поэтому таблица. часто отождествляется с самой случайной ожидания H0 : m=a Возможные альтернативные H1: m?a, m>a,
величиной и называется законом распределения конечной случайной m<a, m=b, b?a Гипотеза m=a, s2= b – сложная гипотеза. Можно
величины. Часто закон распределения записывают короче. Например: выдвигать и другие гипотезы.
поставим в соответствие выпаданию орла 1, а решке –1. Можно 113Общая схема проверки гипотез. Формирование решающего правила
иначе: орлу –0, решке 1. Возможны иные варианты. опирается на ту же идею, которая используется при построении
43Совместное распределение случайных величин. Пусть заданы две доверительных интервалов. Ищется случайная величина (так
конечные случайные величины: Событие {x=xi}{h=yj} состоит в том, называемая статистика критерия), удовлетворяющая двум основным
что одновременно случайная величина x принимает значение xi , а требованиям: 1) ее значение можно посчитать, используя только
случайная величина h – значение yj . Назовем вероятности таких выборку; 2) ее распределение известно в предположении, что
событий совместными вероятностями и обозначим их через pij: нулевая гипотеза верна. После того, как такая статистика
44x1. x2. xm. y1. p11. p12. p1m. q1. y2. p21. p22. p2m. q2. выбрана, на числовой оси выделяется область, попадание в которую
yn. pn1. pn2. pnm. qn. p1. p2. pm. 1. Таблица совместного для этой случайной величины маловероятно (критическая область).
распределения случайных величин. Малая вероятность задается числом a (уровнем значимости).
45Две конечные случайные величины называются независимыми, Основной принцип проверки гипотез состоит в следующем.
если события {x=xi} и {h=yj} независимы при всех i=1,2,. . .,m и Маловероятное событие считается невозможным. Событие с большой
j=1,2, .., n . В противном случае случайные величины зависимы. вероятностью считается достоверным.
Для независимых случайных величин совместное распределение 114Построение решающего правила на основе критерия значимости
строится по известным распределениям величин x и h: Пусть заданы можно разбить на следующие основные шаги. 1. Сформировать
две конечные случайные величины: нулевую H0 и альтернативную H1 гипотезы. 2. Назначить уровень
46Их суммой называется случайная величина x + h , значениями значимости a . 3. Выбрать статистику Z критерия для проверки
которой являются всевозможные суммы. С совместными гипотезы H0 . 4. Найти плотность распределения статистики
вероятностями. Произведением этих случайных величин называется fz(x)=fz(x|H0) критерия в предположении, что гипотеза H0 верна.
случайная величина x h, значениями которой являются всевозможные 5. Определить на числовой оси критическую область Vc из условия
произведения xiyj с теми же вероятностями pij . Пусть заданы две P(Z? Vc| H0)= a (условная вероятность того, что Z попадает в
конечные независимые случайные величины: Такие случайные область Vc, при условии, что гипотеза H0 верна). Область R\Vc в
величины называются биномиальными. Вычислим закон распределения этом случае называется областью принятия решения. Условия,
x + h. Возможные значения суммы: 0- принимается с вероятностью задающие критическую область, называются просто критерием. 6. По
q2, значение 1 – принимает в двух случаях с вероятностями pq и выборке вычислить выборочное значение Zs статистики критерия.
значение 2 – с вероятностью p2. 1157. Принять решение: • если Zs?Vc , гипотеза H0 отклоняется
47В результате получим таблицу. Этот результат можно обобщить (то есть принимается гипотеза H1): • если Zs?R\Vc, гипотеза H0
на любое число слагаемых. Теорема. Пусть x1, x2, . . . , xn не отклоняется. Принятое решение носит вероятностный, случайный
независимые бернулливые случайные величины. Тогда их сумма есть характер. Поэтому обычно применяют более осторожные
биномиальная случайная величина. Иная трактовка: если xk – число формулировки. Вместо того чтобы сказать “гипотеза отклоняется,
успехов в k-ом испытании, то число успехов в n испытаниях есть говорят: "данные эксперимента не подтверждают гипотезу “,
их сумма. “гипотеза не согласуется с экспериментом” Значение уровня
48Математическое ожидание. Математическим ожиданием конечной значимости не определяет критическую область однозначно.
случайной величины. Называется число. Понятие математического 116Пример: проверка гипотезы о математическом ожидании.
ожидания упрощенно можно представить иначе. Пусть z1, z2, z3,…, 117Пример 2. Иной вариант альтернативной гипотезы.
zk - результаты некоторого испытания, описываемого случайной 118Ошибки при проверке статистических гипотез. Принятие решения
величиной x. Среднее значение случайной величины за большое на основе статистического критерия носит случайный характер.
число k испытаний будет. Возможны следующие ситуации. Гипотеза верна H0, и она не
49Среди этих значений соберем все равные x1, x2,…. В отвергается. Гипотеза H0 верна, но она отвергается. В этом
результате получится. Но отношение есть частота появления случае говорят, что допущена ошибка I рода. Поскольку нулевая
значения xj. А частота при большом числе опытов близка к гипотеза верна, статистика Z действительно имеет то
вероятности. В итоге получаем формулу из определения. Например, распределение, на основании которого принималось решение. Тем не
при бросании кубика вероятность выпадения каждой грани равна менее выборочное значение статистики попало в критическую
1/6. Тогда математическое ожидание числа очков равно. область. Вероятность этого события по определению равна уровню
50Математическое ожидание обладает следующими свойствами. 1. значимости a. Вероятность ошибки I рода равна уровню значимости
Математическое ожидание постоянной равно ей самой: 4. критерия. (это риск производителя) 3. Гипотеза H0 неверна, и она
Математическое ожидание суммы (разности) случайных величин равно отвергается. 4. Гипотеза H0 неверна, но она не отвергается.
сумме (разности) их математических ожиданий: 2. Если случайная Тогда говорят, что допущена ошибка II рода. (это риск
величина принимает только неотрицательные значения, то. 3. потребителя).
Константу можно выносить за знак математического ожидания: 119В этой ситуации выборочное значение попало в область
51Операция вычитания математического ожидания из случайной принятия решения, тогда как гипотеза на самом деле неверна. Если
величины называется центрированием. 5. Для любой случайной распределение статистики Z известно и в предположении, что верна
величины справедливо равенство. 6. Математическое ожидание альтернативная гипотеза H1 , то можно посчитать вероятность
произведения независимых случайных величин равно произведению их ошибки II рода: это условная вероятность того, что Z попадает в
математических ожиданий. Математическое ожидание биномиальной область R\Vc при условии, что верна гипотеза H1 . Вероятность
случайной величины. Числовое значение величины – кол-во успехов ошибки II рода обычно обозначают через b. Для оценки вероятности
в серии испытаний. Одно испытание можно рассматривать как серию ошибки второго рода нужно знать функцию распределения в
из одного испытания. Назначим успеху числовое значение 1, а предположении, что альтернативная гипотеза верна.
неуспеху – 0. Следовательно, математическое ожидание в одном 120Проверка гипотезы о функции распределения.
опыте равно p. Представим серию опытов как сумму отдельных 121Понятие о факторном анализе. Пусть результаты наблюдений
испытаний. Тогда по свойству математического ожидания M=np. составляют k независимых выборок (групп), полученных из k
52Дисперсия. По определению математического ожидания, нормально распределенных генеральных совокупностей, которые
дисперсия вычисляется по следующей формуле. Дисперсией конечной имеют, вообще говоря, различные средние m1,m2,…,mk . Каждая
случайной величины x называется число. Называется группа содержит nj значений, j=1,2,…,k . Общее число наблюдений
среднеквадратичным отклонением или стандартным отклонением равно n: n1+n2+…nk=n Проверяется гипотеза о равенстве средних во
случайной величины. всех k выборках: H0: m1=m2=…=mk Нулевая гипотеза является
53Свойства дисперсии. Дисперсия любой случайной величины сложной: предполагается лишь, что математические ожидания
неотрицательна Dx>0 При этом Dx=0 тогда и только тогда, когда совпадают. Альтернативная гипотеза состоит в том, что хотя бы
случайная величина постоянна. 2. Константа выносится из-под две выборки имеют различные средние. Обозначим через xij i-й
знака дисперсии с квадратом. 3. Сдвиг на константу не меняет элемент j-й выборки, i=1,2,…,nj , j=1,2,…,k .
дисперсии: 4. Дисперсия суммы независимых случайных величин 122
равна сумме их дисперсий: (X и h независимы ). 123Пример. Даны две выборки {1.5, 2.5, 2., 1.7, 2.25} и {2.,
545. Дисперсия равна "среднему квадрата минус квадрат 1.8, 2.2, 2.5, 1.7, 1.6} Выборочное среднее для первой 1.99, для
среднего": Дисперсия биномиальной случайной величины. второй 1.96667. Значимо ли различие? Оценки дисперсии S1=0.163,
Вычисление проведем по той же схеме, что и для математического S2=0.114667 Генеральное среднее 1.97727, генеральная дисперсия
ожидания. Биномиальная случайная величина есть сумма n 0.122682.
независимых бернуллиевых величин. Но тогда используем формулу
«Основы математической статистики» | Основы математической статистики.ppt
http://900igr.net/kartinki/algebra/Osnovy-matematicheskoj-statistiki/Osnovy-matematicheskoj-statistiki.html
cсылка на страницу

Статистика

другие презентации о статистике

«Статистическое исследование» - Статистика — это прежде всего способ мышления. Нужна ли тебе помощь при выполнении домашнего задания по математике. Какой школьный предмет самый трудный в изучении. Сбор данных. Цель исследования. Статистика знает все. Виды статестического наблюдения. Задачи. Средним арифметическим ряда чисел называется частное.

«Элементы математической статистики» - Точность и надежность. Нормальное распределение. Точечные оценки. Детали изготавливаются на разных станках. Закон распределения. Наука. Генеральная совокупность. Уровень значимости. Проверка гипотезы. Коэффициент корреляции. Корреляционная зависимость. Статистические оценки. Правила проверки. Значение критерия.

«Теория вероятности и статистика» - Интегральная теорема Муавра – Лапласа. Константы распределения. Требования, предъявляемые к точечным оценкам. Область принятия нулевой гипотезы. Совокупность значений критерия. Гистограмма. Формула. Связь номинальных признаков. Параметр. Два типа случайных величин. Среднее арифметическое. Пример графика функции распределения.

«Вероятность и математическая статистика» - 5 конфет. Плюшка. Описательная статистика. Составим таблицу. Сравнение учебных программ. Примеры рассеянных диаграмм. Ручки четырех цветов. Правило умножения. Яблоко. Урезанное среднее. Карамель. Перестановка. Определения. Зимние каникулы. 9 разных книг. Какая диаграмма лучше. Белые и красные розы. Точность полученных значений.

«Основы математической статистики» - Распределение Гаусса. Точечная оценка дисперсии. Среднее квадратичное отклонение. Шкалы измерений. Дисперсия биномиальной случайной величины. Основная формула. Дисперсия вычисляется через интеграл. Общая схема проверки гипотез. Интервал для дисперсии. Алгебра событий. Дисперсией конечной случайной величины x называется число.

«Основные статистические характеристики» - Медиана ряда. Размах ряда. Основные статистические характеристики. Мода ряда. Среднее арифметическое ряда чисел. Медиана. Петроний. Найдите среднее арифметическое. Размах. Школьные тетради. Статистика.

Урок

Алгебра

34 темы
Картинки
Презентация: Основы математической статистики | Тема: Статистика | Урок: Алгебра | Вид: Картинки
900igr.net > Презентации по алгебре > Статистика > Основы математической статистики.ppt