Статистика Скачать
презентацию
<<  Мода чисел Основы математической статистики  >>
Теория вероятностей и математическая статистика
Теория вероятностей и математическая статистика
Ломоносов
Ломоносов
Повесьте ваши уши на гвоздь внимания
Повесьте ваши уши на гвоздь внимания
Повесьте ваши уши на гвоздь внимания
Повесьте ваши уши на гвоздь внимания
Теория вероятностей
Теория вероятностей
Примеры неслучайных событий
Примеры неслучайных событий
Случайный эксперимент
Случайный эксперимент
Некоторые из случайных событий можно разбить на более простые события
Некоторые из случайных событий можно разбить на более простые события
Классификация случайных событий
Классификация случайных событий
Действия над событиями
Действия над событиями
Действия над событиями
Действия над событиями
Обобщение
Обобщение
Вероятность случайного события
Вероятность случайного события
Эксперимент можно повторять многократно
Эксперимент можно повторять многократно
Геометрическая вероятность
Геометрическая вероятность
Элементы комбинаторики
Элементы комбинаторики
Комбинации, состоящие из n различных элементов
Комбинации, состоящие из n различных элементов
Урновая модель
Урновая модель
Урновая модель
Урновая модель
Условная вероятность
Условная вероятность
Основные теоремы теории вероятностей
Основные теоремы теории вероятностей
Формула
Формула
Теорема умножения вероятностей
Теорема умножения вероятностей
Формула полной вероятности
Формула полной вероятности
Формула Байеса
Формула Байеса
N повторных независимых испытаний
N повторных независимых испытаний
Вывод формулы Бернулли
Вывод формулы Бернулли
Число успехов
Число успехов
Случайная величина
Случайная величина
Два типа случайных величин
Два типа случайных величин
Пример графика функции распределения
Пример графика функции распределения
График функции распределения
График функции распределения
Свойства плотности вероятности
Свойства плотности вероятности
Числовые характеристики случайной величины
Числовые характеристики случайной величины
Статистический смысл математического ожидания
Статистический смысл математического ожидания
Математическое ожидание
Математическое ожидание
Центр распределения случайной величины
Центр распределения случайной величины
Формула, удобная для вычислений дисперсии
Формула, удобная для вычислений дисперсии
Статистический смысл дисперсии
Статистический смысл дисперсии
Среднее квадратическое отклонение
Среднее квадратическое отклонение
Константы распределения
Константы распределения
Законы распределения случайных величин
Законы распределения случайных величин
Параметр
Параметр
Интегральная теорема Муавра – Лапласа
Интегральная теорема Муавра – Лапласа
Непрерывные случайные величины
Непрерывные случайные величины
Непрерывная СВ
Непрерывная СВ
Количество событий
Количество событий
Поток событий
Поток событий
Площадь под кривой
Площадь под кривой
Распределение нормальной случайной величины
Распределение нормальной случайной величины
Формула для вычисления вероятности
Формула для вычисления вероятности
Устойчивость некоторых законов распределения
Устойчивость некоторых законов распределения
Неравенство Маркова
Неравенство Маркова
Теорема Чебышева
Теорема Чебышева
Формулировка ЗБЧ
Формулировка ЗБЧ
Следствия из теоремы Чебышева
Следствия из теоремы Чебышева
Теорема Бернулли
Теорема Бернулли
Зависимые случайные величины
Зависимые случайные величины
Смысл и формулировка центральной предельной теоремы
Смысл и формулировка центральной предельной теоремы
Упрощенная математическая формулировка ЦПТ
Упрощенная математическая формулировка ЦПТ
Многомерная случайная величина
Многомерная случайная величина
Вероятность совместного выполнения неравенств
Вероятность совместного выполнения неравенств
Функция совместного распределения
Функция совместного распределения
Независимы события
Независимы события
Стохастическая зависимость двух случайных величин
Стохастическая зависимость двух случайных величин
Свойства ковариации
Свойства ковариации
Определение
Определение
Линейный коэффициент корреляции Пирсона
Линейный коэффициент корреляции Пирсона
Коэффициент корреляции
Коэффициент корреляции
Среднее арифметическое рангов
Среднее арифметическое рангов
Элементы математической статистики
Элементы математической статистики
Объем ГС и объем выборки
Объем ГС и объем выборки
Случайность отбора элементов в выборку
Случайность отбора элементов в выборку
Теория вероятности и статистика
Теория вероятности и статистика
Значения
Значения
Интервалы вариантов
Интервалы вариантов
Признак в ГС
Признак в ГС
Приёмы изображения набора данных
Приёмы изображения набора данных
Гистограмма
Гистограмма
Относительная частота
Относительная частота
Вариационные ряды
Вариационные ряды
Медиана
Медиана
Мода
Мода
Формула для вычисления дисперсии
Формула для вычисления дисперсии
Выборочная дисперсия
Выборочная дисперсия
Точечные оценки параметров
Точечные оценки параметров
Требования, предъявляемые к точечным оценкам
Требования, предъявляемые к точечным оценкам
Состоятельность
Состоятельность
Среднее арифметическое
Среднее арифметическое
Оценка
Оценка
Методы получения точечных оценок параметров
Методы получения точечных оценок параметров
Функция правдоподобия
Функция правдоподобия
Оценка параметра
Оценка параметра
Фиксированные числа
Фиксированные числа
Метод наибольшего правдоподобия
Метод наибольшего правдоподобия
Дополнительные распределения
Дополнительные распределения
Распределение
Распределение
Границы интервала
Границы интервала
Точность оценки
Точность оценки
Интервальная оценка математического ожидания
Интервальная оценка математического ожидания
Критические точки распределения
Критические точки распределения
Замечание
Замечание
Интервальная оценка
Интервальная оценка
Границы красных зон
Границы красных зон
Интервальная оценка истинного значения
Интервальная оценка истинного значения
Теория вероятности и статистика
Теория вероятности и статистика
Случай больших выборок
Случай больших выборок
Случай выборок малого объема
Случай выборок малого объема
Понятие статистической гипотезы
Понятие статистической гипотезы
Совокупность значений критерия
Совокупность значений критерия
Процедура проверки простой параметрической гипотезы
Процедура проверки простой параметрической гипотезы
Вероятность попадания
Вероятность попадания
Наблюдаемое значение критерия
Наблюдаемое значение критерия
Н1: ? >
Н1: ? >
Дисперсия ГС
Дисперсия ГС
При конкурирующей гипотезе
При конкурирующей гипотезе
Вычисленное на основе экспериментальных данных значение
Вычисленное на основе экспериментальных данных значение
Отвергаем нулевую гипотезу
Отвергаем нулевую гипотезу
Дисперсия ГС неизвестна
Дисперсия ГС неизвестна
Область принятия нулевой гипотезы
Область принятия нулевой гипотезы
Проверка гипотезы о числовом значении вероятности
Проверка гипотезы о числовом значении вероятности
Проверка гипотезы о равенстве математических ожиданий
Проверка гипотезы о равенстве математических ожиданий
Критические области
Критические области
Проверка гипотезы
Проверка гипотезы
Сформулируем задачу
Сформулируем задачу
В качестве критерия используется случайная величина
В качестве критерия используется случайная величина
Проверка гипотезы о значимости выборочного коэффициента
Проверка гипотезы о значимости выборочного коэффициента
Всегда проверяется нулевая гипотеза
Всегда проверяется нулевая гипотеза
Используется случайная величина
Используется случайная величина
Проверка гипотезы о значимости выборочного коэффициента корреляции
Проверка гипотезы о значимости выборочного коэффициента корреляции
Если объем выборки совсем маленький
Если объем выборки совсем маленький
Критерий знаков
Критерий знаков
Две выборки одинакового объема
Две выборки одинакового объема
Дискретная случайная величина
Дискретная случайная величина
Алгоритм реализации критерия знаков
Алгоритм реализации критерия знаков
Критические области для значений критерия
Критические области для значений критерия
Вычисление критерия
Вычисление критерия
Шкалы измерений признаков
Шкалы измерений признаков
Связь номинальных признаков
Связь номинальных признаков
Возникла таблица
Возникла таблица
Обозначения
Обозначения
Величины называются ожидаемыми или теоретическими частотами
Величины называются ожидаемыми или теоретическими частотами
Наблюдаемые Н и теоретические частоты
Наблюдаемые Н и теоретические частоты
Теорема
Теорема
Выполнение следующего ограничения
Выполнение следующего ограничения
Правосторонняя критическая область
Правосторонняя критическая область
Коэффициенты для вычисления тесноты связи
Коэффициенты для вычисления тесноты связи
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Благодарю за внимание
Картинки из презентации «Теория вероятности и статистика» к уроку алгебры на тему «Статистика»

Автор: Ирина Недосекина. Чтобы познакомиться с картинкой полного размера, нажмите на её эскиз. Чтобы можно было использовать все картинки для урока алгебры, скачайте бесплатно презентацию «Теория вероятности и статистика.ppt» со всеми картинками в zip-архиве размером 2361 КБ.

Скачать презентацию

Теория вероятности и статистика

содержание презентации «Теория вероятности и статистика.ppt»
Сл Текст Сл Текст
1Название дисциплины: Теория вероятностей и математическая 77относительная частота того, что случайная величина принимает
статистика. Очень краткое содержание курса лекций для факультета значение меньше заданного: Fn(x) = W(X<x) = Wxнак Для
менеджмента Автор Дружининская И.М. графического изображения эмпирической функции распределения
2М. В . Ломоносов: «Математику уже затем учить следует, что служит кумулята. Строим ее, соединяя точки (xi , Wiнак ).
она ум в порядок приводит». Давид Гильберт: «Математика – основа 78Следует дополнить вариационные ряды и их графическое
всего точного естествознания». Теория вероятностей (ТВ) и изображение некоторыми сводными характеристиками вариационных
математическая статистика (МС) – это ветви математики. рядов. Эти обобщающие показатели в компактном виде характеризуют
3Повесьте ваши уши на гвоздь внимания !!!!!! всю выборку (вариационный ряд) в целом. К таким обобщающим
4Раздел 1. Теория вероятностей Введение. Теория вероятностей показателям относят: Характеристики центральной тенденции - это
– это математическая наука, изучающая закономерности случайных средние величины, определяющие значения признака, вокруг
событий. Математическая статистика – это наука об обработке которого концентрируются все его наблюдаемые значения;
больших массивов информации и получении практически значимых Характеристики вариации (изменчивости) – это величины,
выводов на основе этой обработки. Случайные события – это определяющие колебания наблюдаемых значений признака. В качестве
события (явления), которые могут произойти, а могут и не основной характеристики центральной тенденции чаще всего
произойти. используют среднее арифметическое, вычисленной на основе
5Примеры неслучайных событий: рождение – смерть, прилив – выборки. Помимо этой величины используют моду и медиану.
отлив, восход и закат солнца. Становление теории вероятностей 79Определение: Медиана – это значение признака, приходящееся
относится к эпохе Возрождения в Италии (15 век): итальянец на середину ранжированного ряда наблюдений. Иначе: это то
Кардано (16 век) – «Книга об игре в кости»; Галилео Галилей значение варианта, которое делит вариационный ряд на две равные
(1564-1642) – «О выходе очков при игре в кости». Считается, что по объему части. Обозначение: Теоретическое MeX; Статистическое
теория вероятностей зародилась как наука в переписке двух ученых Если число вариант нечетное, т.е. n=2m+1 , то Если число вариант
Б. Паскаля (1623г.-1662г.) и П. Ферма (1601г.-1665г.); Якоб четное, т.е. n=2m , то.
Бернулли, который в 1713г. выпустил книгу «Искусство 80Определение: Модой называется значение признака, наиболее
предположений»; Колмогоров Андрей Николаевич (1903г.-1987г.) - часто встречающееся в выборке. Иначе: Мода - то значение
год 1933 – аксиоматическое построение теории вероятностей.. варианта, которому соответствует наибольшая частота.
6§ 1. Случайный эксперимент. Элементарные исходы случайного Обозначение: Теоретическое MоX; Статистическое. Нам важно знать
эксперимента. Случайное событие. Реализация случайного события не только средние значения вариантов, но и отличие значений
возможна в ходе случайного эксперимента (иначе: случайного вариантов от среднего значения. Для отражения изменчивости
опыта). Например, нас интересует событие «Выпадение герба при (вариации) значений признака вводят различные показатели
бросании монеты». Но для возможности возникновения этого события вариации ряда. Простейшим и весьма приближенным показателем
следует произвести опыт, состоящий в бросании монеты. вариации является размах выборки R = xmax - xmin .
Совокупность всех условий, при которых возможна реализация 81При вычислении выборочной (или эмпирической) дисперсии
случайного события, носит название случайного эксперимента или формулу несколько меняют. Из некоторых соображений, которые пока
случайного опыта. События обозначаем заглавными латинскими для нас с вами скрыты, в знаменателе этой формулы ставят не n, а
буквами: А, В, С, D,… n-1, и возникает другая формула для вычисления дисперсии,
7Некоторые из случайных событий можно разбить на более которую запишем ниже; величину, вычисленную по этой формуле
простые события. Те события, которые нельзя разбить на другие называют «исправленная выборочная дисперсия». Определение.
более простые события, называются элементарными событиями или Выборочной дисперсией вариационного ряда называется среднее
элементарными исходами случайного эксперимента. Совокупность арифметическое квадратов отклонений вариантов от их среднего
всех элементарных исходов эксперимента носит название «множество арифметического:
(или пространство) всех элементарных исходов случайного 82Будем всегда выборочную дисперсию вычислять по второй
эксперимента». Обозначение: ? = { ?1, ?2, … , ?n} Мы будем формулу, называя ее просто «выборочная дисперсия». Ясно, что при
рассматривать задачи с элементарными исходами, которые являются большом объеме выборки разница между двумя приведенными
равновозможными. Не всегда число элементарных исходов конечно, формулами стирается. Для меры вариации, выраженной в тех же
т. е. ? может состоять из бесконечного числа исходов. Те единицах измерения, что и значение признака, вычисляют
элементарные исходы, при которых реализуется событие А, выборочное стандартное отклонение: Для сравнения вариаций разных
называются элементарными исходами, благоприятствующими по природе переменных используется относительный показатель
наступлению событию А или просто благоприятными исходами. вариации: Эта величина характеризует, насколько сильно элементы
8§ 2. Классификация случайных событий. Достоверное событие – в выборке и, следовательно, в ГС отличаются друг от друга.
это событие, которое обязательно произойдёт в данном случайном 83§ 2. Точечные оценки параметров генеральной совокупности.
эксперименте. Обозначается символом ? (поскольку включает все Поставим задачу в общем виде – задачу отыскания хороших
возможные элементарные исходы такого случайного эксперимента). (доброкачественных) приближений параметров известных
Невозможное событие – такое событие, которое никогда не распределений на основе выборки из ГС. Пусть x1, x2, …, xn -
произойдёт в данном случайном эксперименте. Противоположное выборка объема n из ГС. Будем рассматривать эту выборку как
событие - это событие, состоящее в ненаступлении события А. систему СВ X1, X2, …, Xn , которая в данном конкретном
События удобно изображать, используя множество точек на исследовании приняла именно этот набор числовых значений x1, x2,
плоскости. Для этого используются диаграммы Эйлера - Венна …, xn . Определение: Точечной оценкой неизвестного параметра ?
(иногда – диаграммы Венна). События А и В называются теоретического закона распределения называют всякую функцию
несовместными, если они не могут произойти одновременно в одном результатов наблюдений над СВ X, значение которой принимают в
и том же случайном эксперименте. События А и В называются качестве приближённых значений параметра ? :
совместными, если они могут произойти одновременно в одном и том 84Требования, предъявляемые к точечным оценкам (Иногда говорят
же случайном эксперименте. : свойства точечных оценок): Несмещённость. Оценка параметра ?
9§3. Действия над событиями (исчисление событий). называется несмещённой, если её математическое ожидание равно
Объединением двух событий AUB или суммой двух событий (A+B) оцениваемому параметру: 2. Эффективность. Оценка параметра ?
называется новое событие, которое заключается в наступлении хотя называется эффективной, если она имеет наименьшую дисперсию
бы одного из событий A или B (наступает либо событие A, либо среди всех оценок параметра по выборкам одного и того же объема:
событие B, либо то и другое одновременно). Обобщение: 853. Состоятельность. Оценка параметра ? называется
Объединением нескольких событий называется событие, состоящее в состоятельной, если она удовлетворяет ЗБЧ: В последнее время
одновременном наступлении хотя бы одного из данных событий. стали добавлять еще одно требование к оценкам. 4. Устойчивость.
Пересечением двух событий А?В (или АВ) называется новое событие, Смысл этого свойства в том, что при небольших флуктуациях в
состоящее в одновременном наступлении этих двух событий. исходной информации значение оценки не должно существенным
10Обобщение: Пересечением нескольких событий называется новое образом меняться. На практике не всегда удается удовлетворить
событие, состоящее в одновременном наступлении всех этих всем требованиям одновременно. Может оказаться, что для простоты
событий. Рассмотрены свойства операций объединения и пересечения расчетов целесообразно использовать незначительно смещенные
событий, которые частично совпадают со свойствами операций оценки или же оценки, обладающие несколько большей дисперсией по
сложения и умножения чисел, но не всегда. На основе этих свойств сравнению с эффективными оценками.
в дальнейшем из простых случайных событий формируются более 86Показано, что среднее арифметическое, вычисленное на основе
сложные случайные события. выборки и являющееся точечной оценкой генерального среднего
11§ 4. Вероятность случайного события. Ведем численную меру (истинного значения параметра), обладает свойствами 1-4,
возможности реализации случайного события. Примем Р(?)=1; присущими хорошей оценке. Показано также, что выборочная доля
Р(?)=0. Все прочие возможные значения вероятности лежат между w=k/n (иначе: относительная частота появления признака в
этими крайними значениями: 0?Р(А) ?1. Два подхода к определению выборке) является несмещенной и состоятельной оценкой
вероятности случайного события: А) Классический Р(А)=N A / N , генеральной доли WГ=K/N. Заметим, что выборочную долю можно
где N A - количество благоприятных исходов, т.е. тех исходов, в трактовать как оценку вероятности в биномиальном законе
результате которого наступает событие А, N - общее количество распределения. Показано, что выборочная дисперсия, вычисляемая
элементарных исходов случайного эксперимента. по формуле , дает несмещенную оценку генеральной дисперсии.
12n a / n. Б) Статистический: Применим тогда, когда 87Аналогично, несмещенной точечной оценкой ковариации cov(X,Y)
эксперимент можно повторять многократно в неизменных условиях. является такая оценка: В формулах для S2 и KXY возникает новый
Пусть выполнено большое число экспериментов n и пусть в n a из параметр k=n-1 Он носит название «число степеней свободы».Это
них событие А реализуется, тогда n a / n– относительная частота разность между числом используемых в расчетах отклонений и
возникновения события A. Можно приближенно принять, что Р (A) ? количеством связей между этими отклонениями.
13§ 5. Геометрическая вероятность. Геометрическая вероятность 88§ 3. Методы получения точечных оценок параметров генеральной
позволяет рассматривать случайные события с бесконечным числом совокупности. Основное внимание уделим методу, который наиболее
равновозможных элементарных исходов. Геометрической вероятностью часто применяется для этой цели. 1. Метод наибольшего
события А называется отношение меры области, благоприятствующей (максимального) правдоподобия. это основной метод получения
появлению события А, к мере всей области: оценок параметров ГС на основе выборки. Метод был предложен
14§ 6. Элементы комбинаторики. Пусть имеется набор из n американским статистиком Р. Фишером. Пусть задан известный закон
элементов. Отличающиеся друг от друга порядком наборы, распределения. Ставится задача найти оценку его неизвестного
составленные из всех элементов данного множества, называются параметра или параметров, если в законе распределения их
перестановками этого множества. Обозначение: Комбинаторика – несколько.
раздел дискретной математики, посвященный решению задач выбора и 89Функцией правдоподобия дискретной СВ Х называют функцию
расположения элементов конечного множества в соответствии с аргумента ? (искомого параметра) В качестве точечной оценки
заданными правилами. параметра ? принимают такое его значение , при котором функция
15Размещениями называются комбинации, состоящие из n различных правдоподобия достигает максимума. Оценку называют оценкой
элементов, содержащие k элементов, отличающиеся либо составом наибольшего правдоподобия. Суть подхода заключается в том, чтобы
элементов, либо их порядком (k ?n). Число размещений вычисляется выбрать такое значение оценки параметра, которое обеспечивает
по формуле: Сочетаниями называются комбинации, составленные из n наиболее вероятное появление именно данной выборки. Удобнее
различных элементов, содержащие k элементов, которые отличаются рассматривать не саму функцию L, а lnL.
только составом элементов (k ?n). 90Методом наибольшего правдоподобия найдена оценка параметра ?
16Урновая модель (гипергеометрическое распределение): В урне в законе распределения Пуассона Методом наибольшего
имеется N шаров, из них М - белых шаров, тогда (N-М) – черных правдоподобия найдена оценка вероятности успеха в единичном
шаров. Случайным образом вынули n шаров (n ? N). Какова испытании на основе единственной серии испытаний. Методом
вероятность, что среди вынутых оказалось m белых шаров (m ? M)? наибольшего правдоподобия найдена оценка вероятности успеха в
Рассмотрено также обобщение урновой модели. единичном испытании на основе нескольких серий испытаний
17§7. Условная вероятность. Независимые и зависимые случайные (биномиальный закон распределения).
события. Пусть события А и В происходят на одном и том же 91Функцией правдоподобия непрерывной СВ Х называют функцию
пространстве элементарных исходов. Кроме того, пусть эти события аргумента ? (искомого параметра) Здесь x1, x2, …, xn -
являются совместными, т.е. могут произойти в одном и том же фиксированные числа. Методом наибольшего правдоподобия найдена
случайном эксперименте. Условная вероятность – это вероятность оценка параметра ? показательного з.р. Методом наибольшего
события A при условии, что произошло событие B. Обозначение: правдоподобия найти оценки параметров m и ? нормального з.р.
P(A/B) . Событие A не зависит от события B, если P(A)=P(A/B). 92По поводу метода наибольшего правдоподобия сделаем выводы:
Событие A зависит от события B, если P(A) ? P(A/B). Если A 1. Метод наибольшего правдоподобия дает естественные оценки, не
зависит от B, то и B зависит от A (события А и В – зависимые) . противоречащие здравому смыслу. Усилиями математиков было
Если A не зависит от B, то и B не зависит от A (события А и В – показано, что в целом эти оценки обладают хорошими свойствам. А
независимые) . именно, они являются состоятельными, эффективными, но иногда
18§8. Основные теоремы теории вероятностей. Теорема сложения слабо смещенными. 2. Метод наибольшего правдоподобия имеет два
вероятностей: Для совместных событий вероятность объединения недостатка: 1) иногда сложно решить уравнение или систему
событий определяется формулой: Для несовместных событий уравнений правдоподобия, которые часто бывают нелинейными. 2)
вероятность объединения событий определяется формулой: существенное ограничение метода – необходимо точно знать вид
19Для трех совместных событий справедлива следующая формула: закона распределения, что во многих случаях оказывается
Обобщение формулы на произвольное число совместных событий: невозможным. Существует и другие методы нахождения точечных
20Теорема умножения вероятностей: Для зависимых событий оценок параметров ГС. Это – Метод моментов и Метод наименьших
вероятность пересечения событий определяется формулой : квадратов. Суть его заключается в том, что оценка определяется
Р(А?В)=Р(А)·Р(В/А)= Р(В)·Р(А/В). Следствие: если события А и В – из условия минимизации квадратов отклонений выборочных данных от
независимые, то Р(А?В)=Р(А)·Р(В). Обобщение теоремы умножения определяемой оценки.
вероятностей на случай многих событий: а) Для зависимых событий 93Следует ввести дополнительные распределения и новые таблицы,
: б) Для независимых событий : созданные на основе этих распределений. § 4. Распределения,
21Формула полной вероятности Совокупность событий Н1, Н2,…, Нn связанные с нормальным законом распределения. Распределение ? -
назовём полной группой событий, если они попарно несовместны и квадрат ( ?2 ). ( или распределение Пирсона) Определение: Пусть
их объединение даёт достоверное событие. События Нi называются СВ X1, X2, …, Xk независимые и каждая из них имеет стандартное
гипотезами. Теорема: Имеем полную группу событий Н1, Н2, …, Нn. нормальное распределение (Xi ? N(0;1), i=1, 2,…, n ), тогда
Пусть событие А может происходить одновременно только с одним из случайная величина. ?2 (k) = X12+ X2 2 + …+Xk 2 имеет
этих событий, тогда: распределение хи-квадрат с k степенями свободы. Значения этого
22Формула Байеса. Теорема (получение формулы Байеса): Эта распределения затабулированы.
формула позволяет пересчитывать исходные (априорные) вероятности 942. t -распределение (или распределение Стьюдента)
гипотез после получения сведений о том, что событие А произошло. Определение: Пусть СВ Y, X1, X2, …, Xk независимые и каждая из
В результате получаем уточненные (апостериорные) вероятности них имеет стандартное нормальное распределение (Y, Xi ? N(0;1),
гипотез, т.е. мы корректируем вероятности выдвинутых до i=1, 2,…, k), тогда случайная величина имеет распределение
испытания гипотез при получении новой информации о реализации Стьюдента c k степенями свободы. Значения распределения
события А. затабулированы.
23Пусть в одних тех же условиях проводится n повторных 95Наша задача - научиться отыскивать границы интервала,
независимых испытаний, в каждом из которых с одной и той же который накроет истинное значение искомого параметра. Для этого
вероятностью р может произойти определенной событие или же не будем использовать метод интервального оценивания, который
произойти это событие с вероятностью q = 1- p. Ограничения разработал американский статистик Нейман, исходя из идей
модели: Каждое испытание имеет два исхода (наступление или же статистика Фишера. Этот интервал должен накрывать истинное
ненаступление события). Результат каждого данного испытания не значение параметра ? с большой вероятностью ? = 1-?, где ? -
зависит от результатов предыдущих испытаний. Вероятность велико, а ? - мало; ? называется доверительной вероятностью (а
наступления интересующего нас события не меняется от испытания к также: надежностью, уровнем доверия), ? называется уровнем
испытанию. §9. Повторные независимые испытания (схема Бернулли). значимости. Интервал, который мы будем находить, носит название
24Теорема ( вывод формулы Бернулли): Если вероятность доверительного интервала (иначе: интервальная оценка искомого
наступления события А в каждом испытании равна р , то параметра ГС). § 5. Интервальные оценки параметров генеральной
вероятность того, что событие А в n испытаниях наступит к раз, совокупности.
вычисляется по формуле: 96Величина ? называется «точность оценки» (или: «предельная
25Число успехов К0 (реализаций события А), вероятность ошибка выборки»). Формулы, по которым определяются границы
наступления которого наибольшая по сравнению с вероятностью доверительного интервала, зависят от конкретного оцениваемого
наступления успехов любое другое количество раз, назовем параметра ГС и конкретной ситуации, поэтому возникает
наивероятнейшим числом успехов. Поэтому на практике чаще всего необходимость рассмотреть несколько интересующих нас ситуаций.
реализуется именно такое число успехов (реализаций события А). Ставится задача отыскания такого значения ?, для которого
Теорема: Наивероятнейшее число наступлений события А в n выполнено:
испытаниях заключено между числами : Заметит, что разность между 97Интервальная оценка математического ожидания (или:
(n·p – q) и (n·p + p) равна 1. Число К0 ? n·p. Иногда бывает, генерального среднего) нормально распределенной ГС, если
что К0 (1) = (n·p – q) – целое число, тогда и К0 (2) = (n·p + р) известна дисперсия ?2 для ГС. Пусть изучаемый признак Х в ГС
– целое число. В этом случае имеются два наивероятнейших числа, имеет нормальное распределение с параметрами m и ? независимых
для которых вероятности принимают самые большие и одинаковые СВ. В данной постановке задачи считаем, что ?2 известна
значения: Р (К0 (1) ) = Р (К0 (2) ) . (например, взята из аналогичного предыдущего исследования).
26§10. Случайная величина (СВ) и закон ее распределения Здесь m – тот неизвестный параметр, для которого мы хотим
(з.р.). Случайная величина обозначается заглавной буквой Х (если построить интервальную оценку. Получено следующее выражение для
случайных величин несколько, то вводят У, Z и т.д.); значение, доверительного интервала: (С помощью таблицы функции Ф0 находим
которое принимает случайная величина, обозначается малой буквой по заданному значению ? tкр - квантиль стандартного нормального
х. Пишут Х = х. Это запись означает, что случайная величина з.р. на основе уравнения Ф0(tкр )= ? /2).
приняла некоторое конкретное значение. Случайной величиной 982. Интервальная оценка математического ожидания нормально
называется числовая функция ,заданная на пространстве распределенной ГС, если дисперсия ?2 для ГС неизвестна. Теперь
элементарных исходов случайного эксперимента (т.е. для каждого вместо неизвестной дисперсии будем использовать ее точечную
значения задается определенное значение Х). Следует отметить, оценку – выборочную дисперсию. (С помощью таблица «Критические
что и вероятность является числовой функцией, заданной на точки распределения Стьюдента» по заданным значениям ?
пространстве элементарных исходов случайного эксперимента, т.е. (двусторонняя критическая область) и k=n-1 находим tкр -
27Существует два типа случайных величин – дискретные и квантиль распределения Стьюдента).
непрерывные. Закон распределения случайной величины – это 99Замечание: При n?30 (малые выборки) следует находить tкр на
правило, устанавливающее связь между возможными значениями основе распределения Стьюдента; При n>30 (большие выборки)
случайной величины и соответствующими им вероятностями. Введем следует находить tкр на основе стандартного нормального
универсальный з.р., который подходит как для описания поведения распределения, т.е. на основе функции Лапласа.
дискретной СВ, так и для описания поведения непрерывной СВ. 100Если задана точность оценки ? , то можно найти объем
Функцией распределения случайной величины называют Доказаны выборки, которая обеспечит эту требуемую точность: 3.
свойства функции распределения. Интервальная оценка стандартного отклонения для нормально
28Пример графика функции распределения для дискретной распределенной ГС. Пусть изучаемый признак Х в ГС имеет
случайной величины Х – числа выпадений герба при трехкратном нормальное распределение: X~N(m,?), причем параметры
бросании правильной монеты. распределения неизвестны. Для случая малых объемов выборки
29Если случайная величина такова, что ее функция распределения (n?30):
может быть представлена в виде: (здесь t – переменная 101Очевидно, что значения ?2 кр1 и ?2 кр2 определяются
интегрирования), то мы назовем ее непрерывной случайной неоднозначно при одном и том же значении заштрихованной площади,
величиной. График функции распределения для непрерывной СВ может равной ? . Границы красных зон выбираем так, чтобы вероятности
выглядеть, например, следующим образом: F(x) 1 0 x. попадания в них были бы одинаковыми, равными ?/2 .
30Функцию f(x) используют для описания поведения непрерывных 1024. Интервальная оценка истинного значения вероятности
случайных величин, ибо она полностью содержит всю информацию, биномиального закона распределения (генеральной доли).
которая нужна для анализа поведения непрерывных случайных Рассмотрим два случая: А. Случай умеренно больших выборок (
величин. Вероятность попадания непрерывной случайной величины в n>30 до нескольких сотен, например, до 200). Далее в формуле
заданный числовой промежуток определяется формулой: Доказаны tкр - квантиль стандартного нормального з.р. на основе уравнения
свойства плотности вероятности. Ф0(tкр )= ? /2. Для случая больших объемов выборки (n>30):
31§11. Числовые характеристики случайной величины - 103
математическое ожидание, дисперсия, стандартное отклонение; их 104Б. Случай больших выборок ( порядка сотен и более ;
свойства. Рассмотрим дискретную случайную величину, принимающую например, от 200 и более). Формулы для вычисления границ
некоторые значения на числовой оси: Определение: Математическим доверительного интервала существенно упрощаются при таких
ожиданием дискретной случайной величины (ДСВ) называется. больших объемах выборок. При больших объемах выборок n возникает
32Для случая n? ? ряд должен быть сходящимся. Возникают иногда простая формула для ?, на основе которой при заданном ? можно
ситуации, когда ряд расходится. Тогда случайная величина не вычислить соответствующее n:
имеет математического ожидания. Такие случай мы рассматривать не 105В. Случай выборок малого объема (n?30 ) В этом случае для
будем. Статистический смысл математического ожидания: Вычисляя вычисления Sw используется формула Доверительный интервал
среднее арифметическое всех наблюдаемых значений СВ, получают определяется по формуле предыдущего пункта; tкр находится по
математическое ожидание СВ в практических задачах. распределению Стьюдента по к=n-1. Замечание: В литературе часто
33Определение: Математическим ожиданием непрерывной случайной приводят упрощенный способ вычисления доверительного интервала,
величины (НСВ) называется : Математическое ожидание уже не рассматривая только большие и малые выборки. В этом случае
является случайной величиной. Это постоянная величина для выделяют два пункта при вычислении доверительного интервала:
данного закона распределения СВ. Она является обобщенной Большая выборка (n более 30) - вычисление ведут по пункту Б. 2)
характеристикой данного распределения, указывая то значение, Малая выборка (n меньше или равно 30) – вычисление ведут по
около которого располагаются все возможные значения, принимаемые пункту В.
данной случайной величины. Рассмотрены свойства математического 106§ 6. Понятие статистической гипотезы. Нулевая и
ожидания. конкурирующая гипотезы. Критерий. Критические области и область
34Математическое ожидание характеризует центр распределения принятия нулевой гипотезы. Гипотеза – утверждение, которое надо
случайной величины и не дает представление о разбросе возможных либо доказать, подтвердить, исходя из разумных предположений,
значений случайной величины, хотя значения случайной величины либо опровергнуть. Статистической называют гипотезу о виде
могут сильно или же не сильно отклоняться от своего неизвестного распределения или о параметрах известного
теоретического центра (математического ожидания). Мера разброса распределения. Нулевой (основной) называют выдвинутую гипотезу
возможных значений случайной величины является важной Н0. Конкурирующей (альтернативной) называют гипотезу Н1, которая
характеристикой поведения случайной величины. Определение: противоречит нулевой. Статистическим критерием или просто
Дисперсией случайной величины называется математическое ожидание критерием называют случайную величину К, которая служит для
квадрата отклонения случайной величины от ее теоретического проверки нулевой гипотезы Н0. Областью принятия гипотезы
центра: (областью допустимых значений критерия) называют совокупность
35Формула, удобная для вычислений дисперсии: Определение: значений критерия, при которых нулевую гипотезу принимают.
Стандартным отклонением случайной величины называется Дисперсию 107Критической областью называют совокупность значений
можно записать символом как символом DX, так и символом ? 2. критерия, при которых нулевую гипотезу отвергают. Это такие
Стандартное отклонение имеет ту же размерность, что и сама значения критерия, которые не характерны для данного
случайная величина. Рассмотрены свойства дисперсии и распределения, т.е. возникающие с малой вероятностью. Основной
стандартного отклонения. принцип проверки статистической гипотезы можно сформулировать
36Статистический смысл дисперсии: Вычислили среднее так: если наблюдаемое значение критерия принадлежит области
арифметическое на основе данных наблюдений. Далее найдем среднее принятия гипотезы, то принимают нулевую гипотезу; если
арифметическое квадратов отклонений от среднего арифметического: наблюдаемое значение критерия принадлежит критической области,
Именно эта формула применяется для практического вычисления то нулевую гипотезу отвергают и принимают альтернативную
дисперсии на основе результатов наблюдений (в действительности гипотезу; Гипотеза называется параметрической, если речь идет об
знаменатель формулы несколько меняют – вместо n используют утверждении, связанном с каким-то конкретным параметром. В
(n-1)). противном случае она называется непараметрической. Гипотеза
37В отечественной литературе часто используется другое называется простой, если речь идет о том, что неизвестный
название для стандартного отклонения ? - среднее квадратическое параметр принимает какое-то конкретное значение. Если речь идет
отклонение. В коммерческой деятельности стандартное отклонение ? о многих значениях параметра, то она называется сложной.
характеризует риск, показывая, насколько неопределённой является 108Процедура проверки простой параметрической гипотезы выглядит
ситуация. Математическое ожидание и стандартное отклонение так: Формируют нулевую гипотезу Н0 и альтернативную гипотезу Н1
выражают в сжатой форме наиболее характерные черты закона на основе выборочных данных. Конструируют, исходя из логики
распределения случайной величины, а именно, его теоретический задачи, СВ на основе результатов выборки (критерий);
центр и меру отклонения от этого теоретического центра. Эти распределение критерия в случае истинности гипотезы Н0 известно.
величины для данного распределения являются константами Вся область возможных значений критерия разбивается на два
(неслучайными величинами). Вычислены математическое ожидание, подмножества. Одно подмножество – это совокупность естественных
дисперсия и стандартное отклонение для СВ, распределенной по (правдоподобных), т.е. наиболее вероятных для данного
закону Бернулли (биномиальному закону): распределения значений. В это подмножество критерий попадает с
38Используются и некоторые другие константы распределения, высокой вероятностью ?. Эту вероятность мы задаем сами. Она
позволяющие выявить особенности данного конкретного носит название «доверительная вероятность» (уровень доверия) (?
распределения. Введем некоторые них. Определения: Квантилем = 0.90; 0.95; 0.99). Другое подмножество – это область редко
уровня р (или р - квантилем) называется такое значение хр возникающих для данного з.р. значений (неправдоподобных
случайной величины, которое является решением уравнения , т.е. значений).
при котором функция распределения принимает значение, равное р. 109Вероятность попадания в эту область мала и равна ?=1-?. ?
Модой MоX СВ X называется её наиболее вероятное значение, т.е. носит название «уровень значимости»(?=0.10;0.05;0.01). 4.
это такое значение СВ, для которого вероятность для дискретной Вычисляют значение критерия Кнабл на основе выборочных значений
СВ или плотность вероятности для непрерывной СВ достигает своего изучаемого признака. Если Кнабл попадает в область
максимума. Медианой МеХ случайной величины называют такое её правдоподобных значений, то с вероятностью ? утверждают, что
значение, для которого Медиана – это квантиль уровня 0.5. гипотеза Н0 не противоречит экспериментальным данным, а поэтому
39§ 12. Наиболее часто используемые законы распределения принимают основную гипотезу. Если значения Кнабл попадает в
случайных величин. Дискретные случайные величины: Для ДСВ область неправдоподобных для данного з.р. значений, то отвергают
наиболее часто используется биномиальный закон распределения. гипотезу Н0 и принимают альтернативную гипотезу Н1 . Если при
Кроме биномиального закона распределения наиболее часто проверке гипотезы Н0 эта гипотеза принимается, то этот факт не
используется распределение Пуассона, которое является следствием означает, что высказанное нами утверждение является единственно
(предельным случаем) распределения Бернулли. Оно получено верным. Просто оно не противоречит имеющимся выборочным данным.
предельным переходом из биномиального закона при выполнении Возможно, что и другое утверждение также не будет противоречить
определенных ограничений: n – велико; p – мало; ? = const = выборочным данным.
0(1). Формула Пуассона: 1106. Если наблюдаемое значение критерия Кнабл попадает в
40Параметр ? называют интенсивностью потока событий. Формула область неестественных значений и мы, следовательно, отвергаем
Пуассона имеет и самостоятельное значение, когда в задаче гипотезу Н0 и принимаем гипотезу Н1, то не можем ли мы при этом
рассматривается поток событий, имеющий заданную интенсивность. совершить ошибку - отвергнуть верную гипотезу Н0 и принять
Для распределения Пуассона EX=?, DX= ?. Если нас интересует ложную гипотезу Н1? Да, можем, но вероятность этой ошибки мала;
наступление определенного числа событий А не за единицу времени, она равна величине ? . Типы альтернативных гипотез (для исходной
а за другой промежуток времени t, отличный от единицы, то простой параметрической гипотезы Н0 : ? = ?0) Н1: ? ??0 ? +?=1.
формула Пуассона приобретает такой вид: 1112. Н1: ? >?0. 3. Н1: ? <?0.
41Интегральная теорема Муавра – Лапласа: Если вероятность p 112Дисперсия ГС известна (или n>30) Считаем, что в ГC
наступления события А в каждом испытании постоянна изучаемый признак Х распределен нормально, причем мат. ожидание
(0<p<1), то вероятность того, что число k наступлений неизвестно, но есть основание полагать, что оно равно какому-то
события А в n независимых испытаниях заключено в пределах от k1 определенному значению m0. В этом пункте считаем, что дисперсия
до k2 при достаточно большом числе n приближенно равно В этой ?2 в ГС известна либо из предшествующего опыта, либо же
формуле: Для отыскания значений функции Ф0(х) применяются вычислена на основе данного опыта, но по выборке большого объема
специальные таблицы. Рассмотрены свойства этой функции. Введены (по большой выборке можно получить весьма хорошее приближение
ограничения, при которых целесообразно пользоваться интегральной для истинной дисперсии в ГС на основе рассчитанной по выборке
формулой Муавра-Лапласа. выборочной дисперсии). Поставим задачу следующим образом: Н0: m=
42Непрерывные случайные величины: СВ Х имеет равномерный закон m0 Н1: m? m0. § 7. Проверка гипотезы о числовом значении
распределения на отрезке [a, b], если ее плотность распределения математического ожидания m (генеральной средней ) нормально
постоянна на этом отрезке и равна нулю вне его: распределенной ГС.
43Непрерывная СВ Х имеет показательный (экспоненциальный) 113При конкурирующей гипотезе Н1: m? m0 следует вводить
закон распределения с параметром ?, если ее плотность двустороннюю критическую область. Из условия P(|t|< tкр )=
распределения имеет вид: В показательном законе смысл параметра ?=2Ф0(tкр) с помощь таблиц функции Лапласа находим значение tкр
? тот же самый, что и в законе Пуассона – среднее количество . Здесь введен критерий.
событий за единицу времени. 114Если окажется, что вычисленное на основе экспериментальных
44Между законами распределения Пуассона и показательным данных значение tнабл таково, что |tнабл|< tкр, то нет
существует тесная связь: Количество событий за любой оснований отвергнуть гипотезу Н0; если |tнабл|? tкр, то
фиксированный промежуток времени имеет распределение Пуассона, а отвергаем нулевую гипотезу как противоречащую экспериментальным
время ожидания между событиями - показательное распределение. данным и принимаем альтернативную гипотезу Н1. При иной
Поток событий, для описания которого справедливы упомянутые конкурирующей гипотезе, например, Н1: m> m0 следует
распределения, должен быть подчинен определенным ограничениям формировать правостороннюю критическую область.
для того, чтобы его поведение можно было описать такими простыми 115Если tнабл < tкр ,то принимается гипотеза Н0; если tнабл
формулами. Эти ограничения потока событий таковы: Стационарность ? tкр, то отвергаем нулевую гипотезу и принимаем альтернативную
(интенсивность потока событий ? не зависит от времени); гипотезу Н1.
Отсутствие последействия (количество событий, попадающих на 1162. Дисперсия ГС неизвестна Вычисляем выборочную дисперсию S2
данный промежуток времени, не зависит от числа событий, для аппроксимации значения генеральной дисперсии ?2 . Формулы
попадающих на другой промежуток времени, не пересекающийся с полностью сохраняются, только вместо ? используем S и tкр
данным); Ординарность (вероятность попадания на малый промежуток определяем по таблице критических точек распределения Стьюдента
времени двух или более событий пренебрежимо мала по сравнению с для критической области по заданному уровню значимости ? и по
вероятностью попадания на этот же малый промежуток времени числу степеней свободы k=n-1. Здесь вводится критерий.
одного события). 117Область принятия нулевой гипотезы и доверительный интервал
45Поток событий называется простейшим (или стационарным совпадают. Можно сделать следующий вывод: Если предполагаемое в
пуассоновским), если он одновременно обладает свойствами 1, 2, основной гипотезе числовое значение m0 неизвестного параметра
3. Эта модель потока событий обладает свойством, которое попадает в доверительный интервал этого параметра, отвечающего
называется характеристическим свойством или свойством заданному уровню доверия ?, то гипотезу Н0 принимаем, в
«отсутствия памяти». СВ Х имеет нормальный закон распределения с противном случае ее отклоняем и принимаем альтернативную
параметрами m и ?, если ее плотность распределения имеет вид: гипотезу Н1. Связь между двусторонней критической областью и
Обозначение: X ~ N(m;?) Параметры m и ? имеют определенный доверительным интервалом Отыскивая двустороннюю критическую
смысл. Для выяснения этого смысла следует вычислить область мы проделывали совершенно такие же преобразования как и
математическое ожидание и стандартное отклонение нормально при нахождении доверительного интервала для математического
распределенной СВ. Оказывается, что они совпадают с этими ожидания.
параметрами. 118§ 8. Проверка гипотезы о числовом значении вероятности p
46Площадь под кривой сохраняет постоянное значение, равное биномиального закона распределения (о числовом значении
единице, при любых изменениях ?. Чем больше значение ?, тем генеральной доли Wг). Требуется при заданном уровне доверия ?
более плавно идет кривая плотности. ?1. График плотности проверить нулевую гипотезу H0: p = p0 Альтернативная гипотеза
нормального распределения имеет вид: может быть трех видов H1 : p ? p0 (p < p0 ; p > p0) Здесь
47Стандартным нормальным распределением называется мы будем рассматривать только случай умеренно больших (от 30 до
распределение нормальной случайной величины с m=0 и ?=1. нескольких сотен) и больших (более нескольких сотен) выборок,
Обозначение: Z ~ N(0;1). Плотность распределения стандартной т.е. n>30. Используется критерий.
нормальной СВ имеет вид: 119§ 9. Проверка гипотезы о равенстве математических ожиданий
48Формула для вычисления вероятности попадания нормально (генеральных средних) двух нормально распределенных ГС. Пусть
распределенной СВ в заданный интервал: Справедлива формула: На имеются две нормально распределенные ГС, причем в первой
основе этой формулы может быть получено «правило трех сигм»: совокупности изучаемый признак X~N(m1;?1), во второй
Если случайная величина распределена нормально, то ее отклонение совокупности изучаемый признак Y~N(m2;?2). Предположим, что m1 и
от математического ожидания практически не превосходит m2 неизвестны, а ?1 и ?2 известны (значения стандартных
утроенного стандартного отклонения. отклонений взяты либо из предшествующего опыта, либо при больших
49§13. Устойчивость некоторых законов распределения. Если СВ выборках получены на основе этих же выборок, поскольку хорошо
нормально распределена: X ~ N(m;?), то СВ Y=aX+b также аппроксимируют значения стандартных отклонений в ГС). Проверим
подчиняется нормальному закону распределения, причем: Закон гипотезу Н0: m1 = m2 Н1: : m1 ? m2 (m1 < m2 или m1 > m2 ).
распределения называется устойчивым, если СВ, равная сумме двух 120Подчеркнем: мы в данной формуле берем значения ?1 и ?2 либо
независимых СВ, имеет тот же закон распределения, что и законы из предыдущего опыта (и тогда нет ограничений на величины
распределения суммируемых СВ. Показано, что если случайная объемов выборок), либо получаем на основе выборок из данного
величина Z находится как сумма двух независимых нормально опыта, но при этом полагаем, что выборки большие, т.е. n1>30,
распределенных случайных величин X и Y, то Z также будет n2>30. Используется такой критерий: Далее в конкретных
нормально распределена, причем. примерах в зависимости от конкурирующих гипотез выстраивают
50Неравенство Маркова (или лемма Чебышева) Если случайная критические области, вычисляют наблюдаемое значение критерия и
величина Х принимает только неотрицательные значения и имеет смотрят, попадает ли это значение в область правдоподобных
математическое ожидание ЕХ, то для любого положительного числа ? значений критерия при справедливости нулевой гипотезы или же,
справедливо неравенство: §14. Неравенство Чебышева. Теорема напротив, в область неправдоподобных значений критерия. И в
(неравенство Чебышева): Если случайная величина Х имеет зависимости от этого принимают или же отвергают нулевую
математическое ожидание ЕХ и дисперсию DX, то для любого ? > гипотезу, т.е. реализуют обычный алгоритм проверки гипотезы.
0 справедливо неравенство: Предельные теоремы теории 121§10. Проверка гипотезы о равенстве вероятностей
вероятностей. биномиального закона распределения (о равенстве долей признака)
51§15.Теорема Чебышева. Закон больших чисел (ЗБЧ). Введем двух генеральных совокупностей. Рассмотрим две ГС. Из первой ГС
понятие сходимости по вероятности: делается случайная выборка объемом n1, и на основе этой выборки
52Формулировка ЗБЧ в форме Чебышева П.Л. (теорема Чебышева): выясняется, сколько объектов выборки обладает изучаемым
Если дисперсии n независимых случайных величин Х1 , Х2,…, Хn признаком – этих объектов k1. Из второй ГС делается случайная
ограничены сверху одной и той же константой: DXi ? C, i=1, 2,…, выборка объемом n2; количество объектов выборки, обладающих
n, то для любого сколь угодно малого положительного числа ? изучаемым признаком, - k2. Выборочные доли признака равны
53Следствия из теоремы Чебышева: Первое следствие: Теорема соответственно w1= k 1 / n1 ; w2= k 2 / n2. В данном пункте мы
Хинчина Если независимые случайные величины Х1 , Х2,…, Хn имеют ограничимся лишь случаем, когда выборки достаточно большие :
одинаковые математические ожидания, равные m, то Это соотношение n1>30, n2>30.
является основой выборочного метода (статистических 122Сформулируем задачу: Имеются две ГС, вероятности проявления
исследований). Если мы хотим узнать истинное значение какого-то признака (генеральные доли) в которых равны соответственно p1 и
параметра m, нам нужно несколько раз экспериментально получить p2 . Необходимо проверить нулевую гипотезу о равенстве
значения Xi этого параметра и затем на основе этих значений вероятностей (генеральных долей):
вычислить их среднее арифметическое. Вычисленная величина будет 123В качестве неизвестного значения вероятности р, входящего в
достаточно хорошим приближением истинного значения параметра, выражение критерия t, берут ее наилучшую оценку: tкр находится
причем чем больше включено в расчет экспериментальных значений, на основе функции Лапласа. В качестве критерия используется
тем более точное приближение истинного значения параметра будет случайная величина:
получено. 124§11. Проверка гипотезы о значимости выборочного коэффициента
54Второе следствие: Теорема Бернулли Пусть проводится n корреляции Пирсона. Рассматривается двумерная нормально
независимых испытаний, в каждом из которых событие А может распределенная генеральная совокупность (X,Y), т.е. случайные
произойти с одной и той же вероятностью р (схема Бернулли). При величины X и Y в ней распределены нормально. Из этой
неограниченном возрастании числа опытов n частота события А совокупности извлечена выборка объемом n пар (xi , yi) и по ней
сходится по вероятности к вероятности р этого события в вычислен выборочный коэффициент корреляции Пирсона, который
отдельном испытании: Здесь k - количество случаев, когда событие оказался отличным от нуля. На основе выборочных данных мы бы
А наблюдалось. хотели получить обоснованный вывод о наличии связи между
55Третье следствие: ЗБЧ может быть распространен и на изучаемыми признаками во всей ГС.
зависимые случайные величины ( это обобщение принадлежит Маркову 125Всегда проверяется нулевая гипотеза об отсутствии линейной
А.А.): Если имеются зависимые случайные величины Х1 , Х2,…, Хn и корреляционной связи в ГС, а альтернатива заключается в
если при. предположении о том, что этот коэффициент в ГС отличен от нуля:
56§16. Смысл и формулировка центральной предельной теоремы H0: ?=0 H1: ??0 Если нулевая гипотеза отвергается, то это
(ЦПТ). Интегральная теорема Муавра-Лапласа как следствие ЦПТ. означает, что выборочный коэффициент корреляции значимо
Эта теорема утверждает, что распределение суммы большого числа отличается от нуля, и, следовательно, в ГС признаки X и Y
независимых и сравнимых по вкладам в сумму случайных величин связаны линейной зависимостью. Если же принимается нулевая
близко к нормальному закону распределения. Иначе: если Yn = X1 гипотеза, то выборочный коэффициент корреляции незначим, и,
+X2 +…+Xn , причем Слагаемых много; Слагаемые независимые; следовательно, признаки X и Y в ГС не связаны линейной
Слагаемые сравнимы по вкладам в сумму, т.е. нет слагаемого, зависимостью.
которое было бы по вкладу существенно больше остальных, то ЦПТ 126В качестве критерия проверки нулевой гипотезы используется
утверждает, что СВ Yn подчиняется нормальному закону случайная величина Показано, что эта СВ при справедливости
распределения. Именно поэтому нормальный закон распределения так нулевой гипотезы имеет распределение Стьюдента с k=n-2 степенями
широко применяется в практических задачах, ибо в реальных свободы. Ясно также, что при больших объемах выборки (n>30)
задачах исследуемые случайные величины часто есть результат можно вместо распределения Стьюдента использовать стандартный
сложения многих других случайных величин. нормальный з.р. Поскольку конкурирующая гипотеза имеет вид ??0,
57Упрощенная математическая формулировка ЦПТ: Если X1 , X2 ,…, то следует строить двустороннюю критическую область. Определив,
Xn – независимые случайные величины, для каждой из которых куда попадает вычисленное значение tнабл , делаем вывод о
существует математическое ожидание EXi = mi и дисперсия DXi=?i 2 справедливости нулевой или же альтернативной гипотезы: Если |
, а также выполняется некоторое дополнительное условие , то tнабл |<tкр, то принимается гипотеза H0, Если | tнабл |? tкр
закон распределения Yn = X1 +X2 +…+Xn при n?? асимптотически , то принимается гипотеза H1.
приближается к нормальному закону распределения с параметрами 127Проверка гипотезы о значимости выборочного коэффициента
Что касается упомянутого в формулировке теоремы дополнительного корреляции Спирмена При проверке коэффициента корреляции
условия, то оно сложно записывается математически, но означает, Спирмена поступают совершенно аналогично тому, как мы поступали,
что вклад каждого слагаемого в сумму ничтожно мал, т.е. работая с коэффициентом Пирсона.
слагаемые соразмерны по своим вкладам в сумму. Из ЦПТ для схемы 128Если объем выборки совсем маленький (n<9), то для
испытаний Бернулли вытекает как следствие интегральная теорема выяснения значимости коэффициента корреляции нужны специальные
Муавра – Лапласа. таблицы, которые приводятся в специальных руководствах (этот
58§17. Многомерная случайная величина и закон ее случай мы рассматривать не будем). Если объем выборки n ? 9, то
распределения. Пусть имеется система случайных величин (СВ), при справедливости гипотезы H0 критерий имеет распределение
причем эта система может состоять как из дискретных, так и из Стьюдента с k=n-2 степенями свободы. tкр находим по таблице
непрерывных СВ. Будем рассматривать их как координаты случайного критических точек распределения Стьюдента по значениям ? и k для
вектора. Определение. n-мерной случайной величиной или случайным двусторонней критической области. Вычисляем tнабл на основе
вектором называется упорядоченный набор n случайных величин Для приведенной выше формулы. Если | tнабл |<tкр, то принимается
описания поведения многомерной СВ должен быть введен закон ее гипотеза H0, Если | tнабл |? tкр , то принимается гипотеза H1,
распределения: т.е. коэффициент корреляции является значимым и в ГС между
59Эта функция выражает вероятность совместного выполнения качественными признаками имеется корреляционная связь. При
неравенств в правой части этого соотношения. С целью экономии объеме выборки больше 30 следует вместо распределения Стьюдента
времени изложение выполним для двумерного случая; при этом будем перейти с стандартному нормальному з.р.
понимать, что все утверждения справедливы и для n>2: 129§12. Критерий знаков. Критерий знаков не связан с заданием
Рассмотрены свойства функции F(x,y). Могут быть получены частные каких-то конкретных значений параметров распределения, и поэтому
(маргинальные) функции распределения на основе функции на основе этого критерия формулируются так называемые
совместного распределения двух случайных величин: непараметрические статистические гипотезы. Это самый простой
60Для двумерной непрерывной случайной величины (X,Y) функция критерий непараметрической статистики. Простота критерия
совместного распределения может быть представлена в виде: Для объясняется двумя причинами: Не делается предположение о том,
функции f(x,y), которая называется плотностью совместного что ГС имеет нормальное распределение или какое-то другое
распределения, справедливы те же свойства, которые были получены распределение. Единственное предположение – распределение должно
для функции f(x) в одномерном случае. Зная плотность совместного быть непрерывным. Критерий знаков использует только знаки
распределения двух случайных величин, можно найти плотность различий между двумя числами, а не их количественную меру.
частного (маргинального) распределения одной случайной величины: Поэтому иногда его называют «ранговый критерий проверки
61Для независимых случайных величин Х и Y независимы события гипотез».
{X<x} и {Y<y}, откуда следует: Для непрерывных СВ из 130Пусть имеются две выборки одинакового объема n, и эти
данного соотношения, дифференцируя его по x и y, получим: Для выборки проранжированы: x1<x2<…<xn и
зависимых СВ эти равенства не выполняются: y1<y2<…<yn Введем разность r i=xi-yi. Исследуем знаки
62§18. Стохастическая зависимость двух случайных величин. разностей ri и найдем число положительных разностей (это для нас
Ковариация и коэффициент корреляции. Если случайные величины успех), т.е. найдем число успехов, которое обозначим величиной
зависимы, влияют на поведение друг друга, то следует k. В случае справедливости нулевой гипотезы о том, что выборки
количественно описать степень их влияния друг на друга. извлечены из совпадающих генеральных совокупностей (или из одной
Определение. Ковариацией двух СВ X и Y называется математическое и той же ГС), положительные и отрицательные разности ri будут
ожидание произведения соответствующих центрированных СВ: cov (X, появляться с одинаковой вероятностью. Задание гипотезы H0
Y) = E((X – EX) · (Y – EY)) =. возможно в и других форматах, например, Р(x-y>0)=Р(x-y<0)=
63Рассмотрены свойства ковариации. Вывод: ковариация не ?; или проверить, равны ли друг другу генеральные средние Если
улавливает сложные виды связей между X и Y. Ковариация разность ri окажется равной нулю, то ее исключают из
отслеживает наличие только линейной связи между СВ. При наличии рассмотрения.
такой линейной связи (стохастической) ковариация отлична от 0. 131При справедливости гипотезы H0 k – дискретная случайная
Определение: Коэффициентом корреляции двух СВ X и Y называется величина, распределенная по биномиальному з.р. с параметрами n и
отношение их ковариации к произведению стандартных отклонений p=1/2, причем n - число отличных от нуля разностей: Критическая
этих величин: Рассмотрены свойства коэффициента корреляции. область строится в зависимости от альтернативной гипотезы, а вид
Значения, принимаемые коэффициентом корреляции: альтернативной гипотезы связан с данными конкретной
64Определение. Случайные величины называются рассматриваемой задачи.
некоррелированными, если их коэффициент корреляции равен нулю. 132Алгоритм реализации критерия знаков таков: Рассматривают
Случайные величины называются коррелированными, если их серию из n испытаний и подсчитывают число положительных и
коэффициент корреляции отличен от нуля. Было показано, что если отрицательных разностей ri , нулевые разности исключаются из
случайные величины независимые, то они некоррелированные, а из рассмотрения, выясняют число положительных разностей (число
некоррелированности случайных величин еще не следует их успехов k). 2. Для получения выводов используется критерий
независимость. Из некоррелированности нормальных СВ следует их следующего вида: Понятно, что W(n,0)?0 , а W(n,n)=1. 3. На
независимость (в общем случае это не так.) Коэффициент основе свойств биномиальных коэффициентов для облегчения
корреляции характеризует степень линейной зависимости между вычислений можно использовать равенство W(n;k) = 1 – W(n;
случайными величинами X и Y в стохастическом смысле и не может n-k-1). Это равенство удобно использовать, когда k>n/2.
отражать более сложных видов зависимостей между случайными 1334. Критические области для значений критерия связаны с видом
величинами. Графически показана стохастическая линейная связь альтернативной гипотезы H1: а). Б) ? положительных разностей
между случайными величинами при различных значениях коэффициента мало (мало успехов).
корреляции. Введено уравнение линейной регрессии, наилучшим 1344. Вычисление критерия W(n;k) проводят при малых выборках
образом описывающим связь между случайными величинами: (n?30). При больших выборках (n>30) биномиальный з.р.
65Для вычисления коэффициента корреляции между двумя переходит в нормальный з.р. , поэтому при n>30 обычно вводят
количественными признаками на практике используется линейный иной критерий, ибо вычисления по нему существенно упрощаются.
коэффициент корреляции Пирсона: Этот критерий t при справедливости гипотезы H0 имеет стандартный
66Введем коэффициент корреляции для изучения тесноты связи нормальный з.р.: В) ? положительных разностей много (много
между порядковыми случайными величинами. Если n объектов успехов).
совокупности пронумеровать в соответствии с возрастанием или 135§ 13. Шкалы измерений признаков. Ранее были рассмотрены
убыванием изучаемого признака, то говорят, что объекты признаки, измеряемые в количественных шкалах - в этом случае для
ранжированы по этому признаку. Присвоенный номер называется выяснения тесноты связи между признаками был использован
рангом. Коэффициент ранговой корреляции Спирмена вычисляется по коэффициент корреляции Пирсона, а также признаки, измеренные в
формуле: шкале порядков - был использован коэффициент корреляции
67В случае совпадения рангов при вычислении коэффициента Спирмена. До сих пор не рассматривались ситуации, когда
ранговой корреляции следует брать среднее арифметическое рангов, возникает необходимость изучить связи таких признаков, как
приходящихся на данные объекты, причем каждому объекту профессия, и, допустим, политические убеждения, или уровень
присваивается это среднее арифметическое значение. В формулу образования и политические убеждения, и тому подобное. Возникает
вводятся поправки на совпадающие ранги Ta и Tb . Формула новое понятие номинальных признаков и номинальных
приобретает такой вид: (неметрических) шкал измерений. В этом случае объекты
68Раздел 2. Элементы математической статистики. Начнем с группируются по различным классам так, чтобы внутри класса они
нового раздела нумерацию параграфов заново. § 1. Случайные были идентичны по измеряемому свойству. Следует научится
выборки. Первичная обработка статистических данных. Вариационные выявлять наличие или же отсутствие связи между номинальными
ряды. Статистика изучает большие массивы информации и признаками и научиться количественно оценивать тесноту связи
устанавливает закономерности, которым подчиняются случайные между ними, если она будет выявлена.
массовые явления. 136§ 14. Связь номинальных признаков (таблицы сопряженности).
69Генеральной совокупностью (ГС) называется вся подлежащая Предположим, что признаки статистически независимы, тогда введем
изучению какого-либо свойства (говорят, признака) совокупность две гипотезы: Н0: признаки независимы Н1: признаки зависимы
объектов. Та часть объектов, которая отобрана для Рассмотрен конкретный пример, в котором для простоты
непосредственного изучения какого-либо признака ГС носит ограничились лишь двумя признаками: Признак А имеет r=2 уровня.
название случайной выборки (или просто выборки). Объем ГС и Признак В имеет s=3 уровня.
объем выборки – это количество элементов в них. Обозначаются , 137В а. B1. B2. B3. Итого. A1. 42 n11. 66 n12. 28 n13. n1?
соответственно, N и n. В дальнейшем будем считать, что объем =136. A2. 8 n21. 14 n22. 42 n23. n2? =64. Итого. n?1=50. n?2=80.
выборки существенно меньше объема генеральной совокупности. В n?3=70. n=200. Возникла таблица 2?3. Она называется таблицей
этом случае получаемые в дальнейшем формулы являются наиболее сопряженности признаков А и В.
простыми. Непрерывная природа изучаемого признака порождает 138Введем обозначения: i - номер строки (i=1,2,…,r) j- номер
бесконечные ГС. столбца (j=1,2,…,s) nij - частота события Ai?Bj – это количество
70Для того, чтобы выборка была репрезентативной (хорошо объектов, обладающих комбинацией уровней Ai и Bj признаков А и
представлять элементы ГС), она должна быть отобрана случайно. В. Через ? будем обозначать суммирование по соответствующему
Случайность отбора элементов в выборку достигается соблюдением признаку, тогда.
принципа равной возможности каждого элемента ГС быть отобранным 139Определение. Величины называются ожидаемыми или
в выборку. Нарушение принципов случайного выбора приводит к теоретическими частотами (имеется в виду ожидаемыми при
серьезным ошибкам. Любое число, полученное на основе выборки, выполнении гипотезы H0) При выполнении гипотезы H0 ожидаемые
носит название «выборочная статистика» (или просто частоты не должны сильно отличаться от наблюдаемых частот nij .
«статистика»). Пусть получена выборка объема n. Над этим 140Сопоставим наблюдаемые Н и теоретические частоты Т: Мера
массивом исходных данных выполняется операция ранжирования, т.е. согласия опытных данных с теоретической моделью: Суммы берется
экспериментальные данные выстраиваются в порядке возрастания: по всем ячейкам таблицы сопряженности. Для ответа на вопрос, что
71 такое большое значение случайной величины Х2, надо знать
72Значения xi. x1. x2. ... xk. Частоты ni. n1. n2. ... nk. распределение этой СВ. Ответ на этот вопрос дает следующая
Частости wi=ni/n. w1. w2. ... … wk. Определение. Вариационным теорема: Если равенства (*) примерно выполняются, то гипотезу H0
рядом называется ранжированный в порядке возрастания ряд можно признать справедливой. Если же равенства (*) плохо
значений (вариантов) с соответствующими им частотами. Данный выполняются, то гипотезу H0 отвергаем, т.е. отвергаем
вариационный ряд носит название дискретного вариационного ряда утверждение о независимости признаков и признаем справедливой
(его члены принимают отдельные изолированные значения). альтернативную гипотезу H1: признаки зависимые.
73Интервалы вариантов. x1 ? x2 1. x2 ? x3 2. ... xk-1 ? xk 141Теорема (К. Пирсон, Р. Фишер): Если справедлива гипотеза Н0,
k-1. n1. n2. ... nk-1. w1. w2. ... wk-1. Построение дискретного на основе которой рассчитаны теоретические частоты Т, то при
вариационного ряда нецелесообразно, когда число значений в неограниченном росте числа наблюдений n распределение СВ Х2
выборке велико или признак имеет непрерывную природу, т.е. может стремится к распределению ?- квадрат (?2 ). Число степеней
принимать любые значения в пределах некоторого интервала. В этом свободы этого распределения равно разности между числом событий
случае строят интервальный вариационный ряд. Вид интервального и числом связей между nij, заложенных в таблице сопряженности.
ряда: Частоты ni (число вар-тов, попавших в инт-вал). Частости Число степеней свободы:
wi=ni/n. 142Как было сказано, распределение ?2 является предельным для
74В том случае, когда можно предположить, что изучаемый СВ Х2 , поэтому использовать его как приближение для реальных
признак в ГС подчиняются нормальному з.р., для вычисления распределений Х2 можно только при большом числе наблюдений n .
количества интервалов равной длины применяют формулу Стерджесса: Считается достаточным для возможности заменить распределение СВ
75Существуют различные приёмы изображения набора данных, Х2 распределением СВ ?2 выполнение следующего ограничения: для
которые дают визуальное представление об основных свойствах каждой ячейки теоретические частоты должны быть не меньше 5:
экспериментальных данных в целом. Чаще всего для этого 143Значения Х2 считаются настолько большими, если они
используются: полигон, гистограмма, кумулята. Графическое превосходят критические значения распределения ?2,
представление вариационных рядов делает картину поведения соответствующие выбранному уровню значимости. Здесь всегда по
статистических данных более наглядной. Полигон распределения смыслу рассматривается правосторонняя критическая область, т.к.
частот используется для изображения дискретного вариационного если нулевая гипотеза неверна, то Х2 принимает большое значение
ряда и представляет собой ломаную линию, отрезки которой и, следовательно, ?2 также принимает большое значение.
соединяют точки с координатами (xi ,wi). 144Коэффициенты для вычисления тесноты связи между номинальными
76Гистограмма используется для изображения интервальных признаками: Коэффициент «фи» Коэффициент взаимной сопряженности
вариационных рядов и представляет собой ступенчатую фигуру из Пирсона.
прямоугольников с основаниями, равными интервалам значений 145Благодарю за внимание! Желаю удачи в написании итоговой
признака li (li = xi+1 - xi ) и высотами, равными wi/li . контрольной работы !!!!!!!!!!!!
77Эмпирической функцией распределения Fn(x) называется 146Благодарю за внимание!
«Теория вероятности и статистика» | Теория вероятности и статистика.ppt
http://900igr.net/kartinki/algebra/Teorija-verojatnosti-i-statistika/Teorija-verojatnosti-i-statistika.html
cсылка на страницу

Статистика

другие презентации о статистике

«Теория вероятности и статистика» - Замечание. Классификация случайных событий. Оценка. Дисперсия ГС неизвестна. Упрощенная математическая формулировка ЦПТ. Два типа случайных величин. Относительная частота. Пример графика функции распределения. Действия над событиями. Числовые характеристики случайной величины. Коэффициенты для вычисления тесноты связи.

«Основные статистические характеристики» - Петроний. Найдите среднее арифметическое. Среднее арифметическое ряда чисел. Школьные тетради. Размах. Медиана. Статистика. Медиана ряда. Основные статистические характеристики. Мода ряда. Размах ряда.

«Статистическое исследование» - Нужна ли математика в будущей вашей профессии. Какой школьный предмет нравится больше всего. Кто тебе помогает разобрать трудную тему по математике. Актуальность. Мотивация учебной деятельности. Задачи. Решение систем линейных уравнений с двумя переменными. Как ты оцениваешь свои знания по математике.

«Элементы математической статистики» - Статистическое распределение выборки. Найти доверительный интервал. Эмпирическая функция распределения. Точность и надежность. Проверка статистических гипотез. Выборочное корреляционное отношение. Исправленные выборочные дисперсии. Коэффициент корреляции. Расчет доверительных интервалов при неизвестной дисперсии.

«Вероятность и математическая статистика» - Правило умножения для трех. Правило умножения. В алфавите племени Уауа имеются только две буквы. Шифр для сейфа. 5 конфет. Попугай научится говорить. Составим таблицу. Комбинаторные задачи. Способ перебора возможных вариантов. Отметки по математике. Точность полученных значений. Два банана. Вероятность и статистика.

«Основы математической статистики» - Биномиальная случайная величина есть сумма n независимых бернуллиевых величин. Равномерное распределение. Число сочетаний из 6 предметов по 4. Числовое значение величины – кол-во успехов в серии испытаний. Эмпирическая функция распределения. Ошибки при проверке статистических гипотез. Статистика. Точечная оценка дисперсии.

Урок

Алгебра

34 темы
Картинки
Презентация: Теория вероятности и статистика | Тема: Статистика | Урок: Алгебра | Вид: Картинки
900igr.net > Презентации по алгебре > Статистика > Теория вероятности и статистика.ppt