Уравнения Скачать
презентацию
<<  Ляпунов Решить уравнение  >>
Лекция 7 Уравнение множественной регрессии Теорема Гаусса-Маркова
Лекция 7 Уравнение множественной регрессии Теорема Гаусса-Маркова
Лекция 7 Уравнение множественной регрессии Теорема Гаусса-Маркова
Лекция 7 Уравнение множественной регрессии Теорема Гаусса-Маркова
(7
(7
(7
(7
(7
(7
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Андрей Андреевич Марков Время жизни 14
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Постановка задачи: Имеем случайную выборку наблюдений за поведением
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
Y – вектор выборочных значений эндогенной переменной U – вектор
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
По данным выборки найти:
Тогда наилучшей линейной процедурой оценки параметров модели (7
Тогда наилучшей линейной процедурой оценки параметров модели (7
Тогда наилучшей линейной процедурой оценки параметров модели (7
Тогда наилучшей линейной процедурой оценки параметров модели (7
Тогда наилучшей линейной процедурой оценки параметров модели (7
Тогда наилучшей линейной процедурой оценки параметров модели (7
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Доказательство
Для получения необходимого условия экстремума дифференцируем (7
Для получения необходимого условия экстремума дифференцируем (7
Для получения необходимого условия экстремума дифференцируем (7
Для получения необходимого условия экстремума дифференцируем (7
Для получения необходимого условия экстремума дифференцируем (7
Для получения необходимого условия экстремума дифференцируем (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Докажем несмещенность оценок (7
Пример 1. Пусть имеем выборку из n наблюдений за случайной величиной Y
Пример 1. Пусть имеем выборку из n наблюдений за случайной величиной Y
Пример 1. Пусть имеем выборку из n наблюдений за случайной величиной Y
Пример 1. Пусть имеем выборку из n наблюдений за случайной величиной Y
Решение
Решение
Решение
Решение
Решение
Решение
Решение
Решение
Решение
Решение
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
Пример 2. Уравнение парной регрессии
2. Вычисляем XTY
2. Вычисляем XTY
2. Вычисляем XTY
2. Вычисляем XTY
2. Вычисляем XTY
2. Вычисляем XTY
Вычислим дисперсии (ковариационную матрицу) параметров модели
Вычислим дисперсии (ковариационную матрицу) параметров модели
Вычислим дисперсии (ковариационную матрицу) параметров модели
Вычислим дисперсии (ковариационную матрицу) параметров модели
Вычислим дисперсии (ковариационную матрицу) параметров модели
Вычислим дисперсии (ковариационную матрицу) параметров модели
Расчет дисперсии прогнозирования Прогноз осуществляется в точке Z={1
Расчет дисперсии прогнозирования Прогноз осуществляется в точке Z={1
Расчет дисперсии прогнозирования Прогноз осуществляется в точке Z={1
Расчет дисперсии прогнозирования Прогноз осуществляется в точке Z={1
Процедура «ЛИНЕЙН» в приложении EXCEL Алгоритм использования процедуры
Процедура «ЛИНЕЙН» в приложении EXCEL Алгоритм использования процедуры
Процедура «ЛИНЕЙН» в приложении EXCEL Алгоритм использования процедуры
Процедура «ЛИНЕЙН» в приложении EXCEL Алгоритм использования процедуры
Выводы: 1. Теорема Гаусса-Маркова формулирует наилучшую линейную
Выводы: 1. Теорема Гаусса-Маркова формулирует наилучшую линейную
Картинки из презентации «Теорема Гаусса-Маркова» к уроку алгебры на тему «Уравнения»

Автор: WIK. Чтобы познакомиться с картинкой полного размера, нажмите на её эскиз. Чтобы можно было использовать все картинки для урока алгебры, скачайте бесплатно презентацию «Теорема Гаусса-Маркова.ppt» со всеми картинками в zip-архиве размером 745 КБ.

Скачать презентацию

Теорема Гаусса-Маркова

содержание презентации «Теорема Гаусса-Маркова.ppt»
Сл Текст Сл Текст
1Лекция 7 Уравнение множественной регрессии Теорема 9(7.6) по вектору параметров. Откуда система нормальных уравнений
Гаусса-Маркова Автор: Костюнин Владимир Ильич, доцент кафедры: для определения искомых параметров получает вид. (7.7). Решение
«Математическое моделирование экономических процессов». системы (7.7) в матричном виде есть. Выражение (7.3) доказано.
2(7.1). Наилучшая линейная процедура получения оценок 10Докажем несмещенность оценок (7.3). Несмещенность оценки
параметров уравнения (7.1) и условия, при которых эта процедура (7.3) доказана. Вычислим ковариационную матрицу оценок (7.3). В
дает несмещенные и эффективные оценки, сформулирована в теореме результате получено выражение (7.4).
Гаусса-Маркова. 11Пример 1. Пусть имеем выборку из n наблюдений за случайной
3Андрей Андреевич Марков Время жизни 14.06.1856 - 20.07.1922 величиной Y Найти наилучшие оценки среднего значения и дисперсии
Научная сфера - математика. Карл Фридрих Гаусс Время жизни этой переменной. В терминах теоремы Гаусса –Маркова задача
30.04.1777 - 23.02.1855 Научная сфера – математика, физика, формулируется так: необходимо построить модель типа Y = a0 +u,
астрономия. при этом имеем:
4Постановка задачи: Имеем случайную выборку наблюдений за 12Решение. 1. Вычисляем (XTX)-1. 2. Вычисляем (XTY). 3.
поведением экономического объекта объемом n. Выборка наблюдений Вычисляем оценку параметра а0. 4. Находим дисперсию среднего.
за переменными модели (7.1) Первый индекс – номер регрессора 13Пример 2. Уравнение парной регрессии. Построить модель типа
Второй индекс – номер наблюдения. (7.2). (7.2) - Система Y=a0+a1x +u, по данным вы-борки наблюдений за переменными Y и x
уравнений наблюдений, связывающая наблюдения в выборке. объемом n. В схеме Гаусса-Маркова имеем: 1. Вычисляем матрицы
5Y – вектор выборочных значений эндогенной переменной U – (XTX) и (XTX)-1.
вектор выборочных значений случайного возмущения A - вектор 142. Вычисляем XTY. 3. Вычисляем оценку вектора параметров а.
неизвестных параметров модели х – вектор регрессоров X – матрица 15Вычислим дисперсии (ковариационную матрицу) параметров
коэффициентов при неизвестных параметрах. Сформируем вектора и модели. Следовательно:
матрицу коэффициентов на основе системы (7.2). 16Расчет дисперсии прогнозирования Прогноз осуществляется в
6По данным выборки найти: ?, Cov(??), ?u, ?(?(z)). Теорема точке Z={1,z}Т.
(Гаусса – Маркова). Если матрица Х неколлинеарна и вектор 17Процедура «ЛИНЕЙН» в приложении EXCEL Алгоритм использования
случайных возмущений удовлетворяет следующим требованиям: процедуры: Подготовка таблицы исходных данных 2. Вызов процедуры
Математическое ожидание всех случайных возмущений равно нулю. «ЛИНЕЙН» 3. Ввод исходных данных в процедуру 4. Анализ
Дисперсия случайных возмущений постоянна во всех наблюдениях результата Рассмотрим алгоритм на примере.
(условие ГОМОСКЕДАСТИЧНОСТИ). Случайные возмущения в разных 18Выводы: 1. Теорема Гаусса-Маркова формулирует наилучшую
наблюдениях не зависимы. Случайные возмущения и регрессоры не линейную процедуру расчета оценок параметров линейной модели
зависимы. множественной регрессии 2. Линейная процедура соответствует
7Тогда наилучшей линейной процедурой оценки параметров модели методу наименьших квадратов 3. Предпосылки теоремы обеспечивают
(7.1) является: (7.3). Которая удовлетворяет методу наименьших получение оценок, обладающих свойствами несмещенности и
квадратов. При этом: эффективности 4. При выполнении предпосылок свойства
8Доказательство. Воспользуемся методом наименьших квадратов. эффективности и несмещенности достигаются при любом законе
(7.4). Где. (7.5). Подставив (7.5) в (7.4) получим. (7.6). распределения случайного возмущения.
9Для получения необходимого условия экстремума дифференцируем
«Теорема Гаусса-Маркова» | Теорема Гаусса-Маркова.ppt
http://900igr.net/kartinki/algebra/Teorema-Gaussa-Markova/Teorema-Gaussa-Markova.html
cсылка на страницу

Уравнения

другие презентации об уравнениях

«Теорема Гаусса-Маркова» - Подставив (7.5) в (7.4) получим. Воспользуемся методом наименьших квадратов. Сформируем вектора и матрицу коэффициентов на основе системы (7.2). Тогда наилучшей линейной процедурой оценки параметров модели (7.1) является: (7.2). Если матрица Х неколлинеарна и вектор случайных возмущений удовлетворяет следующим требованиям:

«Способы решения систем уравнений» - 1. Вычислите: Г. В. 15х + 10(1 – х) = 1. - 0,5. Методы решения систем уравнений. Ответ: 2. -. Г. При х = - 4/9 выражение не имеет смысла. Цель урока. Ответ: А. %. Из формулы мощности N=A/t выразите работу A. Ответ: 4.

«Метод Гаусса и Крамера» - Создан Габриэлем Крамером в 1751 году. Матрица Определение. Затем х2 и х3 подставляют в первое уравнение и находят х1. Метод Гаусса. Подготовили: Климов Дмитрий Радзевич Павел Руководитель: Петрова Л.Д. учитель математики. Метод Гаусса — классический метод решения системы линейных алгебраических уравнений.

«Ляпунов» - Сергеев Игорь Николаевич (1954, Россия). Системы с интегральной разделенностью. Какому классу Бэра принадлежат показатели Перрона (не считая старшего)? Системы с ограниченными коэффициентами (основной класс). Бэр Рене-Луи (1874–1932, Франция). Какому классу Бэра принадлежат частоты уравнения (не считая младшей)?

«Графический способ решения уравнений» - У=4 у=а y=x?+6x+8 y=(x+1)/(x-2) 1/x-2, x<-1 и х=-1 y= 3x, -1<x<2 -x?+4x, x>2 и х=2. Решить графически уравнение (х+1)/(х-2)=1. Цели урока: У=(х+1)/(х-2). У=-8. y=x?+6x. Y=f(x+a) y=f(x)+a y=f(x-a)+b, a>0 и b<0 y=bf(x), b>0 y=f(-x) y=-f(x) y=f(|x|) y=|f(x) |. Получим равносильное данному уравнение x?=-6x-8 2. Построим графики функций у= x? и у=-6x-8.

«Уравнения и неравенства» - 0 2 -1 -2. Пусть f(x)=x2 и g(x)=2x +3 Построим на одной координатной плоскости графики функций y=x2 и y= 2x + 3. 2. Найдите сумму корней уравнения. 2. Неравенства. Примеры графического решения квадратных уравнений. 2. Найдите сумму чисел, удовлетворяющих неравенству. x2 – 2x – 3 =0 Представим в виде x2 –3 = 2x.

Урок

Алгебра

34 темы
Картинки
Презентация: Теорема Гаусса-Маркова | Тема: Уравнения | Урок: Алгебра | Вид: Картинки
900igr.net > Презентации по алгебре > Уравнения > Теорема Гаусса-Маркова.ppt