Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Решение этой системы и дает общую формулу МНК-оценок





X и XTX - основные золотые матр мод -матрица объект-свойства и информационная матрица Фишера (при центр Х - ковар матрица)

И так с расчетов параметров на первый взгляд все просто (на самом деле проблема есть с обращением матриц,)

А вот со структурно-параметрическим синтезом так просто не получается

Для понимания в каких условиях и почему классические шаговые алгоритмы многомерной регрессии, к сожалению, не дают ожидаемых наилучших результатов моделирования при структурно-парам. Синтезе. Нам полезно

1. рассмотреть геометрические интерпретации МНК и

2. привести некоторые свойства метода МНК и регрессионных моделей

1 что такое обусл М 2 почему она плоха

Геометрические интерпретации МНК или почему регрессия не алгебра (более корректно -почему регрессионные. уравнения не алгебраические уравнения). Детский вопрос

если в алгебре из

то почему в регрессионных уравнениях из ,

не следует что и ?

А имеем мы (у вас эти ф-лы есть)

, и

где - выборочный коэффициент корреляции

( - оцен зн. коэфф корр. ур совпадут при одинаковом расбросе - это так потому что просто первая формула представит график в осях у-х а вторая х-у)

 

Для того что бы не формально понять эти результаты (и для других целей) полезны геометрические интерпретации регрессии.

…………..

 

Напомним, что нам известно

Любая задача моделированмя по экспериментальным данным начинается с данных – таблицы результатов эксперимента или таблицы наблюдений –

здесь m = кол.перем., n -кол точек данных

Итак, матрица данных имеет m столбцов и n строк, соответственно

геометрическую интерпретацию регресии можно получить

в пространстве столбцов или

в пространстве строк

= или что то же самое

в пространстве переменных (оси –переменные) или

в пространстве точек. (оси - номера точек)

 

Интерпретация в пространстве переменных (столбцов)

Рассмотрим случай одномерной регрессии – имеем только столбцы У и Х1

Идея регрессии пришла в математику из теории вероятности. ТВ по сути дала следующее

определение уравнению регресии: регрессия это

матожидание условной вероятности

(1)

или с учетом,что у нас есть только конечная выборка , то (2)

Теоретически при увеличении выборки (2) (1), то есть

, аналогично для - с учетом конечности выборки

(2*)

Тогда использовав выборочные оценки мат. ожиданий как формулы для средних значений точек попавших в полосы и получим приближенные выражения для геометрического построения регрессий

 
 

 

 


Если условные распределения и унимодальны и симметричны то по этим формулам для средних линий в полосах получим в каждом “яйце” точки, принадлежащие линии регрессии. Для каждой линии достаточно построить по 2 точки и мы их проведем.

Обращаю внимание что регрессии у=f(x) и х=f(у) не совпадают?Они совпадут (центральная линия) – и регр превр в алгебру - когда рассеяние симм отн бисктр и

Интерпретация в пространстве точек

Интерпретируем на осях двух точек

и для 2-х векторов - У и Х 1

(хотя при осях 2 точек можно и все вектора

изобразить)

 

Для простоты будем изображать

центрированные варианты векторов

(без своб.члена)

 

Отложим в пространстве осей 2-х точек (две оси, чтобы возможно. было изобразить геометрическую интепретацию) вектора у и х


Регрессия МНК это проекция

моделируемого вектора в

плоскость векторов, по которым

моделируем.

А в одномерном случае

- это проекция на тот вектор,

с помощью которого мы

мы моделируем. То есть -

 

Проектируем вектор у на вектор х и получаем модель у по х:

ух хх

 

 

 

Проектируем вектор х на вектор у и получаем модель х по у: ху уу

Или на одном рисунке -

Теперь понятно, - поскольку проекции ух и ху – не совпадают, то и уравнения у них разные - из одной модели другая не получится.

А совпадут они - при колинеарности у и х

(что есть геометрический эквивалент коррелируемости )

Регрессия МНК это проекция моделируемого вектора в плоскость векторов, по которым моделируем ----------в плоск 2-х иксов

2?? === ===========================

Свойство проективности МНК

(вывод осн ф-ла МНК, используя теперь свойство проективности)

1. Напомним, что применяя МНК для регресии (1)

мы оцениваем параметры регресии с точки зрения минимизации функционала : = (1*)

Здесь и наблюдаемые и модельные значения соответственно.

Напомним что дальнейшие результаты будут такие же, если мы вместо (1) будем рассматривать модель более общую модель (2) и ф-нал = (2*)

Результаты будут верны с точностью до переобозначения.

Поэтому, рассуждая в дальнейшем об (1) что формально проще, имеем далее в виду и (2) то есть модель нелинейную по аргументам регрессии.

2. Описывая данные задачи регрессии в виде таблиц естественно и выводить основные результаты в матричном виде (что бы не выделять отдельно своб член - ниже для упрощения записи - - ед.вектор) поэтому введем обозначения:

вектор матрица и вектор







Живите по правилу: МАЛО ЛИ ЧТО НА СВЕТЕ СУЩЕСТВУЕТ? Я неслучайно подчеркиваю, что место в голове ограничено, а информации вокруг много, и что ваше право...

Что вызывает тренды на фондовых и товарных рынках Объяснение теории грузового поезда Первые 17 лет моих рыночных исследований сводились к попыткам вычис­лить, когда этот...

ЧТО ПРОИСХОДИТ, КОГДА МЫ ССОРИМСЯ Не понимая различий, существующих между мужчинами и женщинами, очень легко довести дело до ссоры...

ЧТО И КАК ПИСАЛИ О МОДЕ В ЖУРНАЛАХ НАЧАЛА XX ВЕКА Первый номер журнала «Аполлон» за 1909 г. начинался, по сути, с программного заявления редакции журнала...





Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2024 zdamsam.ru Размещенные материалы защищены законодательством РФ.