|
Решение этой системы и дает общую формулу МНК-оценокX и XTX - основные золотые матр мод -матрица объект-свойства и информационная матрица Фишера (при центр Х - ковар матрица) И так с расчетов параметров на первый взгляд все просто (на самом деле проблема есть с обращением матриц,) А вот со структурно-параметрическим синтезом так просто не получается Для понимания в каких условиях и почему классические шаговые алгоритмы многомерной регрессии, к сожалению, не дают ожидаемых наилучших результатов моделирования при структурно-парам. Синтезе. Нам полезно 1. рассмотреть геометрические интерпретации МНК и 2. привести некоторые свойства метода МНК и регрессионных моделей 1 что такое обусл М 2 почему она плоха Геометрические интерпретации МНК или почему регрессия не алгебра (более корректно -почему регрессионные. уравнения не алгебраические уравнения). Детский вопрос – если в алгебре из то почему в регрессионных уравнениях из , не следует что и ? А имеем мы (у вас эти ф-лы есть) , и где - выборочный коэффициент корреляции ( - оцен зн. коэфф корр. ур совпадут при одинаковом расбросе - это так потому что просто первая формула представит график в осях у-х а вторая х-у)
Для того что бы не формально понять эти результаты (и для других целей) полезны геометрические интерпретации регрессии. …………..
Напомним, что нам известно Любая задача моделированмя по экспериментальным данным начинается с данных – таблицы результатов эксперимента или таблицы наблюдений – здесь m = кол.перем., n -кол точек данных Итак, матрица данных имеет m столбцов и n строк, соответственно геометрическую интерпретацию регресии можно получить в пространстве столбцов или в пространстве строк = или что то же самое в пространстве переменных (оси –переменные) или в пространстве точек. (оси - номера точек)
Интерпретация в пространстве переменных (столбцов) Рассмотрим случай одномерной регрессии – имеем только столбцы У и Х1 Идея регрессии пришла в математику из теории вероятности. ТВ по сути дала следующее определение уравнению регресии: регрессия это матожидание условной вероятности (1) или с учетом,что у нас есть только конечная выборка , то (2) Теоретически при увеличении выборки (2) (1), то есть , аналогично для - с учетом конечности выборки (2*) Тогда использовав выборочные оценки мат. ожиданий как формулы для средних значений точек попавших в полосы и получим приближенные выражения для геометрического построения регрессий
Если условные распределения и унимодальны и симметричны то по этим формулам для средних линий в полосах получим в каждом “яйце” точки, принадлежащие линии регрессии. Для каждой линии достаточно построить по 2 точки и мы их проведем. Обращаю внимание что регрессии у=f(x) и х=f(у) не совпадают?Они совпадут (центральная линия) – и регр превр в алгебру - когда рассеяние симм отн бисктр и Интерпретация в пространстве точек Интерпретируем на осях двух точек и для 2-х векторов - У и Х 1 (хотя при осях 2 точек можно и все вектора изобразить)
Для простоты будем изображать центрированные варианты векторов (без своб.члена)
Отложим в пространстве осей 2-х точек (две оси, чтобы возможно. было изобразить геометрическую интепретацию) вектора у и х Регрессия МНК это проекция моделируемого вектора в плоскость векторов, по которым моделируем. А в одномерном случае - это проекция на тот вектор, с помощью которого мы мы моделируем. То есть -
Проектируем вектор у на вектор х и получаем модель у по х: ух =ахх
Проектируем вектор х на вектор у и получаем модель х по у: ху =ауу Или на одном рисунке - Теперь понятно, - поскольку проекции ух и ху – не совпадают, то и уравнения у них разные - из одной модели другая не получится. А совпадут они - при колинеарности у и х (что есть геометрический эквивалент коррелируемости ) Регрессия МНК это проекция моделируемого вектора в плоскость векторов, по которым моделируем ----------в плоск 2-х иксов 2?? === =========================== Свойство проективности МНК (вывод осн ф-ла МНК, используя теперь свойство проективности) 1. Напомним, что применяя МНК для регресии (1) мы оцениваем параметры регресии с точки зрения минимизации функционала : = (1*) Здесь и наблюдаемые и модельные значения соответственно. Напомним что дальнейшие результаты будут такие же, если мы вместо (1) будем рассматривать модель более общую модель (2) и ф-нал = (2*) Результаты будут верны с точностью до переобозначения. Поэтому, рассуждая в дальнейшем об (1) что формально проще, имеем далее в виду и (2) то есть модель нелинейную по аргументам регрессии. 2. Описывая данные задачи регрессии в виде таблиц естественно и выводить основные результаты в матричном виде (что бы не выделять отдельно своб член - ниже для упрощения записи - - ед.вектор) поэтому введем обозначения: вектор матрица и вектор Живите по правилу: МАЛО ЛИ ЧТО НА СВЕТЕ СУЩЕСТВУЕТ? Я неслучайно подчеркиваю, что место в голове ограничено, а информации вокруг много, и что ваше право... Что вызывает тренды на фондовых и товарных рынках Объяснение теории грузового поезда Первые 17 лет моих рыночных исследований сводились к попыткам вычислить, когда этот... ЧТО ПРОИСХОДИТ, КОГДА МЫ ССОРИМСЯ Не понимая различий, существующих между мужчинами и женщинами, очень легко довести дело до ссоры... ЧТО И КАК ПИСАЛИ О МОДЕ В ЖУРНАЛАХ НАЧАЛА XX ВЕКА Первый номер журнала «Аполлон» за 1909 г. начинался, по сути, с программного заявления редакции журнала... Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:
|