Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Этап центрирования входных переменных





Для этого, сначала входные обобщенные переменные и выходная переменные центрируются по данным обучающей выборки А:

, где - значения средних на выборке А:

 

В дальнейшем волну в обозначениях переменных опусим подразумевая что переменные центрированы. Теперь в центрированных переменных

Уравнения модели можем писать в виде

- от одного параметра избавились.

Можно показать что ниже описанная процедура формирования модели первого и последующих рядов позволяет находить модель в виде

где - лучшая модель «s-1» ряда селекции -ортогонализированная к составляющая аргумента , -уже единственный параметр, который ищем методом наименьших квадратов.

Вы спросите ?– а нужна ли еще зачем-то отрогонализация (кроме уменьшения еще на 1 размерности вектора параметров, который ищем через МНК) -из получать и таким образом пользоватся в дальнейшем ортогональной парочкой аргментов

 

 

Рис1 Рис 2 Рис 3 Рис 4

Напомним, что параметры расчитанные на ортогональных входных аргументах (независимых) наиболее точно расчитаны

– для этого варианта расчета плоскость аргументов, куда опускается проекция, в пространстве расположена наиболее «устойчиво»относительно шума в данных– угол между векторами ,на которых эта плоскость нами определяется- наиболее устойчивый - 900

– таким образом шум данных на положение плоскости влияет в наименшей степени и таким образом посчитанная модель имеет наименьшую погрешность связанную с наличием шума.

Формирования первого ряда моделей алгоритма
На первом этапе рассматриваются все одночленные модели приближения объекта, -

, (*)
где перебираются из множества

Коэффициенты частных моделей первого этапа находим по МНК на точках обучения - множестве точек А, требуя приближения моделями (*) выхода ,

 

Вывод формулы МНК для одномерного случая повторим применяя ранее ипользовавшийся прием:

Нам необходимо приблизить Поэтому из (*) запишем (**). Отсюда, домножив слева каждую сторону (**) на вектор строку (далее знак транспонир. будем опускать применив знак скалярного произведения векторов) получим для каждой к-той модели претендента

или

где точка – знак скалярного произведения векторов.

Тоже самое можем записать в виде

, где IA- множество индексов обучающих точек А выборки данных.


Выбрав по значению критерия селекции (о нем ниже) лучшую модель первого ряда, продолжим генерацию частных описаний на последующих рядах.
Произвольный s-тый ряд:

Далее будем искать ортогонализироваые частные модели описание в виде
( 1)

здесь = индекс этапа, - сформирован как лучший из F просчитанных путей нахождения обобщенной переменной путем образования произведения из расширенного множества входных переменных Т, при этом - это ортогональная составляющая вектора ,

- лучшая модель предыдущего ряда,



При условии центрирования переменных по среднему значению в частных частных моделях (1) как уже говорили свободный член равен нулю, а коэффициент при третьем члене

.

где вектор - это невязка модели предыдущего ряда а - это ортогональная составляющая вектора .

Ортогональна добавка к из уравнения ( 1) связана с векторной зависимостью

= - (1*) см рямоугольный треугольник

где коэффициент определяется из из условия ортогональности;

или , отсюда

 

Смысл проведенного преобразования в том, что исходный вектор раскладывается по двум направлениям - по направлению вектора , и ортогональном ему направлении : Рис. А
и в последующих расчетах (определение ) участвует только его часть , ортогональная вектору лучшей модели предыдущего ряда.
Геометрически, вектор получается путем проекции вектора (вектор проекции - невязка - обозначена пунктиром) на направление AВ, являющийся продолжением вектора

По сути эта процедура проекии является процедурой расчета методом наименш квадратов коефициету .

Сходимость алгоритма по моделям к вектору выхода

Сходимость последовательности . .... ..... к исходному вектору становится очевидной из рассмотрения прямоугольного треугольника формирующейся векторами, , и . Здесь, как указывалось ранее , - невязки лучших моделей соответствующего ряда. Если учесть что в прямоугольном треугольнике , , ,, вектор - гипотенуза, а вектор - катет, то становится очевидным невозрастающий характер последовательности невязок, , ,.... , ,....а следовательно и сходимость последовательности векторов . .... ..... ....на обучающей последовательности к исходному вектору.

 









Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2018 zdamsam.ru Размещенные материалы защищены законодательством РФ.