Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Классификация и обзор алгоритмов МГУА и методов индуктивного моделирования.





Рис. Классификация алгоритмов и методов индуктивного моделирования

 

Классификацию естественно проводить в соответствии с блоками общей схемы работы таких алгоритмов - блоками Г, А и В.

1.По возможностям генератора моделей алгоритмы классифицируют

1.1.Тип решаемых задач:

1.1.1.Аппроксимации

1.1.2.Дискриминации (диагностики, классификации)

1.1.3.Прогнозирования

1.2. Класс применяемых опорных функций

1.2.1.Класс полиномиальных опорных функций

1.2.2.Класс гармонических опорных функций

1.2.3.Класс опорных функций с запаздываниями

1.3. Тип генерирующего алгоритма

1.3.1. Переборные алгоритмы

1.3.1.1. Полный перебор (комбинаторный алгоритм)

1.3.1.2 Направленный перебор (МАЛТИ - многоэт селекц-комбинорный алг)

1.3.2. Итерационные алгоритмы

1.3.2.1.Релаксационные итерационные РИА– шелудько, максо, риапдс (на полном дереве структур)

1.3.2.2.Многорядные (с квадратичными описаниями)

2. Расчет параметров частных описаний производится в соответствии с внутренним критерием алгоритма – наиболее известные

2.1. Оценки МНК (с подклассом сходящихся к ним оценки Шелудько)

2.2 . Оценки ЛП задач

3. Классификация алгоритмов по применяемому внешнему критериюселекции структур

3.1 Критерий Акаике

3.2.Критерий Шварца

3.3. Критерий “кросс-валидейшн”

3.4. Критерий регулярности

3.5.Критерии несмещенности (решений и/или параметров)

3.6. Критерии баланса

3.7. Специфичные (гладкость – мин сумм первых разностей, макс уг пер знака )

3.8. Комбинированные критерии

 

 

Многорядый упрощенный алгоритм метода группового учета аргументов - МУА МГУА.

Введение к схеме алгоритма

Алгоритм относится к т.н. разновидности итерационных алгоритмов с вложенными структурами.



Действительно, для произвольного ряда с номером « выражения для частных моделей (описаний) выглядят как вложенные матрешки:

(1*)

где - лучшая модель «s-1» ряда селекции - некоторый новый аргумент, - параметр, который ищем по МНК.

При заданнх критериях качества СКОА и НОСКОВ согласно которым порождается модель , генератор структур (1*) обеспечивает процесс,сходящийся на обучающей последовательности(куда, пока не понятно, но сходящийся), так как в худшем случае при =0 то

и алгоритм дает решение в точке стабилизации. - ухудшатся решение не может.

Описание алгоритма

Входными данными алгоритма есть входные и выходная переменные, представленные матрицей данных и вектором выхода , здесь - - количество входных переменных.

Рассматривается выборка из точек - это множество W, разделеное на обучающую A и проверочнyю (тестовую) B последовательности данных.

Подготовительный этап
Алгоритм формирует дополнительные нелинейные входные переменые - из исходных формируются – , ,
Тогда расширенным множеством входных переменных для алгоритма, будем иметь суммарное множество переменных:

: , и их функций : , . Т.о
Далее формируется множество обобщенных входных переменных алгоритма как множество произведений

нулевого, первого второго, и др. порядков

от переменных исходного входного множества Т:

или иначе
.

Далее

При формировании частных моделей последовательно вводят в модель ортогонализованный вариант обобщенных переменных , взятых из множества , где количество множителей в слагаемом модели , называют максимальным числом коррекций алгоритма - , количество элементов (мощность) данного множества обозначим через К.

 

 

На произвольном -том этапе (ряду) алгоритма для каждого из F лучших описаний предыдущего этапа генеруеться моделей претендентов.

Обычный путь расчета модели по двум агументам( ) –нужно расчитывать три параметра:

(2*)

Уменьшим размерность векора искомых параметров. Напомним что размерность вектора параметров – это по сути размерность системы нормальных уравнений или что то же (напомним материал регрессионного анализа) - размерность матрицы ( только у нас тут переменные Уменьшение размерности єквивалентно уменьшению ошибки расчета параметров по известной нам формуле . Для уменьшения размерности уравнения (2*) эквивалентно сводится к уравнению типа (1*).









Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2019 zdamsam.ru Размещенные материалы защищены законодательством РФ.