Использование метода многопараметрической подгонки данных для нелинейной модели
ВВЕДЕНИЕ
Данная выпускная квалификационная работа посвящена математическим методам оптимизации в частности многокритериальной оптимизации. Решении многих естественнонаучных, технических и экономических задач связанных с проектированием, разработкой алгоритмов, принятием решений и моделированием объектов, процессов, устройств и так далее сводится к решению задач многокритериальной оптимизации и оценке параметров математической модели с целью увеличения её точности для объекта или процесса, который она описывает.
В наше время достаточно быстрыми темпами развивается компьютерные технологии, растет объем и без того огромных массивов информационных данных и количество источников этих данных соответственно, и вместе с этим растут требования к качеству математической модели и применяемых алгоритмов обработки этих данных. Те же самые современные системы с искусственным интеллектом, обрабатывающие сложные модели высокой размерности такие как видео, изображения, звук.
Первые продвижения в сторону нелинейных методов оптимизаций совершил Исаак Ньютон. После этого в середине прошлого столетия сформировалась в такую независимую дисциплину в математике как выпуклая оптимизация и были проведены большие исследования в области свойств методов сходимости. Улучшенный с помощью Рафсона метод Ньютона и спуска, основанного на обработки градиента функции, являются наиболее часто встречаемые среди прочих итеративных числовых методов поиска экстремума. Для большинства практических задач достаточно метода Ньютона-Рафсона, но современный мир диктует свои условия, в которых растет объем обрабатывающих данных, усложняются проектируемые модели. Возникают задачи обработки алгебраических нелинейных функций с огромным количеством переменных. И тут уже метод в котором нужно считать обращения матриц вторых производных уже не выглядит так привлекательно. С другой стороны метод градиентного спуска требует меньшей затраты на каждую итерацию алгоритма, но при этом очень сильно страдает сама скорость сходимости. Так и приходится выбирать из большого количества вариантов методов поиска решений оптимизационных задач, чтобы добиваться наилучших результатов в проектировании. Целью бакалаврской работы является определение параметров в нелинейных многопараметрических моделях математическими методами оптимизации.
СОДЕРЖАНИЕ
ВВЕДЕНИЕ 3
1.Теоритический обзор нелинейных методов 5
1.1. Параметры математических моделей 5
1.2.Метод Бойдена-Флетчера-Гольфарба-Шано 5
1.3. Метод наискорейшего спуска 6
1.4.Метод покоординатного спуска 8
1.5.Метод Монте-Карло 11
1.6.Метод Ньютона 14
1.7.Метод Ньютона-Гаусса 17
1.8.Метод Левенберга — Марквардта 20
1.9.Симплексный метод Нелдера-Мида 21
1.10.Метод Хука-Дживса 25
2.Реализация многопараметрической подгонки кривых на примере модели нейрона … 27
2.1 Описание задачи натриевых каналов. 27
2.2 Выбор программного средства реализации алгоритма 27
2.3 Описание разработанной программы 28
3.Разработка проекта 33
3.1. Постановка задач для создания проекта 33
3.2. Анализ сферы мнопараметрической оптимизации 34
3.3. Структура проекта 35
3.4. Связи между задачами 38
3.5. Критический путь проекта 39
3.6. Определение ресурсов 41
3.7. Бюджет проекта 42
3.8. Итоги разработки проекта 43
ЗАКЛЮЧЕНИЕ 44
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 45
Библиографический список:
1.Александров, А.Д. Математика: её содержание, методы и значение (том 3) / А.Д. Александров, А.Н. Колмогоров, М.А. Лаврентьев. - Москва: Мир, 2014. - 825 c.
2.Амосов А. А., Дубинский Ю.А., Копченова Н.В. Вычислительные методы для инженеров: Учеб. пособие. — М.: Высш. шк., 2016. — 544 с.
3.Андреева, Е.А. Вариационное исчисление и методы оптимизации. / Е.А. Андреева. - М.: Высшая школа, 2006. - 584 c.
4.Аттетков, А.В. Введение в методы оптимизации / А.В. Аттетков, В.С. Зарубин, А.Н. Канатников. - М.: Финансы и статистика, 2018. - 272 c.
5.Аттетков, А.В. Методы оптимизации: Учебное пособие / А.В. Аттетков, В.С. Зарубин, А.Н. Канатников. - М.: ИЦ РИОР, НИЦ Инфра-М, 2013. - 270 c.
6.Аттетков, А.В. Методы оптимизации: Учебное пособие / А.В. Аттетков, В.С. Зарубин, А.Н. Канатников. - М.: Риор, 2016. - 48 c.
7.Бахвалов, Н.С. Численные методы [Текст] / Н.С.Бахвалов, Н.П.Жидков, Г.М Кобельков – М.: ФИЗМАТЛИТ, 2020.
8.Бирюков С.И. Оптимизация. Элементы теории и численные методы. – М:
МЗ-Пресс, 2016. – 248 с.
9.Соболь И. М. Метод Монте-Карло; Главная редакция физико-математической литературы издательства "Наука" - Москва, 2017. - 962 c.
10.Zia, T. Kirubarajan, J. P. Reilly, D. Yee, K. Punithakumar and S. Shirani, "An EM Algorithm for Nonlinear State Estimation With Model Uncertainties,"in IEEE Transactions on Signal Processing, vol. 56, no. 3, pp. 921-936, March 2018.
11.Hooke R.; Jeeves T.A. (1961). ""Direct search" solution of numerical and statistical problems". Journal of the ACM.
12.V. J. Aidala, "Kalman Filter Behavior in Bearings-Only Tracking Applications,"in IEEE Transactions on Aerospace and Electronic Systems, vol. AES-15, no. 1, pp. 29-39.
13. Gill F., Murray W., Wright M. Practical optimization: trans. from English - M.: Mir, 2015. - 509 p.
14.Greshilov A.A. Applied problems of mathematical programming: a textbook. - 2nd ed. - Moscow: Logos, 2006. - 288 p.
15.De Groot M. Optimal statistical solutions. - M: Mir, 2014.-496 p.
16. Теоретические основы управления проектами. Учебное пособие в 2-х частях [Текст] / Курлов В.В. СПб.: ГУАП. – 2021. – 64 с.
17. Основы управления проектами : [учеб. пособие] /
Л. Н. Боронина, З. В. Сенук ; М-во образования и науки Рос.
Федерации, Урал. федер. ун-т. 2-e изд., доп. — Екатеринбург : Изд-во Урал. ун-та, 2016. — 134 с.
Метод покоординатного спуска – это один из методов ограничения функций многими переменными, использующий только значения минимизированной функции [4]. Блок-схема алгоритма показана на рисунке Область использования метода: минимизируемся функции не имеет гладкости, либо не гладкая и вычислять производные слишком сложно. Для более эффективно применения было бы удобно, если функция была непрерывно дифференцируема. Метод не нуждается в знании градиента, однако сходимость может быть гарантирована только для гладкой функции. В качестве направления d_k в методе покоординатного спуска выбирается одна из координат d_k=〖[0…,0,1,0,…..,0]〗^T. Координаты будут перебираться в случайном порядке и последовательно. На этапе одномерной оптимизации вдоль очередной координаты можно использовать как точные методы, так и методы неточной оптимизации. Применение метода покоординатного спуска является особенно эффективным в ситуациях, когда задача одномерной оптимизации может быть решена аналитически. В методе покоординатного спуска значение оптимизируемой функции f не увеличивается на каждой итерации. При дополнительном предположении об ограниченности f снизу на R^Nможно показать, что для непрерывно-дифференцируемых функций метод покоординатного спуска гарантированно сходится к локальному минимуму. Более того, для строго выпуклых функций f метод сходится с линейной скоростью.