Метод сопряжённых градиентов
Автор: Elizaveta1497 • Январь 26, 2019 • Контрольная работа • 2,523 Слов (11 Страниц) • 405 Просмотры
ВВЕДЕНИЕ
Термин «Оптимум» рассматривался ещё в XVII в. Готфридом В. Лейбницем. В своей теории о мире Лейбниц излагал как об «Оптимуме» - в переводе с латинского, как наилучший их возможных миров. Но, к сожалению, в работах Лейбница не было такого понятия как «допустимость». Но уже тогда было исторически доказано, что понятие оптимизация имеет отношения к математическим наукам. Так как математика наука точная, то и на изучение вычислительных задач затрачено довольно много времени.
Для это была создана оптимизация в математике. Раздел математики «Оптимизация» существует очень давно. Это нахождение max и min функции, выполняя некоторые ограничения. Так же оптимизация существует и как раздел информатики - видоизменение системы для улучшения её работы и эффективности. Оптимизация - это выбор, т.е. это то, чем мы постоянно занимаемся в повседневной жизни. «Оптимизация" на языке литературы - ход или последовательность действий, дающая возможность получить верное решение. Её целью является поиск одного правильного результата, но во многих случаях приходится довольствовать тем, что имеем, а не улучшением данных. Мы ежедневно сталкивается с такой проблемой как получить какой то эффект от деятельности и затратить на это меньше всего ресурсов. Под оптимизацией понимают скорее интерес к совершенству, который может быть и не достигнут.
Алгоритм формулировки задачи:
1. выполнение технологических требований — (выход продукта, содержание примесей в нем и др.);
2. варьирующие параметры (например, температура, давление) изменения которых, позволяют влиять на результат;
3. математическая модель процесса;
4. ограничения, связанные не только с экономическими процессами, но и с технологическими, зависящие от аппаратуры.
Отсюда получаем вывод, что бы решить задачу оптимальности» нужно найти самый благоприятный и выгодный на ваш взгляд вариант. Подбирая варианты мы так же сталкиваемся с процессами оптимизации. Ежедневно мы сталкиваемся с такими задачами, и они иногда легко решаемые, а бывают, что нужно подумать и составить какую либо модель, например: «модель-алгоритм-программа».
Методы оптимизации делятся на прямые и итерационные. Первые (прямые) методы задействуются прямо с уменьшившей функцией и представляют собой изменение с получением новых свойств безусловной минимизации, они позволяют произвести спуск к искомой точке min, не дают уйти за пределы возможной области, определяемой соотношениями. Смысл метода открывается в отыскивании по приближённому значению величины вытекающего приближения.
Образцом метода оптимизации используется итерационный метод Ньютона, решением задач, которых является шанс определить 0 первой производной либо градиента в случае многомерного пространства. Различают:
1. задачи безусловной оптимизации;
2. задачи условной оптимизации;
3. задачи математического программирования;
4.задачи выпуклого программирования;
5. численные методы оптимизации.
В этой контрольной работе мы более подробно остановимся на решении задач безусловной оптимизации с использованием методов сопряженных градиентов.
Безусловная оптимизация
Вопрос безусловной оптимизации заключается в нахождении min или max функции в дефиците каких-либо ограничений. Эти задачи оптимизации встречаются в инженерной практике, их используют при реализации сложных итерактивных процедур оптимизации. Существует много алгоритмов, которые относительно можно собрать таким образом.
* методы исключения интервалов;
* метод половинного деления;
* метод "золотого" сечения;
* метод Фибоначчи;
...