Оптимизация дискретных систем

Пусть система может находиться в одном из состояний дискретного множества S. S* - дискретное фазовое пространство.

Для любого из возможных состояний Si определим множество допустимых управлений S. Система может переходить из одного состояния в другое. При этом будем считать, что система обладает марковским свойством, т.е. будущее состояние системы зависит только от состояния, в котором система находится в настоящий момент времени, и используемого в этот момент управления. В соответствии с этим введём функцию переходов, используя которую запишем рекуррентное соотношение, определяющее эволюцию системы

(12)

Здесь - состояние системы на i-м шаге.

Методы решения экстремальных задач при отсутствии ограничений.

Градиентные методы.

Пример отыскания максимума функции одной переменной.

Пусть y=f(x) (Рис. 28).

Рис. 28

Выберем произвольную точку х из области определения функции y=f(x). Заметим, что если точка выбрана слева от точки максимума (х = х1), то производная от f(x) в точке х1 и следовательно точка при разумном выборе величины параметра k находится ближе к экстремальной точке х0.

Если же выбранная точка оказалась правее точки х0 (х = х2), то та же конструкция по прежнему приближает решение к экстремальной точке.

Таким образом, может быть построена последовательность точек

x(1), x(2), …, x(l), x(l+1), … , (1)

вычисляемых по рекуррентному правилу

, (2)

стягивающаяся к искомой экстремальной точке х0.

Сходимость последовательности (1) к точке х0 обеспечивается рациональным выбором численного значения k, определяющего длину шага. Рекурсивное соотношение (2) легко обобщается на случай отыскания экстремума функции многих переменных.

Пусть X*T=(x*1, x*2, …, x*n) - вектор, доставляющий максимальное значение функции F(x1, x2, …, xn). Введём вектор-столбец значений частных производных от оптимизируемой функции F(X) в точке Xl , называемый градиентом, т.е.

(39)

и матрицу K(Xl).

Теперь вычисление точки Xl+1 на очередном шаге градиентной процедуры осуществим по формуле

(40) (3)

В соответствии с (3) вектор-градиент определяет направление перемещения от Xl к Xl+1, а матрица K(Xl) - длину шага.

Длина шага выбирается из следующих соображений:

её не следует выбирать слишком большой, чтобы не «проскочить» экстремум, т.к. при этом появляется опасность зацикливания;

её нежелательно выбирать слишком малой, т.к. при этом итерационная процедура последовательного приближения к экстремальной точке может оказаться очень медленно сходящейся.

В вычислительной практике широкое применение находит метод наискорейшего спуска Коши, в котором шаг выбирается из условия максимизации (минимизации) оптимизируемой функции при движении в направлении градиента.

При этом (3) записывается в виде

,

где скаляр kl определяется из условия

Метод наискорейшего спуска очень прост в реализации, но в ряде случаев не обеспечивает быстрой сходимости, т.к. используется информация о поведении в определённой пробной точке Xl лишь первых производных оптимизируемой функции.

В результате проведения некоторого числа шагов в соответствии с (3) обеспечивается попадание внутрь произвольно малой окрестности экстремальной точки.

Критерием для останова может служить величина модуля вектора-градиента

Градиентную процедуру считаем законченной, как только численное значение модуля окажется < .

Существенный недостаток: при реализации каждая итерация выполняется независимо от других, т.е. информация, которая могла бы ускорить сходимость, не накапливается и не используется.

«Метод переменной метрики» использует информацию о поведении оптимизируемой функции в уже пройденных точках.

Достоинство: не требуется наличия аналитического представления производной от оптимизируемой функции и умение решать систему уравнений (7.1).

Необходимо уметь вычислять частные производные от функции F(X) в отдельных точках области определения.

В особо сложных случаях оценку численного значения производной можно получить, используя конечные приращения функции в нужных точках.

 
< Пред   СОДЕРЖАНИЕ   Скачать   След >