Доставка цветов в Севастополе: SevCvety.ru
Главная -> Машинное проектирование

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71

Дифференцируя (18 7) и используя тог факт, что

имеем, отбрасывая члены более высокой степени; 0~ ТО(Ф) + Н(Ф)4Ф

(18 9)

(18 10)

В случае, когда Н (Ф) не вырожденная, систему линейных уравнений (18 10) можно легко разрешить относительно ДФ

4Ф~-Н-(ф)ти(Ф).

(18 11)

где Н * (ф) - матрица, обратная матрице гессиана, Для квадратичной функции и (Ф) выбор ДФ, заданного согласно (18 11), позволяет определить приращение параметров до минимума за один шаг. Если же и (Ф) не квадратичная, то члены высшего порядка в (18 7) и (18 10) отбросить нельзя, и для достижения лучшей аппроксимации требуется итеративная процедура Схема итерации определяется соотношением

Ф,, =Ф,-Н-МФ,)и(Ф(), (18.12)

тде \.j - длина шага вдоль направления s, вычисленная с пом(ядыо методов одномерной оптимизации Направление s, определяется как !. = {-Н-(ф,)Уи(Ф.)) (18 13)

Итерации (18.12) мог)т быть шлполнены л с единой длиной шага А,. Однако использование одномерного поиска дает немало преимуществ Во-первых, минимум достигается за меньшее число шагов Во-вторых точка минимума находятся всегда, в то время как метод, прн котором длина шага фиксирована, может в некоторых случаях расходить ся В-третьих, метод Ньютона - Рафсона обычно не приводит к сходимости к седловой точке или к максимуму Несмотря на указанные достоинства метод Нькггона -PjKOHa не завоевал популярности, ш скольку При ею реализации наталкиваются ча следующие трудности

1) требуется хранить в памяти матрицу Н (Ф;) размера пХп;

2) бывает трудно (а иногда и невозможно) вычислить элементы Н (Ф,), которые являются частньшн произвддными второго порядка.

3) требуется обрашение матри1ш Н (Ф;) и вычисление произведения (ф,) V и (Ф,) на каждом этапе итерации

Эти особенности делают метод практически непригодным для реше-ння задач со сложной целевой функцией, зависящей от большого числа перемшных

13Л НЕТОД ДЭВИДСОН* ~ ФЛЕТЧЕРЛ - ПЛУЭЛЛА 5, в]

Осдавной трудностью реализации <бщенного метода Ньютона -Рафсона, рассмотренного в разд 18 2, является необходимость вычисления матрицы Н н ее обращение на каждом этапе итерации. В методе Дэвидсокз - Флетчера - Пауэлла эта трудаость преодолевается благодаря использованию в уравнениях (18.11) - (18 13) определенного приближения для матрицы, обратной гессиану Н вместо Н~ (Ф).

а аппроксимання при итерапиях постепенно У>™"!"акам образом, на и + 1)-й итерации аппроксимация С. к Н (Ф.) определяет направление поиска как в, = -О...Ш(Ф,). и результат поиска используется затем для улучшения аппроксимации Последовательные шаги аппроксимации обратной матрицы осуществляются также с учетом того, чтобы получившиеся направления были сопряженными На каждой итерация

(18 15) (18 16)

Уравнение (18 IG) получается следующим образом Рассмотрим специальную матрицу

(18.17)

которая позволяет нантм аппроксимацию к Н" Множество направлений Sj,. ., 5р взаимно сопряжено по отношению к матрице Н Если домножитк матрицу из (18 17) справа на Hs, для г= 1.2, , р, то согласно свойству сопряженности s,

j a,s,s;jHs, =,s,s;Hs, (18 18)

Если теперь положим

а,-J,(s;Hs,). П8!9) то получим

I 2 a,s,s;j Hs, s, ,18 20)

Поскольку Sr не является собственным вектором, то при р л (18 20) можно записать как

где 1 - единичная матрица Из (18 19) и (18 21) получаем

V, (18 22)

Соотношение (i8 22i дает возможность Лредположнть, что. как только получено новое сопряженное направление, частичные суммы в ((8 22) могут при.меняться для анпрокснмацни Н Хотя свойство ш-пряженноств использовано для получения формул (18.22), применение соотношений [18 22) само по себе не гарантирует того, что направ-



ления s, окажутся взаимно сопряж«1нымн. Слагаемое В, в (!8.16) добавлено для того, чтобы за счет большей гибкости соотношений можно было достичь сопряженности

Еслн Sr (г = 1,2, ,1-1) взаимно сопряжены по отношению к гессиану В, то

Еслн

(16.23) (18 24) (18.25)

5?и(Ф,)я;0 дли г = 1,2. . ,i-l (18 26>

Уравнение (18 26) является основной теоремой для сопряженных направлений Приведенные выкладки по принципу индукции шка-зывают, что если соотношение (18 25) ИJПOлйяeтcя на каждом шаг«, то S, взаимно сопряжены Чтобы опечнть выполненне соотношения

sHGis, г-1,2, (18 27)

запишем его для г - i я подставим вместо О, правую часть (18 16)

(18 28)

(18 29) (18.30)

(18.31)

sj hg, i + sj + s;hb,=s;,

По определению геа;нана. можно записать

Н (Ф, , - Ф,)=Уи (Ф,4.,1 -VU (Ф,), что, согласно (18.15), может быть записано как

Hs, ==ЛvU(Ф,+,)-VU (Ф.)} {18 32)

Используя (18,30), (18 32) и равенстш Н = Н, получаем

{Уи (Ф,,) - ?и (Ф,)} (О,-, + в,) -о (18 33)

Одно нз решений (18 33), В, G/ ,, тривиально в том смысле, что сводит (18.16) к янду

Gi-s, s;<(sHs,), (18 34)

что делает G, функцией только i-ro сопряженною направления Еслн же положить

y,-yU(0,+i)-VU(0,) (1835)

н испытать в качестве решения

В, -= -С, , у, у\ G, 3;(yf С, , y,t. (18 36)

то гюлучим

yiG, , у,

(18 37)

т. е. (18.36) - действительно является решением для В, Теперь значение В,, заданное в форые (18.36), можно подставить в (18 16) к провести процедуру минимизации (18.14) -(18 16) Однако в соотношении (18 16) предполагается, что сама матрица Н также известна н может быть использована для аппроксимации Н" Это юзможно только в некоторых специальных случаях В о(щш случае будем избегать нсполь ювания точной формулы для Н и приближать члены вида sJHs, в (18 16), используя значения G, , полученные на предыдущей итерации Для этой цели запишем

(18 38)

С учетом (18 14) соотношение (18 38) можно свести к

s;Hs,- (1 ?.,){и(Ф, + ,)5, MVU(Ф,)]Gi,,VU(Ф,)() (1839)

Поскольку градиент в точке Ф, i ортогонален s,, то первый член в правой части (18 39) равен нулю и спрак;дливо ранстш

s;Hs,=(1 ,H?U(0,)G, ,VU(0,)] (j8 40)

Теперь можно формалиювать метод Для i-h итерации

1) вычислить

s,--а, ,¥и(Ф,), (1841)

2) вычислять \, одномерной минимизацией U (Ф, -\- X,s(),

3) положить

Ф, + ,-Ф,+л,5„ (1842)

у, и(Ф,)-Ти(Ф,) (18 43)

4) вычислить

(18 44)

В начале процесса в качестм Со можно взять единичную матрицу В зтом случае имеем начальную минимизацию вдоль направления крутого спуска, которая обычно оказывается довольно эффективной на



первых начальных шагах. Начальный выбор Go = I обеспечивает положительную определенность С Можно показать, что при таком способ вычислений величин О, из положительной определенности О, следует положительная определенность 0,+, Однако с учетом возможности погрешностей а вычислениях Я, желательно каждый раз проверять по-ложн-гельную определенность О в процессе итераций и в случае необ-ходншстн посстанавливать G = I.

18 4. ОПТИМИЗАЦИЯ ЦЕЛЕВЫХ ФУНКЦИЙ НАИМЕНЬШИХ КВАДРАТОВ

Методы минимизации, рассмотренные ранее, пригодны для минимизации любой скалярной целетон функции Метод оптимизации нан-меньших квадаатов требует, что&л задача минимизации ставилась для суммы квадратов оэклоненнн параметров проектирования так, что в этом разделе U кегда обозначает сумму каадоэтав отклонений Этот раздел посвящен оптимизации целевых функций наименьших квадратов Метод осшван на гаусЕовском разреЬенни квадратичной формы В алгоритме используются градиенты каждого члена без использования одномерного поиска в пространстве проектирования

Пусть минимизируемая целевая функция имеет вид

l/f+/5+ +R, (18 45)

де д. /е- . /я - функции параметров проектирования Ф - {Ф, Фз,-- , Фя}. причем тп Минимизация U в (18 45) эквивалентна минимизации тормы т-мерного мктора целевой функции

!(Ф) = {г1(Ф)./,(Ф). ,/,(Ф)Ь (18 46)

где /i (Ф), (Ф), , (Ф) - компоненты Норму f (Ф) можно записать в виде [f (Ф)(* f (Ф), что равно U согласно (18 45) Значение вектора целевой функции f в точке Ф -f ДФ щ>жет быть оценено с гюш-щыо разложения в ряд Тейлора

! (Ф -Ь ДФ) а;! (Ф) + J (Ф) ДФ. (18 47)

где Приращение АФ предполагается малым, поэтшу членами боле& шл-гакой степени можно пренебречь, J (Ф) - матрица Якоби, определенная в (16 21). В этом методе Ф выбирается так, что норма мктора f (Ф Ч- Дф), заданного правой частью U8 47), минимальна. Используя (10,46), получаем значение ДФ, дающее минимальное значение нормы f (Ф) -Ь J (Ф) Д Ф;

ДФ - -{[ J (Ф)У J (Ф)Г [ J (Ф)] f (Ф) (18 48)

Для квадратичной функции f минимум (18 45) достигаемся за один шаг Для целевых функций высшего порядка процесс нужно повторить, т е f (Ф) и J (Ф) вычислить в точке Ф + ДФ и таким образом получить новое значение ДФ Процесс повторяется до тех пор, пока не достигается сходимость с нужной точностью Общая проблема в использовании этого метода состоит в том, что приращение ДФ, вычислетное из (18.48), может окатьея слишком большим. В таких случаях, а так-342

же если якобиан J меняется слишком быстро с изменением Ф, желатель ш ограничить каждое значение ДФ некоторым заранее заданным

Метод может быть испаьзован для различных задач оптимизации СВЧ цепей Поскольку параметры рассеяния - комплексные, они могут быть рассмотрены как два компонента вектора делевой функдин. Например, в случае ыиннмизадни входного коэффкциентэ отражения ! можно выразить в виде вектора

f-{Re(S„),Im(S„)

(18 49)

который является двумерным вектором целевой функции Другой прнмер - расчет гибридного етединения для минимизации коЦфщнента стоячей волны по напряжению и Уравнивания деления мощностей. Обычно скалярная целевая функция может быть выражена как

(18.50)

где Sj, 11 5(1 - коэффициенты связи, отлнчакщнеся по фазе на 90 , Л н В - весовые постоянные Задачу можно переформулировать через вектор целевой функции, как

f = {й Re (S„), а Im (S), b Re (S, -jS,,), b Ini (S,, -jS))*. 0S 51)

гдео* = A,bB

Тенерь рассмотренный только что метод можно использовать для миннмизации нормы f Для ooTHMHiauHH в полосе частот целевые функции на каждой из частот можно рассматривать как компоненты Вектора целевой функции

Градиентные методы, рассмотренные в данной главе, обычно эффективнее прямых методов поиска, описанных вгл 17



0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71



0.007
Яндекс.Метрика