|
Главная -> Машинное проектирование 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 Дифференцируя (18 7) и используя тог факт, что имеем, отбрасывая члены более высокой степени; 0~ ТО(Ф) + Н(Ф)4Ф (18 9) (18 10) В случае, когда Н (Ф) не вырожденная, систему линейных уравнений (18 10) можно легко разрешить относительно ДФ 4Ф~-Н-(ф)ти(Ф). (18 11) где Н * (ф) - матрица, обратная матрице гессиана, Для квадратичной функции и (Ф) выбор ДФ, заданного согласно (18 11), позволяет определить приращение параметров до минимума за один шаг. Если же и (Ф) не квадратичная, то члены высшего порядка в (18 7) и (18 10) отбросить нельзя, и для достижения лучшей аппроксимации требуется итеративная процедура Схема итерации определяется соотношением Ф,, =Ф,-Н-МФ,)и(Ф(), (18.12) тде \.j - длина шага вдоль направления s, вычисленная с пом(ядыо методов одномерной оптимизации Направление s, определяется как !. = {-Н-(ф,)Уи(Ф.)) (18 13) Итерации (18.12) мог)т быть шлполнены л с единой длиной шага А,. Однако использование одномерного поиска дает немало преимуществ Во-первых, минимум достигается за меньшее число шагов Во-вторых точка минимума находятся всегда, в то время как метод, прн котором длина шага фиксирована, может в некоторых случаях расходить ся В-третьих, метод Ньютона - Рафсона обычно не приводит к сходимости к седловой точке или к максимуму Несмотря на указанные достоинства метод Нькггона -PjKOHa не завоевал популярности, ш скольку При ею реализации наталкиваются ча следующие трудности 1) требуется хранить в памяти матрицу Н (Ф;) размера пХп; 2) бывает трудно (а иногда и невозможно) вычислить элементы Н (Ф,), которые являются частньшн произвддными второго порядка. 3) требуется обрашение матри1ш Н (Ф;) и вычисление произведения (ф,) V и (Ф,) на каждом этапе итерации Эти особенности делают метод практически непригодным для реше-ння задач со сложной целевой функцией, зависящей от большого числа перемшных 13Л НЕТОД ДЭВИДСОН* ~ ФЛЕТЧЕРЛ - ПЛУЭЛЛА 5, в] Осдавной трудностью реализации <бщенного метода Ньютона -Рафсона, рассмотренного в разд 18 2, является необходимость вычисления матрицы Н н ее обращение на каждом этапе итерации. В методе Дэвидсокз - Флетчера - Пауэлла эта трудаость преодолевается благодаря использованию в уравнениях (18.11) - (18 13) определенного приближения для матрицы, обратной гессиану Н вместо Н~ (Ф). а аппроксимання при итерапиях постепенно У>™"!"акам образом, на и + 1)-й итерации аппроксимация С. к Н (Ф.) определяет направление поиска как в, = -О...Ш(Ф,). и результат поиска используется затем для улучшения аппроксимации Последовательные шаги аппроксимации обратной матрицы осуществляются также с учетом того, чтобы получившиеся направления были сопряженными На каждой итерация (18 15) (18 16) Уравнение (18 IG) получается следующим образом Рассмотрим специальную матрицу (18.17) которая позволяет нантм аппроксимацию к Н" Множество направлений Sj,. ., 5р взаимно сопряжено по отношению к матрице Н Если домножитк матрицу из (18 17) справа на Hs, для г= 1.2, , р, то согласно свойству сопряженности s, j a,s,s;jHs, =,s,s;Hs, (18 18) Если теперь положим а,-J,(s;Hs,). П8!9) то получим I 2 a,s,s;j Hs, s, ,18 20) Поскольку Sr не является собственным вектором, то при р л (18 20) можно записать как где 1 - единичная матрица Из (18 19) и (18 21) получаем V, (18 22) Соотношение (i8 22i дает возможность Лредположнть, что. как только получено новое сопряженное направление, частичные суммы в ((8 22) могут при.меняться для анпрокснмацни Н Хотя свойство ш-пряженноств использовано для получения формул (18.22), применение соотношений [18 22) само по себе не гарантирует того, что направ- ления s, окажутся взаимно сопряж«1нымн. Слагаемое В, в (!8.16) добавлено для того, чтобы за счет большей гибкости соотношений можно было достичь сопряженности Еслн Sr (г = 1,2, ,1-1) взаимно сопряжены по отношению к гессиану В, то Еслн (16.23) (18 24) (18.25) 5?и(Ф,)я;0 дли г = 1,2. . ,i-l (18 26> Уравнение (18 26) является основной теоремой для сопряженных направлений Приведенные выкладки по принципу индукции шка-зывают, что если соотношение (18 25) ИJПOлйяeтcя на каждом шаг«, то S, взаимно сопряжены Чтобы опечнть выполненне соотношения sHGis, г-1,2, (18 27) запишем его для г - i я подставим вместо О, правую часть (18 16) (18 28) (18 29) (18.30) (18.31) sj hg, i + sj + s;hb,=s;, По определению геа;нана. можно записать Н (Ф, , - Ф,)=Уи (Ф,4.,1 -VU (Ф,), что, согласно (18.15), может быть записано как Hs, ==ЛvU(Ф,+,)-VU (Ф.)} {18 32) Используя (18,30), (18 32) и равенстш Н = Н, получаем {Уи (Ф,,) - ?и (Ф,)} (О,-, + в,) -о (18 33) Одно нз решений (18 33), В, G/ ,, тривиально в том смысле, что сводит (18.16) к янду Gi-s, s;<(sHs,), (18 34) что делает G, функцией только i-ro сопряженною направления Еслн же положить y,-yU(0,+i)-VU(0,) (1835) н испытать в качестве решения В, -= -С, , у, у\ G, 3;(yf С, , y,t. (18 36) то гюлучим yiG, , у, (18 37) т. е. (18.36) - действительно является решением для В, Теперь значение В,, заданное в форые (18.36), можно подставить в (18 16) к провести процедуру минимизации (18.14) -(18 16) Однако в соотношении (18 16) предполагается, что сама матрица Н также известна н может быть использована для аппроксимации Н" Это юзможно только в некоторых специальных случаях В о(щш случае будем избегать нсполь ювания точной формулы для Н и приближать члены вида sJHs, в (18 16), используя значения G, , полученные на предыдущей итерации Для этой цели запишем (18 38) С учетом (18 14) соотношение (18 38) можно свести к s;Hs,- (1 ?.,){и(Ф, + ,)5, MVU(Ф,)]Gi,,VU(Ф,)() (1839) Поскольку градиент в точке Ф, i ортогонален s,, то первый член в правой части (18 39) равен нулю и спрак;дливо ранстш s;Hs,=(1 ,H?U(0,)G, ,VU(0,)] (j8 40) Теперь можно формалиювать метод Для i-h итерации 1) вычислить s,--а, ,¥и(Ф,), (1841) 2) вычислять \, одномерной минимизацией U (Ф, -\- X,s(), 3) положить Ф, + ,-Ф,+л,5„ (1842) у, и(Ф,)-Ти(Ф,) (18 43) 4) вычислить (18 44) В начале процесса в качестм Со можно взять единичную матрицу В зтом случае имеем начальную минимизацию вдоль направления крутого спуска, которая обычно оказывается довольно эффективной на первых начальных шагах. Начальный выбор Go = I обеспечивает положительную определенность С Можно показать, что при таком способ вычислений величин О, из положительной определенности О, следует положительная определенность 0,+, Однако с учетом возможности погрешностей а вычислениях Я, желательно каждый раз проверять по-ложн-гельную определенность О в процессе итераций и в случае необ-ходншстн посстанавливать G = I. 18 4. ОПТИМИЗАЦИЯ ЦЕЛЕВЫХ ФУНКЦИЙ НАИМЕНЬШИХ КВАДРАТОВ Методы минимизации, рассмотренные ранее, пригодны для минимизации любой скалярной целетон функции Метод оптимизации нан-меньших квадаатов требует, что&л задача минимизации ставилась для суммы квадратов оэклоненнн параметров проектирования так, что в этом разделе U кегда обозначает сумму каадоэтав отклонений Этот раздел посвящен оптимизации целевых функций наименьших квадратов Метод осшван на гаусЕовском разреЬенни квадратичной формы В алгоритме используются градиенты каждого члена без использования одномерного поиска в пространстве проектирования Пусть минимизируемая целевая функция имеет вид l/f+/5+ +R, (18 45) де д. /е- . /я - функции параметров проектирования Ф - {Ф, Фз,-- , Фя}. причем тп Минимизация U в (18 45) эквивалентна минимизации тормы т-мерного мктора целевой функции !(Ф) = {г1(Ф)./,(Ф). ,/,(Ф)Ь (18 46) где /i (Ф), (Ф), , (Ф) - компоненты Норму f (Ф) можно записать в виде [f (Ф)(* f (Ф), что равно U согласно (18 45) Значение вектора целевой функции f в точке Ф -f ДФ щ>жет быть оценено с гюш-щыо разложения в ряд Тейлора ! (Ф -Ь ДФ) а;! (Ф) + J (Ф) ДФ. (18 47) где Приращение АФ предполагается малым, поэтшу членами боле& шл-гакой степени можно пренебречь, J (Ф) - матрица Якоби, определенная в (16 21). В этом методе Ф выбирается так, что норма мктора f (Ф Ч- Дф), заданного правой частью U8 47), минимальна. Используя (10,46), получаем значение ДФ, дающее минимальное значение нормы f (Ф) -Ь J (Ф) Д Ф; ДФ - -{[ J (Ф)У J (Ф)Г [ J (Ф)] f (Ф) (18 48) Для квадратичной функции f минимум (18 45) достигаемся за один шаг Для целевых функций высшего порядка процесс нужно повторить, т е f (Ф) и J (Ф) вычислить в точке Ф + ДФ и таким образом получить новое значение ДФ Процесс повторяется до тех пор, пока не достигается сходимость с нужной точностью Общая проблема в использовании этого метода состоит в том, что приращение ДФ, вычислетное из (18.48), может окатьея слишком большим. В таких случаях, а так-342 же если якобиан J меняется слишком быстро с изменением Ф, желатель ш ограничить каждое значение ДФ некоторым заранее заданным Метод может быть испаьзован для различных задач оптимизации СВЧ цепей Поскольку параметры рассеяния - комплексные, они могут быть рассмотрены как два компонента вектора делевой функдин. Например, в случае ыиннмизадни входного коэффкциентэ отражения ! можно выразить в виде вектора f-{Re(S„),Im(S„) (18 49) который является двумерным вектором целевой функции Другой прнмер - расчет гибридного етединения для минимизации коЦфщнента стоячей волны по напряжению и Уравнивания деления мощностей. Обычно скалярная целевая функция может быть выражена как (18.50) где Sj, 11 5(1 - коэффициенты связи, отлнчакщнеся по фазе на 90 , Л н В - весовые постоянные Задачу можно переформулировать через вектор целевой функции, как f = {й Re (S„), а Im (S), b Re (S, -jS,,), b Ini (S,, -jS))*. 0S 51) гдео* = A,bB Тенерь рассмотренный только что метод можно использовать для миннмизации нормы f Для ooTHMHiauHH в полосе частот целевые функции на каждой из частот можно рассматривать как компоненты Вектора целевой функции Градиентные методы, рассмотренные в данной главе, обычно эффективнее прямых методов поиска, описанных вгл 17 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 0.0058 |
|