5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts.

Relevanta dokument
5B1817 Tillämpad ickelinjär optimering. Optimalitetsvillkor för problem med linjära bivillkor.

5B1817 Tillämpad ickelinjär optimering. Kvadratisk programmering med olikhetsbivillkor Active-set metoder

--x T Kx. Ka = f. K( a a i. = f f i. r i. = a a i. Ke i. a i 1. p i. Ka i. p i Kai α i

1 Ickelinjär optimering under bivillkor

Extrempunkt. Polyeder

1 Konvexa optimeringsproblem grundläggande egenskaper

5B1816 Tillämpad mat. prog. ickelinjära problem. Optimalitetsvillkor för problem med ickelinjära bivillkor

Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Onsdag 25 augusti 2010 kl

Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA

1 Duala problem vid linjär optimering

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

Lösningar till 5B1762 Optimeringslära för T, 24/5-07

Optimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition

1 LP-problem på standardform och Simplexmetoden

Lösningar till SF1861/SF1851 Optimeringslära, 24/5 2013

Lösningar till tentan i 5B1760 Linjär och kvadratisk optimering, 17 december 2003.

1 Kvadratisk optimering under linjära likhetsbivillkor

Lösningar till SF1852 Optimeringslära för E, 16/1 08

1 Positivt definita och positivt semidefinita matriser

Föreläsning 7: Kvadratisk optimering. 4. Kvadratisk optimering under linjära bivillkor

TNK049 Optimeringslära

TNK049 Optimeringslära

Optimering av strålterapi

Olinjär optimering med bivillkor: KKT min f (x) då g i (x) 0 för alla i

Institutionen för Matematik TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA DAG: Fredag 30 augusti 2002 TID:

Crash Course Algebra och geometri. Ambjörn Karlsson c januari 2016

SF1624 Algebra och geometri

TMV166 Linjär Algebra för M. Tentamen

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

Lösningar till tentan i SF1861 Optimeringslära, 1 juni 2017

x 1 x 2 T (X) = T ( x 3 x 4 x 5

Linjär algebra Föreläsning 10

CHALMERS Finit Elementmetod M3 Institutionen för tillämpad mekanik. Teorifrågor

Institutionen för Matematik. F1 - Linjär algebra och numerisk analys, TMA671 Svar till övningar i Heath s bok och extraövningar

Approximerande Splines. B-splines. Minsta kvadrat anpassning. Design av kurvor och ytor.

SF1624 Algebra och geometri

TANA09 Föreläsning 8. Kubiska splines. B-Splines. Approximerande Splines. B-splines. Minsta kvadrat anpassning. Design av kurvor och ytor.

Optimeringsproblem. 1 Inledning. 2 Optimering utan bivillkor. CTH/GU STUDIO 6 TMV036c /2015 Matematiska vetenskaper

De optimeringsproblem som kommer att behandlas i denna kurs kan alla (i princip) skrivas. 1 2 xt Hx + c T x. minimera

SF1624 Algebra och geometri

TMV036 Analys och linjär algebra K Kf Bt, del C

TMV166 Linjär algebra för M, vt 2016

Fö4: Kondition och approximation. Andrea Alessandro Ruggiu

Föreläsning 5. Approximationsteori

BEGREPPSMÄSSIGA PROBLEM

Institutionen för Matematik TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA DAG: Lördag 26 maj 2001 TID:

1 Linjära ekvationssystem. 2 Vektorer

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA671

Institutionen för Matematik TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA DAG: Fredag 26 augusti 2005 TID:

Minsta kvadratmetoden

Numerisk Analys, MMG410. Exercises 2. 1/33

Optimeringslära Kaj Holmberg

Optimering med bivillkor

Vektorgeometri för gymnasister

LINJÄR ALGEBRA II LEKTION 6

Lösningar till tentan i SF1861 Optimeringslära, 3 Juni, 2016

6.3. Direkta sökmetoder

Tentamen TMA946/MAN280 tillämpad optimeringslära

Lösningar till några övningar inför lappskrivning nummer 3 på kursen Linjär algebra för D, vt 15.

8 Minsta kvadratmetoden

2 = 3 = 1. ekvationssystem är beskriven som de vektorer X =

Optimering med bivillkor

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra, SF1604, den 15 mars 2012 kl

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016

1 Grundläggande kalkyler med vektorer och matriser

Lösningar till utvalda uppgifter i kapitel 8

Vektorgeometri för gymnasister

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

Laboration 1 i SF1544: Öva på Matlab och konstruera en optimal balk Avsikten med denna laboration är att:

Vektorgeometri för gymnasister

Tentamen del 1 SF1511, , kl , Numeriska metoder och grundläggande programmering

Laboration 1: Optimalt sparande

Analys av jämviktslägen till differentialekvationer

Hjälpmedel: inga Chalmers tekniska högskola Datum: kl Telefonvakt: Peter Hegarty (a) Låt (3p)

Linjär Algebra, Föreläsning 9

Optimeringslära Kaj Holmberg

Vektorgeometri för gymnasister

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Vektorgeometri för gymnasister

Lösningar till SF1861 Optimeringslära, 28 maj 2012

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer

SKRIVNING I VEKTORGEOMETRI

Iterativa metoder för linjära ekvationssystem

Institutionen för Matematiska Vetenskaper TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA

15 februari 2016 Sida 1 / 32

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 17 april 2010 kl

1 De fyra fundamentala underrummen till en matris

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

TSRT09 Reglerteori. Sammanfattning av Föreläsning 1. Sammanfattning av Föreläsning 1, forts. Sammanfattning av Föreläsning 1, forts.

Tentamen del 1 SF1546, , , Numeriska metoder, grundkurs

Numerisk Analys, MMG410. Lecture 8. 1/30

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

Vektorgeometri för gymnasister

TENTAMEN I GRUNDKURS I NUMERISKA METODER - DEL 20

1 som går genom punkten (1, 3) och är parallell med vektorn.

November 24, Egenvärde och egenvektor. (en likformig expansion med faktor 2) (en rotation 30 grader moturs)

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

Transkript:

5B1817 Tillämpad ickelinjär optimering Föreläsning 5 Metoder för problem utan bivillkor, forts. A. Forsgren, KTH 1 Föreläsning 5 5B1817 2006/2007

Lösningar För en given metod blir en lösning den bästa punkt metoden kan ge. ˆ Med en metod som använder förstaderivatsinformation blir en lösning typiskt en punkt som uppfyller f(x ) = 0. Exempel: steepest descent. ˆ Med en metod som även använder andraderivatsinformation blir en lösning typiskt en punkt där f(x ) = 0 och 2 f(x ) 0. Exempel: Modifierad Newtonmetod. (Dock behöver man använda även negativa krökningsriktningar för att uppnå detta.) OBS! Vi kan inte med någon av dessa metoder garantera att vi når en lokal minpunkt, om vi inte antar konvexitet eller något motsvarande. Vi kan dock testa om andra ordningens tillräckliga optimalitetsvillkor är uppfyllda om vi använder en andraderivatsmetod. A. Forsgren, KTH 2 Föreläsning 5 5B1817 2006/2007

Gradientbaserade metoder för problem utan bivillkor Betrakta återigen ett ickelinjärt programmeringsproblem utan bivillkor (P ) min f(x) då x IR n, där f C 2. Vi ska nu titta på metoder som använder förstaderivator, liksom steepest-descentmetoden, men på ett bättre sätt. Speciellt kvasi-newtonmetoder och konjugerade gradientmetoden. Båda har motivering från kvadratisk programmering. A. Forsgren, KTH 3 Föreläsning 5 5B1817 2006/2007

Kvasi-Newtonuppdatering En kvasi-newtonmetod beräknar sökriktningen p k ur B k p k = f(x k ), där B k = Bk T 0 och låter B k+1 = B k + C k, där C k är en symmetrisk matris av låg rang, typiskt rang ett eller rang två. Antag att f(x) = 1 2 xt Hx + c T x, där H = H T 0. Då blir f(x k + α k p k ) = f(x k ) + α k Hp k. Alternativt kan vi skriva Hs k = y k, där s k = α k p k och y k = f(x k+1 ) f(x k ). Motiverat av denna kvadratiska modell, krävs i en kvasi-newtonmetod att B k+1 ska uppfylla Kvasi-Newtonvillkoret B k+1 s k = y k, där s k = α k p k och y k = f(x k+1 ) f(x k ). A. Forsgren, KTH 4 Föreläsning 5 5B1817 2006/2007

Kvasi-Newtonmetod Iteration k i en linjesökande kvasi-newtonmetod tar följande form i en given punkt x k med Hessianapproximation B k. ˆ Beräkna sökriktning p k ur B k p k = f(x k ). ˆ Lös approximativt min α 0 f(x k + αp k ), vilket ger α k. ˆ x k+1 x k + α k p k. ˆ s k x k+1 x k, y k f(x k+1 ) f(x k ) ˆ B k+1 B k + C k, där B k+1 s k = y k och B k+1 0 krävs. Olika metoder baseras på olika val av C k och α k. Typiskt har C k rang ett eller rang två. Typiskt väljs B 0 = I. A. Forsgren, KTH 5 Föreläsning 5 5B1817 2006/2007

Symmetriska rang-ett uppdateringen Påstående. Låt B k vara en symmetrisk matris. Låt B k+1 = B k + C k, där C k är symmetrisk med rang ett. Antag att B k+1 s k = y k och (y k B k s k ) T s k 0. Då blir 1 C k = (y (y k B k s k ) T k B k s k )(y k B k s k ) T. s k Bevis. Se Nash och Sofer, Lemma 11.4. Vi kan skriva B k+1 = B k + γ k w k wk T, där w k = 1. Kvasi-Newtonvillkoret ger B k s k + γ k w k wks T 1 k = y k, dvs w k = γ k wk Ts (y k B k s k ). Då w k = 1 får k vi γ k(y k B k s k ) T s k = y k B k s k, vilket ger γ k = y k B k s k 2. y k B k s k (y k B k s k ) T s k Insättning ger γ k w k wk T = C k. Symmetriska rang-ett uppdateringen är unik. B k+1 0 ej garanterad. A. Forsgren, KTH 6 Föreläsning 5 5B1817 2006/2007

BFGS-uppdateringen Rang-två uppdateringen är inte unik. BFGS-uppdateringen ges av B k+1 = B k 1 s T k B B k s k s T k B k + 1 ks k yk Ts y k yk T. k Påstående. Låt B = Bk T 0, och låt B k+1 vara BFGS-uppdateringen av B k. Då är B k+1 0 om och endast om yks T k > 0. Bevis. Se Nash och Sofer, Lemma 11.5. Positiv definithet kan garanteras om Wolfe-villkor används i linjesökningen. Då får vi f(x k+1 ) T s k η f(x k ) T s k, vilket ger yks T k (1 η) f(x k ) T s k > 0. Om R k är Choleskyfaktor av B k, dvs B k = RkR T k, kan BFGS-uppdateringen göras som en rang-ett uppdatering av R k till R k+1. A. Forsgren, KTH 7 Föreläsning 5 5B1817 2006/2007

Kvasi-Newtonmetod på kvadratiskt problem Antag att en kvasi-newtonmetod appliceras på ett kvadratisk problem där f(x) = 1 2 xt Hx + c T x, H = H T 0. Antag också att exakt linjesökning utförs samt att {B k } är positivt definita. Då är problemet löst i högst n iterationer och B n = H. Detta innebär att en kvasi-newtonmetod löser sitt kvadratiska modellproblem i ett ändligt antal iterationer, till skillnad från steepest-descentmetoden. Man kan visa ovanstående genom att visa att en kvasi-newtonmetod genererar konjugerade sökriktningar för ett kvadratiskt problem. På ett kvadratiskt problem blir metoden ekvivalent med konjugerade gradientmetoden. A. Forsgren, KTH 8 Föreläsning 5 5B1817 2006/2007

Lösning av ekvationssystem med positivt definit matris Antag att vi vill lösa Hx = c, där H = H T 0. Ekvivalent, minimera f(x) = 1 2 xt Hx + c T x. Alternativ: ˆ Fatoriseringsmetod. Förslag: Choleskyfaktorisering, H = R T R, R högtriangulär. ˆ Iterativ metod. Förslag: Konjugerade gradientmetoden. Struktur hos H avgör vad som är mest effektivt. A. Forsgren, KTH 9 Föreläsning 5 5B1817 2006/2007

Konjugerade riktningar Konjugerade gradientmetoden är en iterativ metod som använder sig av konjugerade sökriktningar. Definition. En mängd vektorer i IR n, {p i }, sägs vara konjugerade med avseende på en positivt definit symmetrisk n n-matris H om p T i Hp j = 0 för i j. Påstående. Konjugerade riktningar är linjärt oberoende. Bevis. Låt p i, i = 1,..., m, vara konjugerade riktningar. Antag att mi=1 γ i p i = 0 för några γ i, i = 1,..., m. Då blir m i=1 γ i p T jhp i = 0 för en godtycklig vektor p j bland de konjugerade riktningarna. Då riktningarna är konjugerade ger detta γ j p T jhp j = 0, och eftersom H 0 och p j 0 får vi γ j = 0. A. Forsgren, KTH 10 Föreläsning 5 5B1817 2006/2007

Konjugerade riktningar, forts. Låt f(x) = 1 2 xt Hx + c T x, där H = H T 0. Låt y = f(y) = m k=1 m k=1 α k p k, där p k, k = 1,..., m är konjugerade. Då blir ( α 2 k 2 pt khp k + α k c T p k ), vilket ger α k = ct p k p T k Hp. k Konjugerade riktningar ger alltså ett separabelt problem. A. Forsgren, KTH 11 Föreläsning 5 5B1817 2006/2007

Linjära konjugerade gradientmetoden Iteration k i konjugerade gradientmetoden tar följande form i en given punkt x k med g k = Hx k + c och p k 1 givna. ˆ β k gt kg k g T k 1 g k 1 ˆ p k g k + β k p k 1. ˆ α k gt kp k p T k Hp k ˆ x k+1 x k + α k p k. ˆ g k+1 g k + α k Hp k. Initialt väljs β 0 = 0. om k 1. = gt kg k p T k Hp. k Då g k = 0 är problemet löst. I praktiken g k < ɛ. A. Forsgren, KTH 12 Föreläsning 5 5B1817 2006/2007

Linjära konjugerade gradientmetoden, forts. Påstående. Antag att {p k } och {g k } genereras med konjugerade gradientmetoden. Då gäller att gkg T l = 0, gkp T l = 0 och p T khp l = 0 för k > l. Bevis. Se Nash och Sofer, Theorem 12.1. Detta innebär att sökriktningarna {p k } är konjugerade samt att gradienterna {g k } är inbördes ortogonala samt ortogonala mot alla tidigare sökriktningar. En konsekvens är att linjära konjugerade gradientmetoden konvergerar i högst n iterationer. I praktiken behöver H ofta förkonditioneras med en positivt definit matris M som liknar H men där det är lätt att lösa ekvationssystem Mz k = r k. I stället för att lösa Hx = c löser man M 1 Hx = M 1 c. A. Forsgren, KTH 13 Föreläsning 5 5B1817 2006/2007

Ickelinjära konjugerade gradientmetoder Antag nu att f(x) är en ickelinjär (ej nödvändigtvis kvadratisk) funktion. Iteration k i en ickelinjär konjugerad gradientmetod i en punkt x k kan skrivas på följande form. ˆ β k f(x k) T f(x k ) f(x k 1 ) T f(x k 1 ) om k 1. ˆ p k f(x k ) + β k p k 1. ˆ Lös approximativt min α 0 f(x k + αp k ), vilket ger α k. ˆ x k+1 x k + α k p k. Initialt väljs β 0 = 0. Då f(x k ) = 0 är problemet löst. I praktiken f(x k ) < ɛ. Idén är att försöka få bättre metod än steepest descent. A. Forsgren, KTH 14 Föreläsning 5 5B1817 2006/2007