1 Duala problem vid linjär optimering

Relevanta dokument
1 LP-problem på standardform och Simplexmetoden

1 De fyra fundamentala underrummen till en matris

Lösningar till SF1861/SF1851 Optimeringslära, 24/5 2013

Lösningar till 5B1762 Optimeringslära för T, 24/5-07

1 Konvexa optimeringsproblem grundläggande egenskaper

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

Föreläsning 2: Simplexmetoden. 1. Repetition av geometriska simplexmetoden. 2. Linjärprogrammeringsproblem på standardform.

1 Minkostnadsflödesproblem i nätverk

Lösningar till tentan i 5B1760 Linjär och kvadratisk optimering, 17 december 2003.

De optimeringsproblem som kommer att behandlas i denna kurs kan alla (i princip) skrivas. 1 2 xt Hx + c T x. minimera

Lösningar till SF1852 Optimeringslära för E, 16/1 08

Optimeringslära för T (SF1861)

Linjärprogramming. EG2205 Föreläsning 7, vårterminen 2015 Mikael Amelin

1 Ickelinjär optimering under bivillkor

Optimalitetsvillkor. Optimum? Matematisk notation. Optimum? Definition. Definition

1 Grundläggande kalkyler med vektorer och matriser

1 Kvadratisk optimering under linjära likhetsbivillkor

Lösningar till SF1861 Optimeringslära, 28 maj 2012

1 Positivt definita och positivt semidefinita matriser

Lösningar till tentan i SF1861 Optimeringslära, 1 juni 2017

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Onsdag 25 augusti 2010 kl

Lösningar till tentan i SF1861 Optimeringslära, 3 Juni, 2016

Föreläsning 7: Kvadratisk optimering. 4. Kvadratisk optimering under linjära bivillkor

Hemuppgift 2, SF1861 Optimeringslära för T, VT-10

TAOP33/TEN 2 KOMBINATORISK OPTIMERING GRUNDKURS för D och C

Tentamensinstruktioner. När Du löser uppgifterna

Hemuppgift 1, SF1861 Optimeringslära, VT 2017

Hemuppgift 1, SF1861 Optimeringslära för T

SF1624 Algebra och geometri

5B1817 Tillämpad ickelinjär optimering. Optimalitetsvillkor för problem med linjära bivillkor.

Tentamensinstruktioner. När Du löser uppgifterna

2 = 3 = 1. ekvationssystem är beskriven som de vektorer X =

Linjär Algebra M/TD Läsvecka 1

Hemuppgift 1, SF1861 Optimeringslära, VT 2016

Egenvärden och egenvektorer

TNK049 Optimeringslära

Olinjär optimering med bivillkor: KKT min f (x) då g i (x) 0 för alla i

5B1817 Tillämpad ickelinjär optimering. Metoder för problem utan bivillkor, forts.

TMV166/186 Linjär Algebra M/TD 2011/2012 Läsvecka 1. Omfattning. Innehåll Lay, kapitel , Linjära ekvationer i linjär algebra

Uppgift 1 ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

Tentamensinstruktioner. När Du löser uppgifterna

Föreläsning 9: NP-fullständighet

MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET MED MATRISINVERSER = = =

6.4. Linjära ekvationssytem och matriser

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

MIO310 OPTIMERING OCH SIMULERING, 4 p

Vectorer, spannet av vektorer, lösningsmängd av ett ekvationssystem.

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp

November 17, 2015 (1) en enda lsg. Obs det A = 1 0. (2) k-parameter lsg. Obs det A = 0. k-kolonner efter sista ledande ettan

Föreläsning 7. Felrättande koder

Mer om analytisk geometri

Vektorgeometri för gymnasister

SF1624 Algebra och geometri

Vektorgeometri för gymnasister

Tentamensinstruktioner. Vid skrivningens slut

Tentamensinstruktioner. När Du löser uppgifterna

Linjära avbildningar. Låt R n vara mängden av alla vektorer med n komponenter, d.v.s. x 1 x 2. x = R n = x n

Optimering med bivillkor

Vektorgeometri för gymnasister

Föreläsning 13 Linjär Algebra och Geometri I

Linjär algebra I, vt 12 Vecko PM läsvecka 4

Algebraiska egenskaper hos R n i)u + v = v + U

Linjärprogrammering (Kap 3,4 och 5)

Vektorgeometri för gymnasister

Chalmers tekniska högskola Datum: kl Telefonvakt: Linnea Hietala MVE480 Linjär algebra S

Flöde i nätverk. Flöde i nätverk. Specialfall av minkostnadsflödesproblemet

x(t) I elimeringsmetoden deriverar vi den första ekvationen och sätter in x 2(t) från den andra ekvationen:

MIO310 OPTIMERING OCH SIMULERING, 4 p

Stora bilden av Linjära algebran. Vektorrum, linjära transformationer, matriser (sammanfattning av begrepp)

TMV166 Linjär Algebra för M. Tentamen

VEKTORRUMMET R n. 1. Introduktion

8 Minsta kvadratmetoden

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1/TM1, TMA

Minsta kvadratmetoden

Vektorgeometri för gymnasister

Härledning av Black-Littermans formel mha allmänna linjära modellen

Basbyte (variabelbyte)

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

Optimeringslära Kaj Holmberg

TAOP07/TEN1 OPTIMERINGSLÄRA GRUNDKURS för Y. Antal uppgifter: 7 Uppgifterna är inte ordnade efter svårighetsgrad.

Linjär algebra Föreläsning 10

LP-problem. Vårt första exempel. Baslösningar representerar extrempunkter. Baslösningar representerar extrempunkter

Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner. 2? Det är komplicerat att

Lösning till tentamensskrivning på kursen Linjär algebra, SF1604, den 12 mars 2013 kl

SKRIVNING I VEKTORGEOMETRI

Lösningsförslag till övningsuppgifter, del V

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 9 juni 2011 kl

10.4. Linjära höljet LINJÄRA RUM

November 24, Egenvärde och egenvektor. (en likformig expansion med faktor 2) (en rotation 30 grader moturs)

Linjär Algebra M/TD Läsvecka 3

TMV166 Linjär algebra för M, vt 2016

TNK049 Optimeringslära

e = (e 1, e 2, e 3 ), kan en godtycklig linjär

TAOP88/TEN 1 OPTIMERING FÖR INGENJÖRER

Lösningar till tentan i SF1861/51 Optimeringslära, 3 juni, 2015

Laboration 1 - Simplexmetoden och Modellformulering

Vektorgeometri för gymnasister

Föreläsning 6: Nätverksoptimering

SKRIVNING I VEKTORGEOMETRI

Transkript:

Krister Svanberg, april 2012 1 Duala problem vid linjär optimering Detta kapitel handlar om två centrala teoretiska resultat för LP, nämligen dualitetssatsen och komplementaritetssatsen. Först måste vi då definiera det så kallade duala problemet svarande mot ett givet LP-problem. Kopplingen mellan detta duala problem och det ursprungliga, primala, problemet blir som mest tilltalande om det primala problemet är på följande form, som ibland kallas för den kanoniska formen på LP-problem: P : minimera c T x då Ax b, x 0, (1.1) där x IR n är variabelvektorn, c IR n och b IR m är givna vektorer, medan A är en given m n-matris. Vi refererar till detta LP-problem som det primala problemet P. De m st bivillkoren Ax b kallas allmänna, medan de n st bivillkoren x 0 kallas enkla. Mängden av x IR n som uppfyller samtliga bivillkor i P kallas för det tillåtna området till P och betecknas F P, dvs F P = {x IR n Ax b och x 0}. (1.2) Till skillnad från vad som gällde för LP-problem på standardform, behöver vi för problem på kanonisk form inte göra några speciella antaganden om matrisen A. Det går lika bra om m > n, m < n eller m = n. Vidare behöver A varken ha linjärt oberoende kolonner eller linjärt oberoende rader. 1.1 Definition av det duala problem till ett LP-problem på kanonisk form Det duala problemet D, svarande mot det ovanstående primala problemet P, definieras som följande problem: D : maximera b T y då A T y c, y 0, där y IR m är variabelvektorn, medan c, b och A är enligt ovan. De n st bivillkoren A T y c kallas allmänna, medan de m st bivillkoren y 0 kallas enkla. Mängden av y IR m som uppfyller samtliga bivillkor i D kallas för det tillåtna området till D och betecknas F D, dvs (1.3) F D = {y IR m A T y c och y 0}. (1.4) 1

1.2 Dualitetssatsen Först några ytterligare definitioner: Punkten x IR n är en tillåten lösning till det primala problemet P om x F P. Punkten ˆx IR n är en optimal lösning till problemet P om ˆx F P och dessutom c Tˆx c T x för alla x F P. Optimalvärdet till P ges då av c Tˆx. Punkten y IR m är en tillåten lösning till det duala problemet D om y F D. Punkten ŷ IR m är en optimal lösning till problemet D om ŷ F D och dessutom b T ŷ b T y för alla y F D. Optimalvärdet till D ges då av b T ŷ. Följande olikhet är fundamental: För varje x F P och varje y F D gäller att c T x b T y. (1.5) Bevis: Om x F P och y F D så är c T x b T y = x T c x T A T y + y T Ax y T b = = x T (c A T y) + y T (Ax b) 0, där den första likheten följer av att x T A T y = y T Ax, medan den avslutande olikheten följer av att x F P och y F D, dvs av att x 0, c A T y 0, y 0 och Ax b 0. En omedelbar konsekvens av olikheten (1.5) är följande optimalitetsvillkor: Om ˆx F P, ŷ F D och c Tˆx = b T ŷ så är ˆx och ŷ optimala till P resp D. (1.6) Bevis: För varje x F P och y F D så gäller, enligt (1.5), att c T x b T ŷ = c Tˆx b T y, dvs c Tˆx c T x och b T ŷ b T y, vilket innebär att ˆx är en optimal lösning till problemet P, medan ŷ är en optimal lösning till det duala problemet D. Beviset av följande viktiga sats ges i kompendiet. Sats: Om både F P och F D så finns det (minst) en optimal lösning ˆx till P och (minst) en optimal lösning ŷ till D. Dessa uppfyller att c Tˆx = b T ŷ. Om F P men F D = så finns det till varje tal ρ IR (t.ex ρ = 10 99 ) ett x F P sådant att c T x < ρ. Man säger här att optimalvärdet till P =. Varken P eller D har i detta fall någon optimal lösning. Om F D men F P = så finns det till varje tal ρ IR (t.ex ρ = 10 99 ) ett y F D sådant att b T y > ρ. Man säger här att optimalvärdet till D = +. Varken P eller D har i detta fall någon optimal lösning. Slutligen kan det även inträffa att både F P = och F D =, så att varken P eller D har några tillåtna lösningar. Som en direkt konsekvens av denna sats får vi omvändningen till (1.6) ovan: Om ˆx och ŷ är optimala lösningar till P resp D så är c Tˆx = b T ŷ. (1.7) 2

1.3 Komplementaritetssatsen Av (1.6) och (1.7) följer att ˆx och ŷ är optimala lösningar till P resp D om och endast om ˆx F P, ŷ F D och c Tˆx = b T ŷ. Vi ska här ge ett alternativt (och ofta mer användbart) kriterium för när två tillåtna lösningar till P resp D även är optimala lösningar till P resp D. Om x IR n så låter vi s = Ax b. Då är x F P ekvivalent med att x 0 och s 0. Om y IR m så låter vi r = c A T y. Då är y F D ekvivalent med att y 0 och r 0. Med hjälp av dessa beteckningar kan komplementaritetssatsen formuleras på följande sätt: Sats: x IR n är en optimal lösning till P och y IR m är en optimal lösning till D om och endast om x j 0, r j 0, x j r j = 0 för j = 1... n, y i 0, s i 0, y i s i = 0 för i = 1... m, där s = Ax b och r = c A T y. Bevis: Antag först att villkoren (1.8) är uppfyllda. Då är x F P (ty x 0 och s 0) samt y F D (ty y 0 och r 0). Vidare är c T x b T y = x T c x T A T y + y T Ax y T b = x T (c A T y) + y T (Ax b) = = x T r + y T s = n j=1 x jr j + m i=1 y is i = 0 (ty alla x j r j = 0 och alla y i s i = 0). Därmed är c T x = b T y, vilket enligt (1.6) medför att x är en optimal lösning till P och att y är en optimal lösning till D. Antag nu omvänt att x är en optimal lösning till P och att y är en optimal lösning till D. Då är x en tillåten lösning till P, så att x 0 och s 0, medan y är en tillåten lösning till D, så att y 0 och r 0. Vidare gäller enligt (1.7) att c T x = b T y, vilket ger att 0 = c T x b T y = x T c x T A T y + y T Ax y T b = x T (c A T y) + y T (Ax b) = = x T r + y T s = n j=1 x jr j + m i=1 y is i. Notera att varje enskild term i var och en av dessa båda summor är icke-negativ (eftersom x j 0, r j 0, y i 0 och s i 0). Men enda möjligheten för en summa av icke-negativa termer att bli = 0 är att varje enskild term i summan är = 0. Därmed är alltså alla x j r j = 0 och alla y i s i = 0. (1.8) Som framgår av bevisets senare del är villkoren x j r j = 0 och y i s i = 0 i satsen ekvivalenta med villkoren att x T r = 0 och y T s = 0, eftersom vi vet att alla dessa fyra vektorer är 0 (annars vore de inte ekvivalenta förstås). Därför kan komplementaritetssatsen formuleras på följande kortare form: x IR n är en optimal lösning till P och y IR m är en optimal lösning till D om och endast om följande villkor är uppfyllda: Ax b, A T y c, x 0, y 0, y T (Ax b) = 0, x T (c A T y) = 0. (1.9) I ord säger komplementaritetssatsen att nödvändiga och tillräckliga villkor för att en tillåten lösning till P och en tillåten lösning till D även ska vara optimala lösningar till P resp D är att det för varje j {1,..., n} gäller att antingen är det j:te enkla bivillkoret i problemet P uppfyllt med likhet eller också är det j:te allmänna bivillkoret i problemet D uppfyllt med likhet, samt att det för varje i {1,..., m} gäller att antingen är det i:te enkla bivillkoret i problemet D uppfyllt med likhet eller också är det i:te allmänna bivillkoret i problemet P uppfyllt med likhet. 3

1.4 Duala problemet till ett LP-problem på allmän form Betrakta ett LP-problem på följande allmänna form. P : minimera c T 1 x 1 + c T 2 x 2 då A 11 x 1 + A 12 x 2 b 1, A 21 x 1 + A 22 x 2 = b 2, x 1 0, x 2 fri, (1.10) där c 1 IR n 1, c 2 IR n 2, b 1 IR m 1 och b 2 IR m2 är givna vektorer, A 11 IR m 1 n 1, A 12 IR m 1 n 2, A 21 IR m 2 n 1 och A 22 IR m 2 n2 är givna matriser, medan x 1 IR n 1 och x 2 IR n2 är variabelvektorerna. Att x 2 är fri innebär att det inte finns något krav på att komponenterna i vektorn x 2 ska vara icke-negativa. Med hjälp av de knep som beskrevs i första föreläsningen kan detta problem (1.10) transformeras till ett ekvivalent problem på formen (1.1). Likhetsbivillkoren A 21 x 1 + A 22 x 2 = b 2 ersätts därvid med olikhetsbivillkoren A 21 x 1 + A 22 x 2 b 2 och A 21 x 1 A 22 x 2 b 2, medan de fria variablerna ersätts med differensen mellan teckenbegränsade variabler, dvs x 2 = v 2 v 3 där v 2 0 och v 3 0. Då erhålls problemet P : minimera c T 1 x 1 + c T 2 v 2 c T 2 v 3 då A 11 x 1 + A 12 v 2 A 12 v 3 b 1, A 21 x 1 + A 22 v 2 A 22 v 3 b 2, A 21 x 1 A 22 v 2 + A 22 v 3 b 2, x 1 0, v 2 0, v 3 0, (1.11) som är ett problem på formen (1.1) med A 11 A 12 A 12 b 1 c 1 A = A 21 A 22 A 22, b = b 2, c = c 2 och x = A 21 A 22 A 22 b 2 c 2 För att ställa upp det motsvarande duala problemet inför vi variabelvektorn y = x 1 v 2 v 3. y 1 u 2, samt noterar att A T = A T 11 A T 21 A T 21 A T 12 A T 22 A T 22 A T 12 A T 22 A T 22. u 3 4

Eftersom det duala problemet till (1.1) ges av (1.3), så ges det duala problemet till (1.11) därmed av följande problem: D : maximera b T 1 y 1 + b T 2 u 2 b T 2 u 3 då A T 11 y 1 + A T 21 u 2 A T 21 u 3 c 1, A T 12 y 1 + A T 22 u 2 A T 22 u 3 c 2, A T 12 y 1 A T 22 u 2 + A T 22 u 3 c 2, y 1 0, u 2 0, u 3 0. (1.12) Här kan olikhetsbivillkoren A T 12 y 1 +A T 22 u 2 A T 22 u 3 c 2 och A T 12 y 1 A T 22 u 2 +A T 22 u 3 c 2 ersättas med likhetsbivillkoren A T 12 y 1 + A T 22 u 2 A T 22 u 3 = c 2, varefter differensen mellan vektorerna u 2 och u 3 kan ersättas med en vektor y 2, dvs y 2 = u 2 u 3, som inte är teckenbegränsad. Då erhålls följande problem i variabelvektorerna y 1 IR m 1 och y 2 IR m 2. D : maximera b T 1 y 1 + b T 2 y 2 då A T 11 y 1 + A T 21 y 2 c 1, A T 12 y 1 + A T 22 y 2 = c 2, y 1 0, y 2 fri, (1.13) Detta problem (1.13) utgör alltså det duala problemet till (1.10). 5

1.5 Duala problemet till ett LP-problem på standardform Betrakta nu ett LP-problem på standardform, dvs P : minimera c T x då Ax = b, x 0. (1.14) Detta är det specialfall av problemet (1.10) som erhålls om man där låter A 21 = A, c 1 = c, b 2 = b och x 1 = x, medan matriserna och vektorerna A 11, A 12, A 22 c 2, b 1 och x 2 samtliga lämnas tomma (dvs icke närvarande). Det duala problem till (1.14) är därmed motsvarande specialfall (med A 21 = A, etc.) till problemet (1.13), dvs, med y 2 = y, D : maximera b T y då A T y c. (1.15) Detta problem (1.15) utgör alltså det duala problemet till (1.14). Antag att vi har löst ett givet problem på formen (1.14) med den version av simplexmetoden som beskrevs i föreläsning 3, och antag att vi avbrutit algoritmen på grund av att r ν 0. Då gäller att A β b = b, b 0, A T β y = c β och A T ν y c ν (eftersom r ν = c ν A T ν y 0). Låt vektorn x IR n definieras av att x β = b och x ν = 0 (så att x är den aktuella baslösningen). Då är x 0 och Ax = A β x β + A ν x ν = A β b = b, vilket innebär att x är en tillåten lösning till det primala problemet (1.14), förstås! Vidare är A T y c, eftersom A T β y = c β och A T ν y c ν, vilket innebär att vektorn y IR m är en tillåten lösning till det duala problemet (1.15). Slutligen är c T x = c T β x β + c T ν x ν = c T β x β = (A T β y)t b = y T A β b = y T b = b T y. Följande gäller alltså: För det första är x en tillåten lösning till det primala problemet. För det andra är y en tillåten lösning till det duala problemet. För det tredje är c T x = b T y. Tillsammans medför detta att x är en optimal lösning till det primala problemet (1.14), vilket vi redan visste, men också att y är en optimal lösning till det duala problemet (1.15)! När vi har löst det primala problemet (1.14) med simplexmetoden, och hittat en optimal lösning x, så har vi alltså även beräknat en optimal lösning y till det duala problemet (1.15). 6