5.7. Ortogonaliseringsmetoder

Relevanta dokument
t Möjliga lösningar? b

12. SINGULÄRA VÄRDEN. (u Av) u v

2D1250 Tillämpade numeriska metoder II Läsanvisningar och repetitionsfrågor:

1 Positivt definita och positivt semidefinita matriser

Numerisk Analys, MMG410. Exercises 2. 1/33

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

Minsta kvadratmetoden

Enhetsvektorer. Basvektorer i två dimensioner: 1 1 Basvektorer i tre dimensioner: Enhetsvektor i riktningen v: v v

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

LYCKA TILL! kl 8 13

Norm och QR-faktorisering

1 Grundläggande kalkyler med vektorer och matriser

ax + y + 4z = a x + y + (a 1)z = 1. 2x + 2y + az = 2 Ange dessutom samtliga lösningar då det finns oändligt många.

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

TANA09 Föreläsning 5. Matrisnormer. Störningsteori för Linjära ekvationssystem. Linjära ekvationssystem

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

TMV166 Linjär Algebra för M. Tentamen

1 De fyra fundamentala underrummen till en matris

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 15 mars 2010 kl

Basbyten och linjära avbildningar

MATRISTEORI. Pelle Pettersson MATRISER. En matris är ett rektangulärt schema med tal, reella eller komplexa, vilka kallas matrisens

Multiplicera 7med A λ 1 I från vänster: c 1 (Av 1 λ 1 v 1 )+c 2 (Av 2 λ 1 v 2 )+c 3 (Av 3 λ 1 v 3 ) = 0

TMA 671 Linjär Algebra och Numerisk Analys. x x2 2 1.

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

1 Linjära ekvationssystem. 2 Vektorer

Preliminärt lösningsförslag

2 Matrisfaktorisering och lösning till ekvationssystem

Linjär Algebra M/TD Läsvecka 2

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Linjära ekvationssystem

Vektorgeometri för gymnasister

29 november, 2016, Föreläsning 21. Ortonormala baser (ON-baser) Gram-Schmidt s ortogonaliseringsprocess

Linjära ekvationssystem

SF1624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 2010 DEL A

1. (a) Bestäm alla värden på c som gör att matrisen A(c) saknar invers: c 1

Egenvärden och egenvektorer. Linjär Algebra F15. Pelle

MVE022 Urval av bevis (på svenska)

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

SKRIVNING I VEKTORGEOMETRI

Subtraktion. Räkneregler

Inför tentamen i Linjär algebra TNA002.

Modul 1: Komplexa tal och Polynomekvationer

LÖSNINGAR LINJÄR ALGEBRA LUNDS TEKNISKA HÖGSKOLA MATEMATIK

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A =

TMV166 Linjär algebra för M, vt 2016

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng. Använd bifogat formulär för dessa 6 frågor.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

19. Spektralsatsen Spektralsatsen SPEKTRALSATSEN

Vektorerna är parallella med planet omm de är vinkelräta mot planets normal, dvs mot

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

November 17, 2015 (1) en enda lsg. Obs det A = 1 0. (2) k-parameter lsg. Obs det A = 0. k-kolonner efter sista ledande ettan

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 17 april 2010 kl

SF1624 Algebra och geometri Bedömningskriterier till tentamen Fredagen den 22 oktober, 2010

Chalmers tekniska högskola Datum: Våren MVE021 Linjär algebra I

SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng.

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 9 juni 2011 kl

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

Determinanter, egenvectorer, egenvärden.

Matriser. En m n-matris A har följande form. Vi skriver också A = (a ij ) m n. m n kallas för A:s storlek. 0 1, 0 0. Exempel 1

Lösningar till tentan i 5B1760 Linjär och kvadratisk optimering, 17 december 2003.

Diagonalisering och linjära system ODE med konstanta koe cienter.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

5 Linjär algebra. 5.1 Addition av matriser 5 LINJÄR ALGEBRA

GRAM-SCHMIDTS METOD ... Med hjälp av Gram-Schmidts metod kan vi omvandla n st. linjäroberoende vektorer. samma rum dvs som satisfierar

Lite Linjär Algebra 2017

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

(d) Mängden av alla x som uppfyller x = s u + t v + (1, 0, 0), där s, t R. (e) Mängden av alla x som uppfyller x = s u där s är ickenegativ, s 0.

Matematik med datalogi, mfl. Linjär algebra ma014a ATM-Matematik Mikael Forsberg

TMV142/186 Linjär algebra Z/TD

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

Linjär algebra på 2 45 minuter

Tentamen TMV140 Linjär algebra Z

Preliminärt lösningsförslag

Studiehandledning till linjär algebra Avsnitt 4

15 september, Föreläsning 5. Tillämpad linjär algebra

8(x 1) 7(y 1) + 2(z + 1) = 0

SF1624 Algebra och geometri

Maj Lycka till! Sergei Silvestrov. 1. a) Bestäm Jordans normalform och minimalpolynom av Toeplitzmatrisen T =

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra, SF1604, den 15 mars 2012 kl

Basbyte (variabelbyte)

8 Minsta kvadratmetoden

2s + 3t + 5u = 1 5s + 3t + 2u = 1 3s 3u = 1

Egenvärden, egenvektorer

SF1624 Algebra och geometri Tentamen Onsdagen 29 oktober, 2014

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

2x + y + 3z = 4 x + y = 1 x 2y z = 3

SF1624 Algebra och geometri Tentamen Onsdag, 13 januari 2016

1 Ortogonalitet. 1.1 Skalär produkt. Man kan tala om vinkel mellan vektorer.

Egenvärden och egenvektorer

SF1624 Algebra och geometri

8. Euklidiska rum 94 8 EUKLIDISKA RUM

Transkript:

5.7. Ortogonaliseringsmetoder Om man har problem med systemets kondition (vilket ofta är fallet), lönar det sig att undvika normalekvationerna vid lösning av minsta kvadratproblemet. En härtill lämplig metod är den s k QR metoden eller ortogonaliseringsmetoden (jfr qr kommandot i Matlab). QR teoremet: A må vara en given m n matris med m n och linjärt oberoende kolonner. Då existerar det en entydig m n matris Q, som har egenskapen Q T Q = D, D = diag(d 1,..., d n ), d k > 0, k = 1, 2,..., n, och en entydig övre triangulär matris R, med diagonalelementen r kk = 1, som har egenskapen A = QR. Låt oss se hur QR metoden kan tillämpas på minsta kvadratmetoden: Av ekvationen A T (b Ax) = 0 följer att R T Q T (b Ax) = 0. Vetenskapliga beräkningar III, Tom Sundius 2008 1

Eftersom R är icke-singulär och Q T A = Q T QR = DR, så kan ovanstående ekvation också uttryckas R T (Q T b DRx) = 0 eller { Rx = y y = D 1 Q T b. Om man således känner Q och R, så kan man finna lösningen till minsta kvadratmetoden genom att lösa ett triangulärt ekvationssystem. Den modifierade Gram-Schmidt metoden för beräkning av Q, R och y: Vi beräknar en räcka matriser A = A (1), A (2),..., A (n+1) = Q, där A (k) har formen A (k) = (q 1, q 2,..., q k 1, a (k) k,..., a(k) n ). De k 1 första kolonnerna i A (k) är lika med de k 1 första kolonnerna i Q, och a (k) k,..., a(k) n är vektorer, som har ortogonaliserats mot q 1,..., q k 1 (dvs a (k)t i q j = 0, i = k,..., n; j = 1,..., k 1). I det k:te steget ortogonaliseras a (k) j, j = k + 1,..., n mot q k med följande procedur: { a (k+1) j q k = a (k) k, d k = q T k q k, r kk = 1 = a (k) j r kj q k ; r kj = q T k a(k) j /d k, j = k + 1,..., n. Vetenskapliga beräkningar III, Tom Sundius 2008 2

Som vi ser, blir q T k a(k+1) j = q T k a(k) j r kj q T k q k = q T k a(k) j q T k a(k) j q T k q k q T k q k = 0. Vid varje steg kommer vi alltså att beräkna den k:te kolonnen av Q, samt den k:te raden av R (r kj = 0, om k > j). Vektorn b transformeras på analogt sätt: b = b (1), b (2),..., b (n+1), där b (k+1) = b (k) y k q k, y k = qt k b(k) d k. Som vi ser blir även q T k b(k+1) = q T k b(k) qt k b(k) q T k q k = 0. Här kommer b (n+1) att vara den del av b q T k q k som är ortogonal mot R(A) (det underrum, som spännes av A:s kolonner), och den kommer därför att bli lika stor som restvektorn r. Efter n steg (k = 1, 2,..., n) fås slutligen Q = (q 1, q 2..., q n ) R = (r kj ), y = (y 1, y 2,..., y n ) T och då blir Q T Q = diag(d k ), A = QR, b = Qy + r. Slutligen löses x ur ekvationen Rx = y. Vetenskapliga beräkningar III, Tom Sundius 2008 3

Vid beräkningen av R och y krävs det approximativt 2m n (n k + 1) = 2m k=1 n(n + 1) 2 = mn(n + 1) räkneoperationer, men för att lösa Rx = y endast n(n + 1)/2 räkneoperationer. Gram Schmidt metoden kräver sålunda omkring dubbelt mera arbete än vad som behövs för att ställa upp normalekvationerna. Tidigare har vi antagit, att A:s kolonner är linjärt oberoende. Av relationen Q = AR 1, där S = R 1 är en högertriangulär matris med diagonalelementen 1, framgår att q k kan uttryckas som en linjär kombination av a 1, a 2..., a k. Antag nu, att a 1, a 2,..., a k 1 är linjärt oberoende, men att a k beror linjärt av a 1, a 2,..., a k 1 och därför även av q 1, q 2,..., q k 1. Vi finner då att a (k) k = 0, och ortogonaliseringsproceduren kan inte fortsättas. Maximalantalet linjärt oberoende kolonner (eller rader) i en matris brukar kallas matrisens rang. Om rangen för A > k 1, så måste det existera en vektor a (k) j 0 om k j n. Då kan vi låta den k:te och j:te kolonnen byta plats, och fortsätta ortogonaliseringsprocessen ända tills alla de återstående kolonnerna beror linjärt av de beräknade q-vektorerna. Vetenskapliga beräkningar III, Tom Sundius 2008 4

Därav följer att vi kan förbättra Gram-Schmidt metoden genom kolonnpivotering. I det k:te steget väljs s som det minsta heltal för vilket gäller a (k) s 2 = max 2, varpå kolonnerna k och s kastas om. k j n a(k) j Ett annat sätt att utföra en ortogonalisering är att använda Householder transformationer (denna metod utnyttjas i MATLAB-rutinen qr). De baserar sig på elementära ortogonala matriser som är n dimensionella enhetsmatriser modifierade av enkla rotationsmatriser, såsom t.ex. ( ) cos θ sin θ, sin θ cos θ som representerar en rotation i planet omfattande vinkeln θ. Ett enkelt exempel på en dylik matris är 1 0... 0 0 1... 0.. cos θ sin θ, 1 1 0 0 sin θ cos θ som också representerar en plan rotation, men i ett n dimensionellt rum. Vetenskapliga beräkningar III, Tom Sundius 2008 5

Ett sätt att konstruera sådana matriser är att använda matriser av formen P = I 2uu T /u T u, där u 0 är en godtycklig vektor. På grund av sin konstruktion är Householders matris P symmetrisk (P = P T ) och ortogonal, emedan P T P = P 2 = I 4 uut u T u + 4uuT u T u dvs P 2 = I eller alltså P 1 = P = P T. uu T u T u = I 4 uut u T u + 4u(uT u)u T (u T u) 2 = I 4 uut u T u + 4uuT u T u = I, Hur skall Householder transformationen konstrueras, så att vi kan överföra matrisen i triangulär form? Låt oss beteckna den första kolonnen i matrisen A med a, och anta att P nollställer alla komponenter i a med undantag av den första: P a = α(1, 0,..., 0) T = αe 1 Genom att använda den allmänna formen av P får vi då P a = ( ) I 2 uut u T u a = a ( ) 2 ut a u T u u = αe 1. Vetenskapliga beräkningar III, Tom Sundius 2008 6

Om denna ekvation skrivs i formen ( ) 2 ut a u T u u = a αe 1, så ser vi, att u är en multipel av a αe 1. Om u multipliceras med en godtycklig konstant som skiljer sig från noll, så förändras inte Householders matris, och vi kan därför välja u = a αe 1. Eftersom en ortogonal transformation skall bevara normen (eftersom det är fråga om en rotation), så är α = ± a 2, och vi får u = a a 2 e 1. Vi skall nu visa hur dylika matriser kan användas för att överföra en matris i triangulär form. Antag, att A är en 5 3 matris: x x x x x x A = x x x x x x x x x Vetenskapliga beräkningar III, Tom Sundius 2008 7

Om vi betecknar den första kolonnen i A med a, så får vi P A = a x x 0 x x 0 x x 0 x x 0 x x Observera, att P har förändrat elementen som betecknas med x. I det följande steget väljer vi de fyra lägsta elementen i den andra kolonnen av P A och bildar en ny vektor a med fyra element på vilken vi tillämpar en Householder transformation P. Vi får då P 1 P A = ( ) 1 0 0 P a x x 0 x x 0 x x 0 x x 0 x x = a x x 0 a x 0 0 x. 0 0 x 0 0 x Vetenskapliga beräkningar III, Tom Sundius 2008 8

Matrisen blir fullständigt reducerad till en triangulär matris, om vi bildar en ny vektor a av de tre nedersta elementen i matrisen P 1 P A, och konstruerar en ny Householder transformation P som nollställer denna vektor utom det översta elementet: P 2 P 1 P A = a x x 1 0 0 0 a x 0 1 0 0 0 x 0 0 P 0 0 x 0 0 x = a x x 0 a x 0 0 a. 0 0 0 0 0 0 Eftersom både P och P är ortogonala matriser, så är också P 1 och P 2 ortogonala, liksom även P 2 P 1 P. Således har A blivit transformerad till en (övre) triangulär matris genom att den multiplicerats med en ortogonal matris. Vi får alltså A = QR, där Q = P P 1 P 2 och R = P 2 P 1 P A. Uppenbarligen går metoden att generalisera till godtyckligt stora matriser. Hur kan detta tillämpas på ett minsta ( kvadrat-problem ) Ax = b? Antag att A är en m n matris ( som ) R1 kan faktoriseras A = QR = Q, där R 0 1 är en m m matris. Då får vi Q T c1 b = c, c 2 där c 1 är en kolonnvektor med m element och c 2 en kolonnvektor med n m element. Vetenskapliga beräkningar III, Tom Sundius 2008 9

Normen bevaras vid multiplikation med en ortogonal matris, varav följer ( ) Ax b 2 2 = QT (Ax b) 2 2 = Rx c 2 2 = R1 x c 1 2 c 2 2 = R 1 x c 1 2 2 + c 2 2 2. Vi finner således lösningen till minsta kvadratproblemet genom att lösa ekvationen R 1 x = c 1, och det minsta värdet av kvadraternas summa blir c 2 2 2. Det finns också fall då lösningen inte är unik (degenererat minsta kvadrat problem). Detta innebär vanligen att modellfunktionerna inte är linjärt oberoende, vilket innebär att kolonnerna i matrisen A är linjärt beroende. Ett dylikt problem har många lösningar istället för en enda. I detta fall används ofta kolonnpivotering (se ovan) vid ortogonaliseringen, varvid A uttrycks som A = QRP, där P är en permutationsmatris, som håller reda på kolonnbyten som gjorts. Matrisen R har då formen R = ( ) R1 R 2, 0 0 där R 1 är en övre triangulär matris och R 2 0 är en rektangulär matris. Antalet rader olika noll i R är lika med matrisens rang (alltså antalet linjärt oberoende kolonner). Vetenskapliga beräkningar III, Tom Sundius 2008 10

Faktoriseringen leder till ett reducerat minsta kvadrat-problem Ax b 2 = RP x Q T b 2. Om vi nu inför beteckningarna y = P x och c = Q T b, som uppdelas på motsvarande sätt som R i två delar: y = (y 1, y 2 ) T samt c = (c 1, c 2 ) T, så får vi Ax b 2 2 = ( R1 R 2 0 0 ) ( ) y1 y 2 ( c1 c 2 ) 2 = R 1 y 1 + R 2 y 2 c 1 2 2 + c 2 2 2. Den andra termen c 2 påverkas inte av parametrarna y, medan den första termen kan minimeras på ett godtyckligt antal sätt. Komponenterna av y 2 kan väljas godtyckligt, sedan kan y 1 lösas ur ekvationssystemet R 1 y 1 = c 1 R 2 y 2. Systemet är högertriangulärt och kan lösas genom bakåtsubstitution. Vanligen sätter man y 2 = 0. 2 Vetenskapliga beräkningar III, Tom Sundius 2008 11

5.8. Singulärvärdesuppdelningen Antag, att A är en m n-matris (m n) med reella element. Det existerar då en m m ortogonal matris U, en n n ortogonal matris V, och en m n diagonal matris D, vars diagonalelement d 1 d 2... d s 0 (s = min(m, n)), så att A = UDV T. Matrisen U bildas av de ortonormerade egenvektorer, som motsvarar egenvärdena av matrisen AA T, och matrisen V består av de ortonormerade egenvektorerna av A T A. Diagonalelementen av matrisen D är de icke-negativa kvadratrötterna av egenvärdena av A T A, som även brukar kallas singulära värden. Vi skall avstå från att bevisa riktigheten av detta. Man kan också visa, att matrisens rang är lika med antalet singulära värden, som skiljer sig från noll. Om A är singulär så är åtminstone d n = 0. Om matrisen är nästan singulär, så betyder det, att några av de singulära värdena är mycket små. Förhållandet d 1 /d n kan uppfattas som ett mått på konditionen för matrisen A. Om man väljer Q = U samt R = DV T, så ser man att singulärvärdesuppdelningen leder till en ortogonal faktorisering. Vetenskapliga beräkningar III, Tom Sundius 2008 12

Lösningen till ekvationssystemet Ax = b kan då skrivas x = V D + U T b, som kan beräknas i två steg: { y = Q T b = U T b x = A + b = V D + y, där D + är en diagonal matris med diagonalelementen 1/d k om d k > 0, och 0 i annat fall. Dessa ekvationer gäller oberoende av antalet singulärvärden d k 0. För det fall att matrisens rang är okänd, kan denna metod vara nyttig att använda. För välartade matriser är den emellertid mer kostsam och något mindre noggrann. Som vi lätt inser, gäller följande ekvationer: A T A = V D T DV T, AA T = UDD T U T. Således är kvadraterna på de singulära värdena egenvärden för matriserna A T A och AA T, och man skulle därför vänta sig att singulärvärdesuppdelningen enkelt skulle kunna utföras genom diagonalisering av de symmetriska matriserna A T A och AA T. Men detta leder emellertid inte till en stabil metod att utföra singulärvärdesuppdelningen. Vetenskapliga beräkningar III, Tom Sundius 2008 13

Singulärvärdesuppdelningen, som upptäcktes redan på 1870 talet av Beltrami och Jordan, infördes som en praktisk metod vid ekvationslösning av Gene Golub 1 på 1970 talet. Singulärvärdesuppdelningen är mycket lämplig att använda, när det gäller att studera en matris med dålig kondition. Om matrisen A är kvadratisk, så är alla matriserna U, V och D kvadratiska matriser, och man finner, att inversen av matrisen A kan uttryckas A 1 = V diag(1/d j )U T, där diag(1/d j ) betecknar en diagonalmatris, vars element består av de reciproka värdena av matrisen D:s element. Detta uttryck är korrekt, såvida inte något av D:s element är mycket litet. Detta kan inträffa, om matrisen har dålig kondition. I detta fall blir konditionstalet d 1 /d n mycket stort. Om A är singulär, blir (åtminstone) ett av dess singulära värden noll. I detta fall kan man konstruera en invers matris genom att ersätta 1/d j med noll då d j = 0. 1 G.H. Golub och C. Reinsch: Singular Value Decomposition and Least Squares Solutions, Numer. Math. 14, 403-420 (1970) Vetenskapliga beräkningar III, Tom Sundius 2008 14

Detta är ett specialfall av en pseudoinvers. En dylik invers kan definieras för en godtycklig m n-matris A som en matris X, som uppfyller Penrose s villkor: AXA = A, XAX = X, (AX) T = AX, (XA) T = XA. Man kan lätt visa, att om A + är en pseudoinvers, och A har singulärvärdesuppdelningen så kan dess pseudoinvers uttryckas som A = UDV T, A + = V D + U T, där D + = diag(d + i ), och d + i = { 1/di om d i > 0, 0 om d i = 0. Vetenskapliga beräkningar III, Tom Sundius 2008 15

Det är lätt att visa, att de nämnda fyra villkoren är uppfyllda, och att A + inte heller beror av valet av U och V. Singulärvärdesuppdelningen kan användas i minsta kvadratmetoden på följande sätt. För normen av resttermen finner vi följande uttryck (observera, att U är ortogonal): Ax b 2 = UDV T x b 2 = U T (UDV T x b) 2 = DV T x U T b 2. Genom att beteckna U T b med c och V T x med z, får man Ax b 2 2 = Dz c 2 2 = (d 1z 1 c 1 ) 2 +... + (d n z n c n ) 2 + c 2 n+1 +... + c2 m. Om inga singulärvärden är noll, så kan man alltid välja z i (dvs x i ) så, att normen minimeras: Ax b 2 2 = c2 n+1 +... + c2 m. I detta fall existerar det en entydig lösning. Vetenskapliga beräkningar III, Tom Sundius 2008 16

Om d n = 0, kan man välja vilket värde som helst av z n, och man får alltid Ax b 2 2 = c2 n + c2 n+1 +... + c2 m, som inte ger en entydig lösning. Om d i = 0 för något i brukar man vanligen också välja z i = 0. Små singulära värden visar att systemet har dålig kondition. Om konditionen är dålig, så är det oförmånligt att lösa normalekvationerna, och singulärvärdesuppdelningen är då att föredra. Om A är en m n matris med rangen r > 0, och singulärvärdena d 1 d 2... d r > 0, så är konditionstalet för A: cond(a) = A 2 A + 2 = d 1 /d r. Eftersom A T A = V D T DV T, så är singulärvärdena för A T A kvadraterna på singulärvärdena för A, och cond(a T A) = (cond(a)) 2. Löser man minsta kvadratproblemet med singulärvärdesuppdelning, visar sig felet bestämmas av cond(a), istället för cond(a T A), som gäller för lösningen av ett system av normalekvationer. I MATLAB kan singulärvärdesuppdelningen utföras med den inbyggda funktionen svd, som alstrar de tre matriserna U, D och V. Nedan visas som exempel singulärvärdesuppdelningen av en 2 3 matris. Som vi ser, är matrisens rang 2. Vi kan också beräkna matrisens pseudoinvers med funktionen pinv. Vetenskapliga beräkningar III, Tom Sundius 2008 17

>> A = [1 1; 1 2 ; 1 3]; >> [U, S, V] = svd(a); U = 0.3231-0.8538 0.4082 0.5475-0.1832-0.8165 0.7719 0.4873 0.4082 S = 4.0791 0 0 0.6005 0 0 V = 0.4027-0.9153 0.9153 0.4027 >> pseudo=pinv(a) pseudo = 1.3333 0.3333-0.6667-0.5000 0.0000 0.5000 >> pseudo2 = V* pinv(s) * U pseudo2 = 1.3333 0.3333-0.6667-0.5000 0.0000 0.5000 Vetenskapliga beräkningar III, Tom Sundius 2008 18