6.1 Skalärprodukt, norm och ortogonalitet TMV141 Linjär algebra E VT 2011 Vecka 6 Skalärprodukt Norm/längd Normerad vektor/enhetsvektor Avståndet mellan två vektorer Ortogonala vektorer Ortogonala komplementet till ett underrum Lärmål 6.1 beräkna skalärprodukten av två vektorer i R n, tillämpa räknereglerna för skalärprodukt, beräkna norm av en vektor i R n och beräkna avståndet mellan vektorer i R n. avgöra om två vektorer i R n är ortogonala bevisa Pythagoras sats i R n förklara vad som menas med W om W är ett underrum i R n tillämpa sats 6.1.3 vid problemlösning bevisa sats 6.1.3 Skalärprodukt Skalärprodukten (eng. inner product, dot product) u v av två vektorer u och v i R n definieras som matrisprodukten u T v, dvs v 1 u v = [ ] v 2 u 1 u 2 u n. = u 1v 1 + + u n v n. v n Räkneregler (Sats 6.1.1) Låt u, v och w vara vektorer i R n och c en skalär. Då gäller a. u v = v u b. (u + v) w = u w + v w c. (cu) v = c(u v) = u (cv) d. u u 0, och u u = 0 om och endast om u = 0
Norm Avstånd Normen, längden av en vektor v är skalären v som ges av: v = v v = v1 2 + v 2 2 + + v n 2 Notera att v 2 = v v. En enhetsvektor eller normerad vektor är en vektor v sådan att v = 1 Att normera en vektor v innebär att skapa en normerad vektor ˆv med samma riktning som v. Eftersom cv = c v kan alla vektorer v (utom 0) normeras genom att man multiplicerar med 1/ v : Låt u och v vara vektorer i R n. Avståndet mellan u och v betecknas dist(u, v) och ges av dist(u, v) = u v ˆv = 1 v v Ortogonalitet Ortogonala komplementet Två vektorer u och v i R n kallas ortogonala mot varandra om u v = 0. Notera att nollvektorn är ortogonal mot alla vektorer. Notera också att ingen annan vektor har denna egenskap. Pytagoras sats i R n (Sats 6.1.2) Två vektorer u och v i R n är ortogonala mot varandra om och endast om u + v 2 = u 2 + v 2. Låt W vara ett underrum i R n. Om en vektor z är ortogonal mot varje vektor u W så säger vi att z är ortogonal mot W. Mängden av alla vektorer z som är ortogonala mot W kallas W :s ortogonala komplement. Denna mängd betecknas W. Viktiga fakta x W om och endast om x är ortogonal mot alla vektorer i en mängd som spänner W. W är ett underrum i R n.
Sats 6.1.3 6.2 Ortogonala mängder De fyra fundamentala underrummen relaterade till en m n-matris A: Underrum i R n : Underrum i R m : Row (A) Col (A) Nul (A) Nul ( A T ) Sats 6.1.3 Låt A vara en m n-matris. Då gäller: (Row (A)) = Nul (A) och (Col (A)) = Nul (A ) T Ortogonal mängd Ortonormerad mängd Ortogonal bas Ortonormerad bas Ortogonal matris Lärmål 6.2 förklara vad som menas med ortogonal bas för ett underrum W och tillämpa sats 6.2.5 för beräkning av koordinaterna för en vektor y W relativt en ortogonal bas för W. använda projektionsformeln 6.2.(2) i problemlösning förklara vad som menas med ortonormerad bas för ett underrum W förklara vad som menas med en ortogonal matris bevisa sats 6.2.4: en ortogonal mängd av vektorer är linjärt oberoende bevisa sats 6.2.7 då U är en ortogonal matris Ortogonala och ortonormerade mängder En mängd vektorer {u 1, u p } kallas för en ortogonal mängd om vektorerna är parvis ortogonala. Alltså om alla par av vektorer (med olika index) är ortogonala mot varandra, u i u j = 0 om i j. En ortogonal mängd kallas ortonormerad (eng. orthonormal) om alla vektorerna i mängden dessutom är normerade. Sats 6.2.4 Om S = {u 1, u p } är en ortogonal mängd av vektorer i R n så är S en linjärt oberoende mängd av vektorer. S är då en bas för underrummet i R n som spänns upp av S.
Ortogonal bas och ON-bas Fördelen med en ortogonal bas Med en ortogonal bas för ett underrum W i R n menas en bas B som också är en ortogonal mängd. En ortonormerad bas eller ON-bas är en ortogonal bas bestående av normerade vektorer. Sats 6.2.5 Låt B = {u 1,, u p } vara en ortogonal bas för ett underrum W i R n. Låt y vara en vektor i W. Koordinaterna för y relativt basen B, [y] B = c j = y u j u j u j. c 1. c p ges då av Ännu bättre: Om B är en ortonormerad bas ges koordinaterna av c j = y u j. Projektionsformeln Ortogonal matris Låt u 0 vara en given vektor i R n. Låt y vara en annan vektor i R n. Vi söker en uppdelning av y i två ortogonala komponenter, y = ŷ + z där ŷ = αu är parallell med u och z är ortogogonal mot u. Lösningen ges av ( y u ) ŷ = u, z = y ŷ u u Vektorn ŷ kallas den ortogonala projektionen av y på u och skrivs ibland proj u y. Sats 6.2.6 En m n-matris U har ortonormerade kolonner om och endast om U T U = I En kvadratisk inverterbar matris U kallas ortogonal om U 1 = U T En n n-matris är alltså ortogonal om och endast om den har ortonormerade kolonner.
Sats 6.2.7 6.3 Ortogonal projektion Sats 6.2.7 Låt U vara en m n-matris med ortonormerade kolonner och låt x och y vara vektorer i R n. Då gäller: a. Ux = x b. (Ux) (Uy) = x y c. (Ux) (Uy) = 0 om och endast om x y = 0 Ortogonal projektion på ett underrum Lärmål 6.3 tillämpa sats 6.3.8 för att dela upp en vektor i ortogonala komponenter, en i W och den andra i W då en ortogonal bas för W är känd. - Satsen om ortogonal uppdelning Sats 6.3.8 Låt W vara ett underrum i R n och låt {u 1, u p } vara en ortogonal bas för W. Då kan varje vektor y i R n skrivas, på exakt ett sätt, som en summa y = ŷ + z där ŷ är en vektor i W och z är en vektor i W. Vektorn ŷ beräknas med projektionsformeln ( ) ( ) y u 1 y u p ŷ = u 1 + + u p och z = y ŷ u 1 u 1 u p u p Vektorn ŷ kallas projektionen av y på W och betecknas även proj W y. Vi skall senare se att man alltid kan bestämma en ortogonal bas för ett underrum. Man kan därför alltid bestämma proj W y.
6.4 Gram-Schmidts ortogonaliseringsprocess Gram-Schmidts ortogonaliseringsprocess tillämpa Gram-Schmidt processen för att bestämma en ortogonal bas för ett underrum W i R n utgående från en annan bas för W. förklara varför Gram-Schmidt processen leder till en ortogonal bas. Låt {u 1, u p } vara en bas för ett underrum W i R n. Vårt mål är nu att skapa en ortogonal bas för W. Sätt v 1 = u 1 v 2 = u 2 u 2 v 1 v 1 v 1 v 1 v 3 = u 3 u 3 v 1 v 1 v 1 v 1 u 3 v 2 v 2 v 2 v 2 v p = u p up v 1 v 1 v 1 v 1 up v 2 v 2 v 2 v 2 up v p 1 v p 1 v p 1 v p 1. Då är {v 1, v p } en ortogonal bas för W. Dessutom gäller att Span{v 1, v k } = Span{u 1, u k } för 1 k p. 6.5 Minstakvadrat-problem Lärmål 6.5 Minstakvadrat-lösning Normaliserad ekvation förklara vad som menas med en minstakvadrat-lösning. förklara varför minstakvadrat-lösningarna är lösningarna till den normaliserade ekvationen A T Ax = A T b.
Minstakvadrat-lösning Observationer Om A är en m n-matris och b R n så är en minstakvadrat-lösning till ekvationen Ax = b en vektor ˆx R n sådan att Aˆx b Ax b för alla x R n. Minstakvadrat-felet är Aˆx b då ˆx är minsta-kvadrat lösningen. Ofta använder man istället kvadratiska medelfelet som är Aˆx b / m. Vektorn Ax tillhör alltid Col(A). Om b inte tillhör Col(A), så är ekvationen Ax = b inkonsistent. Vilken vektor i Col(A) ligger i så fall närmast b? Svar: ˆb = proj Col(A) b. Minstakvadratlösningarna till Ax = b är alltså alla ˆx sådana att Aˆx = ˆb. Normaliserade ekvationen 6.6 Linjära modeller Sats 6.5.13 Minstakvadratlösningarna till Ax = b är samma som lösningarna till den normaliserade ekvationen A T Ax = A T b. Modellanpassning
Lärmål 6.6 7.1 Diagonalisering av symmetriska matriser tillämpa minstakvadrat-metoden för modellanpassning. Symmetrisk matris Ortogonalt diagonaliserbar matris - Lärmål 7.1 Symmetrisk matris tillämpa satserna 7.1.1 7.1.3 vid problemlösning. Spektralsatsen (sats 7.1.3) är extra viktig. - En kvadratisk matris A är symmetrisk om A = A T. Vilka av följande matriser är symmetriska? A = C = 1 1 3 1 3 1 3 1 1 1 0 1 1 0 1 1 0 1, B =, D = [ 2 1 3 2 ], 2 2 8 2 1 3 8 3 0
Spektralsatsen 7.2 Kvadratiska former Sats 7.1.3 (Spektralsatsen för symmetriska matriser) Låt A vara en symmetrisk n n-matris. Då gäller följande: a. A har n reella egenvärden, räknat med multiplicitet b. För varje egenvärde λ, så är dimensionen av egenrummet lika med multipliciteten av λ c. Egenrummen är parvis ortogonala, dvs egenvektorer hörande till olika egenvärden är ortogonala d. A kan diagonaliseras med en ortogonal matris Kvadratisk form Positivt definit, negativt definit, indefinit Omvändningen till d. gäller också: Sats 7.1.2 En n n-matris A är symmetrisk om och endast om den är diagonaliserbar med en ortogonal matris. Lärmål 7.2 tillämpa sats 7.2.4 Satsen om principalaxlar för att skriva en kvadratisk form utan blandade termer. förklara vad som menas med positivt definit, negativt definit och indefinit kvadratisk form och tillämpa sats 7.2.5 för klassificering av kvadratiska former. Kvadratisk form En kvadratisk form på R n är en funktion Q : R n R som ges av ett uttryck Q(x) = x T Ax där A är en symmetrisk matris. Matrisen A kallas den kvadratiska formens koefficientmatris. Variabelbyte i en kvadratisk form Ett basbyte med basbytesmatris P = P B ger ett variabelbyte x = Py där y = [x] B. I basen B ges den kvadratiska formen av en annan matris: x T Ax = (Py) T A(Py) = y T (P T AP)y. Matrisen P T AP är också symmetrisk. Den kallas för den kvadratiska formens koefficientmatris relativt basen B.
Principalaxlar Klassificiering av kvadratiska former Principalaxelsatsen (Sats 7.2.4) Låt A vara en symmetrisk n n-matris. Låt B vara en ON-bas av egenvektorer till A. Låt P vara den ortogonala matrisen vars kolonner är vektorerna i B och låt D = diag{λ 1, λ 2, λ n } vara diagonalmatrisen D = P T AP. Variabelbytet x = Py där y = [x] B överför då den kvadratiska formen x T Ax till y T Dy = λ 1 y 2 1 + λ 2y 2 2 + + λ ny 2 n. En kvadratisk form kallas a. positivt definit om Q(x) > 0 för alla x 0 b. negativt definit om Q(x) < 0 för alla x 0 c. indefinit om Q(x) antar såväl positiva som negativa värden d. positivt semidefinit om Q(x) 0 för alla x 0 e. negativt semidefinit om Q(x) 0 för alla x 0 Kolonnerna i P, som alltså är egenvektorer till A, kallas den kvadratiska formens principalaxlar. Klassificiering av kvadratiska former Sats 7.2.5 (Kvadratiska former och egenvärden) Låt A vara en symmetrisk n n-matris. Då är den kvadratiska formen x T Ax: positivt definit om och endast om alla egenvärden till A är positiva, negativt definit om och endast om alla egenvärden till A är negativa, indefinit om och endast om A har såväl positiva som negativa egenvärden, positivt semidefinit om och endast om alla egenvärden till A är 0, negativt semidefinit om och endast om alla egenvärden till A är 0.