Introduktion till Egenvärden och SVD Har detta något egenvärde? Egenvärdesproblemet Lösning till system av ODE s Egenvärdena är den viktigaste egenskapen i praktiskt taget alla dynamiska system, ofta med påtaglig fysisk betydelse, t.ex. - populationstillväxt - frekvenser hos vibrerande föremål Det algebraiska egenvärdesproblemet: Givet en matris A (n n), sök λ och x sådana att Ax = λx Egenvektorn Geometrisk tolkning : En egenvektor ger en rikning i vilken matrisen bara påverkar längden, inte riktningen Egenskaper Triangulära (diagonala) matriser har egenvärdena på huvuddiagonalen Symmetriska matriser har endast reella egenvärden En reell matris kan ha komplexa egenvärden K 4 -
Ett ickesymmetriskt exempel exemplet A = 0 a b 0 a b A ej symmetrisk a,b reella det( A λi) x = 0 λ ab = 0 ger λ = ± ab Ax = λx ( A - λi ) x = 0 Om matrisen A är ickesingulär finns bara x=0, alltså måste A - λi vara singulär. Karakteristiska polynomet ges av det(a - λi)x = 0 polynom av grad n a=, b=4 ger λ= ± Om någon av a,b är negativ λ= ± i En reell matris kan alltså mycket väl ha komplexa egenvärden, dessa uppträder alltid i konjugerade par om α + βi är egenvärde så är även α - βi egenvärde Unika? Egenvärden behöver ej vara distinkta (olika) multipelt egenvärde = flera egenvektorer kan ha samma egenvärde En n n matris A har alltid n egenvärden Egenvektorerna inte unika eftersom Ax = λx A(αx) = λ(αx) dvs αx också egenvektor till λ. Det intressanta med egenvektorerna är riktningen, mycket vanligt att de normeras, dvs. ~ x = x x Hur löser man Ax = λx? Behövs alla egenvärden eller bara några få? Behövs bara egenvärdena eller motsv. egenvektorer oxå? Är matrisen reell eller komplex? Är matrisen symmetrisk? Är matrisen liten & tät, eller stor & gles? K 4 -
Transformationer Vi behöver transformationer: som reducerar matrisen till en form vars egenvärden och egenvektorer lätt tas fram vars relation till den ursprungliga matrisen är känd Similaritetstransformationer Sats: Låt A,P C n n, där P ickesingulär Om λ är ett egenvärde till A med egenvektor x, då är λ ett egenvärde till P - AP med egenvektorn P - x Bevis: P ickesingulär P - x 0 λx = Ax = APP - x λp - x = P - APP - x λ(p - x) = P - AP(P - x) dvs. λ är ett egenvärde och P - x en egenvektor till P - AP Kanoniska former En similaritetstransformation P - AP bevarar egenvärdena och gör motsvarande egenvektorer lätt åtkomliga För alla matriser gäller att man med en similaritetstransf. Q - AQ, där Q är en ortogonal matris, kan åstadkomma en blocktriangulär form, sk. Schur form Jordans normalform: blockdiagonal matris Enklaste formen en matris kan reduceras till Metoder för vissa egenvärden I praktiken behövs ofta bara en eller ett par egenvärden & ev. några egenvektorer Den enklaste metoden för att beräkna ett egenvärde och en egenvektor kallas Potensmetoden K 4-3
(Repetition av) Singulära värdesuppdelningen m n Låt A µ, då finns det ortogonala matriser U (m m) och V (n n) så att σ Σ U T AV = där Σ = 0 O σ r σ i kallas singulära värden och σ σ K σ r > 0 Tillämpning av SVD Normer: A = σ A F = max Konditionen: = σ σ + L+ σ κ(a) = A A - = σ max / σ min = σ / σ n κ(a) = om A singulär A s rang = r = antalet sing.värden 0 r tillämpning av SVD Pseudoinversen A + = V Σ + U T Σ = V Minsta normlösningen till Ax b ges av x = A + b Ortonormala baser för rummen U =R(A) V =N(A) U = [ U U ] U =N(A T ) V =R(A T ) V = V V V och V är ortogonala komplement U och U är ortogonala komplement A + U 0 [ ] T Härledning av SVD A T A symmetrisk och därmed pos. semidefinit x T A T Ax 0 ty y T y 0 Då är alla egenvärden 0 Kalla egenvärdena σ, σ,, σ n där σ σ σ r > 0 och σ r+ = = σ n = 0 med motsvarande egenvektorer v, v,, v r Låt V = ( v, v,, v r ) då gäller alltså A T AV = V Σ där Σ = diag( σ, σ, σ r ) K 4-4
... härledning V = ( v r+ v n ) svarar mot nollegenvärdena: σ r+,, σ n = 0 Matrisen V = ( V V ) kan konstrueras ortogonal Låt U =AV Σ, U U =I Välj U så att U = ( U U ) är ortonormal med formelmanipulation får man U Τ AV = Σ 0 0 0 K 4-5