Basbyten och linjära avbildningar

Relevanta dokument
Egenvärden och egenvektorer. Linjär Algebra F15. Pelle

Lösningar till utvalda uppgifter i kapitel 8

Egenvärden och egenvektorer

Crash Course Algebra och geometri. Ambjörn Karlsson c januari 2016

Lågrangsapproximation exempel. Singulärvärden och tillämpningar

November 24, Egenvärde och egenvektor. (en likformig expansion med faktor 2) (en rotation 30 grader moturs)

Vektorgeometri för gymnasister

MVE022 Urval av bevis (på svenska)

12. SINGULÄRA VÄRDEN. (u Av) u v

UPPSALA UNIVERSITET Matematiska institutionen Styf. Exempeltenta med lösningar Programmen EI, IT, K, X Linjär algebra juni 2004

Vektorgeometri för gymnasister

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

Linjär Algebra, Föreläsning 20

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) Måndagen den 13 juni 2005

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Vektorgeometri för gymnasister

LÖSNINGAR LINJÄR ALGEBRA LUNDS TEKNISKA HÖGSKOLA MATEMATIK

Grafer och grannmatriser

Institutionen för Matematik TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA DAG: Fredag 30 augusti 2002 TID:

ax + y + 4z = a x + y + (a 1)z = 1. 2x + 2y + az = 2 Ange dessutom samtliga lösningar då det finns oändligt många.

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp

DIAGONALISERING AV EN MATRIS

SF1624 Algebra och geometri Tentamen Onsdag, 13 januari 2016

SKRIVNING I VEKTORGEOMETRI

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng. Använd bifogat formulär för dessa 6 frågor.

LINJÄRA AVBILDNINGAR

A = x

SF1624 Algebra och geometri Bedömningskriterier till tentamen Tisdagen den 15 december, 2009

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

4x az = 0 2ax + y = 0 ax + y + z = 0

Chalmers tekniska högskola Datum: kl Telefonvakt: Linnea Hietala MVE480 Linjär algebra S

Diagonalisering och linjära system ODE med konstanta koe cienter.

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

SF1624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 2010 DEL A

Norm och QR-faktorisering

x + y z = 2 2x + 3y + z = 9 x + 3y + 5z = Gauss-Jordan elemination ger: Area = 1 2 AB AC = 4. Span(1, 1 + x, x + x 2 ) = P 2.

Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner. 2? Det är komplicerat att

Vektorerna är parallella med planet omm de är vinkelräta mot planets normal, dvs mot

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 15 mars 2010 kl

19. Spektralsatsen Spektralsatsen SPEKTRALSATSEN

Tentamen i ETE305 Linjär algebra , 8 13.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Preliminärt lösningsförslag

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Del 1: Godkäntdelen. TMV142 Linjär algebra Z

Egenvärden, egenvektorer

Linjär Algebra F14 Determinanter

Prov i matematik F2, X2, ES3, KandFys2, Lärare, Frist, W2, KandMat1, Q2 LINJÄR ALGEBRA II

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

1 som går genom punkten (1, 3) och är parallell med vektorn.

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 17 april 2010 kl

SF1624 Algebra och geometri Lösningsförslag till tentamen Tisdagen den 15 december, 2009 DEL A

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Föreläsn. anteckn. TMV206-VT13. Vecka 6-7. Egenvärden och Egenvektorer. Kap. 8-9

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Linjär algebra Föreläsning 10

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016

. b. x + 2 y 3 z = 1 3 x y + 2 z = a x 5 y + 8 z = 1 lösning?

Determinanter, egenvectorer, egenvärden.

A = (3 p) (b) Bestäm alla lösningar till Ax = [ 5 3 ] T.. (3 p)

Föreläsning 3, Linjär algebra IT VT Skalärprodukt

Prov i matematik Civilingenjörsprogrammen EL, IT, K, X, ES, F, Q, W, Enstaka kurs LINJÄR ALGEBRA

Linjär algebra på 2 45 minuter

1 Linjära ekvationssystem. 2 Vektorer

SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

TMV166 Linjär algebra för M, vt 2016

1. (a) Bestäm alla värden på c som gör att matrisen A(c) saknar invers: c 1

LYCKA TILL! kl 8 13

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Lösningar till MVE021 Linjär algebra för I

Geometriska vektorer

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

TMV166 Linjär Algebra för M. Tentamen

SF1624 Algebra och geometri

Detta cosinusvärde för vinklar i [0, π] motsvarar α = π 4.

n = v 1 v 2 = (4, 4, 2). 4 ( 1) + 4 ( 1) 2 ( 1) + d = 0 d = t = 4 + 2s 5 t = 6 + 4s 1 + t = 4 s

TENTAMEN I LINJÄR ALGEBRA OCH NUMERISK ANALYS F1, TMA671

Vektorgeometri för gymnasister

Avsnitt 6, Egenvärden och egenvektorer. Redan första produktelementet avslöjar att matrisen inte är en ortogonal matris. En matris 1 0.

Basbyte (variabelbyte)

LÖSNINGAR TILL LINJÄR ALGEBRA kl LUNDS TEKNISKA HÖGSKOLA MATEMATIK

Linjär algebra på några minuter

Tentamen TMV140 Linjär algebra Z

SF1624 Algebra och geometri

Linjär Algebra, Föreläsning 2

Dagens ämnen. Repetition basbyten och linjära avbildningar Diagonalisering Kvadratiska former. Andragradskurvor

Provräkning 3, Linjär Algebra, vt 2016.

SKRIVNING I VEKTORGEOMETRI

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

Linjär Algebra 764G01: Kommentarer och läsanvisningar till kursboken

SKRIVNING I VEKTORGEOMETRI

LINJÄR ALGEBRA II LEKTION 8+9

Numerisk Analys, MMG410. Exercises 2. 1/33

Transkript:

Föreläsning 11, Linjär algebra IT VT2008 1 Basbyten och linjära avbildningar Innan vi fortsätter med egenvärden så ska vi titta på hur matrisen för en linjär avbildning beror på vilken bas vi använder. Vi vet sedan tidigare att till en linjär avbildning g hör en matris A sådan att g(x) = Ax, där enligt bassatsen matrisen A t ex i fallet i 3 dimensioner ges av A = ( g(e 1 ) g(e 2 ) g(e 3 ) ) där e 1, e 2 och e 3 är standardbasvektorerna. Detta är i själva verket inte mer än en del av sanningen. Matrisen beror ju i själva verket på vilken bas vi väljer. Det är just i standardbasen som den ser ut så här. Ska man vara riktigt korrekt så borde man skriva att g(x) = Ax E, där x E är x koordinater i basen E = (e 1 e 2 e 3 ) och ha i åtanke att A beror på basen. Antag nu att F = (f 1 f 2 f 3 ) är en annan bas. Bassatsen ger nu att g(x) = A F x F, där A F = ( g(f 1 ) g(f 2 ) g(f 3 ) ) Exempel 1 Låt g vara den linjära avbildning som projicerar rummet på xyplanet. Vi har tidigare sett att denna har matrisen 1 0 0 A = 0 1 0 0 0 0 i standardbasen. Låt nu istället F vara ON-basen som består av vektorerna F = ( ) 1/ 3 1/ 2 1/ 6 f 1 f 2 f 3 = 1/ 3 1/ 2 1/ 6 1/ 3 0 2/ 6 och låt h vara den linjära avbildning som projicerar ortogonalt på planet som spänns upp av f 1 och f 2. Matrisen för denna avbildning i basen F kommer då att vara A F = ( h(f 1 ) h(f 2 ) h(f 3 ) ) = ( f 1 f 2 0 ) 1 0 0 = 0 1 0 0 0 0 De två linjära avbildningarna är uppenbarlien olika, ty normalvektorerna e 3 respektive f 3 till planen är inte parallella. Däremot har de två linjära avbildningarna samma matris om man jobbar i de två olika baserna.

Föreläsning 11, Linjär algebra IT VT2008 2 I exemplet så såg vi att matrisen för den lite krångligare avbildningen h blev lika lätt som för g bara vi valde att jobba med en lämplig bas. Hitta matrisen för h i standardbasen är inte lika lätt, men vi ska se att man kan använda vår kunskap om basbyten för att få fram den. Vad vi söker är alltså en matris B sådan att h(x) = Bx E. i standardbasen. Vi såg ovan att h(x) = A F x F i basen F. Från avsnittet om basbyten så vet vi att koordinaterna i standardbasen och basen F är relaterade genom vilket ger att x F = F 1 x E h(x) = A F F 1 x E fortfarande uttryckt i basen F. För att översätta detta till koordinater i E så utnyttjar vi att y E = F y F med y F = A F F 1 x E och får slutligen h(x) = F A F F 1 x E i standardbasen E. Den sökta matrisen är alltså B = F A F F 1. Intuitivt kan man tolka B som så att först översätter F 1 från standardbasen till basen F, sedan utför A F den linjära avbildningen i basen F och slutligen så översätter F tillbaka till standardbasen. Vi sammanfattar i följande sats. Sats 1 Låt en linjär avbildning ha matrisen A F har den matrisen i standardbasen. A = F A F F 1 i basen F = (f 1 f 2 f 3 ). Då Exempel 2 Vi återknyter till förra exemplet. Enligt satsen så får vi nu att matrisen för den linjära avbildningen h i standardbasen ges av A = F A F F 1 = F A F F t = 1 5 1 2 1 5 2. 6 2 2 2 Observera speciellt att F 1 = F t eftersom det är en ON-bas så F är en ON-matris. Man kunde givetvis ha räknat fram A direkt genom att tänka geometriskt, men inte utan en hel del besvär. Det lönar sig att jobba med olika baser (och lära sig användbara satser som den ovan). En av vinsterna med att beräkna egenvärden om man kan hitta en full uppsättning av linjärt oberoende egenvektorer (och det går t ex som vi vet om matrisen är symmetrisk) är att man får en bas där den linjära avbildningen är väldigt enkel. På en bas bestående av egenvektorer så är ju matrisen bara multiplikation med ett tal på respektive basvektor, så att matrisen i egenvektorsbasen blir diagonal. Det är detta som är kärnan i vad som kallas för diagonalisering som är nästa ämne då vi ska knyta samman egenvärden med denna diskussion om basbyten och linjära avbildningar.

Föreläsning 11, Linjär algebra IT VT2008 3 Diagonalisering En diagonal matris är en matris som bara har nollor utanför diagonalen. Sådana matriser är väldigt enkla att hantera på alla möjliga sätt och vi ska se hur man kan utnyttja detta för bl a symmetriska matriser. Denition 1 Låt A vara en n n-matris. Vi säger att A är diagonaliserbar om det nns inverterbar matris P och diagonal matris D sådana att A = P DP 1. En direkt tillämpning av diagonaliseringen är att det blir snabbt att beräkna en godtycklig potens av A. Vi får A 2 = (P DP 1 )(P DP 1 ) = P D(P 1 P )DP 1 = P D 2 P 1, vilket med en uppenbar induktion ger A n = P D n P 1. Det är trivialt att beräkna D n (varför?) och sedan behöver vi bara multiplicera med P och P 1. Genom att multiplicera med P från höger i båda leden så får vi den ekvivalenta likheten AP = P D. Antag nu att A har n stycken linjärt oberoende egenvektorer v 1,..., v n med motsvarande egenvärden λ 1,..., λ n, d v s Av i = λ i v i för i = 1,..., n. Låt P vara matrisen som har v 1,..., v n som kolonner och låt D vara den diagonalmatris som har λ 1,..., λ n på diagonalen. Eftersom kolonnerna är linjärt oberoende så kommer P att vara inverterbar. Vi får AP = A ( v 1... v n ) = ( Av1... Av n ) = ( λ1 v 1... λ n v n ) = P D. Vi har alltså visat att om A har n stycken linjärt oberoende egenvektorer så är den diagonaliserbar. Omvänt så antag att A = P DP 1 är diagonaliserbar. Då ser man direkt från AP = P D att kolonnerna i P är egenvektorer till A med elementen i D:s diagonal som egenvärden. Vi har alltså visat följande: Sats 2 En n n-matris är diagonaliserbar om och endast om den har n stycken linjärt oberoende egenvektorer. Genom att utnyttja vad vi vet om symmetriska matriser så får vi följande följdsats: Sats 3 Till varje symmetrisk matris A så nns det diagonal matris D och ON-matris P sådana att A = P DP t.

Föreläsning 11, Linjär algebra IT VT2008 4 Exempel 3 Vi såg senast att A = ( ) 3/4 1/4, 1/4 3/4 hade egenvärdena 1 respektive 1/2 med motsvarande (normerade) egenvektorer (1/ 2)(1 1) t och (1/ 2)(1 1) t. Vi sätter då enligt receptet ovan P = 1 ( ) ( ) 1 1 1 0 och D =, 2 1 1 0 1/2 vilket ger P DP t = 1 2 som satsen lovade oss. ( ) ( ) ( ) 1 1 1 0 1 1 = 1 ( ) ( ) 1 1/2 1 1 = A 1 1 0 1/2 1 1 2 1 1/2 1 1 Vi ska nu relatera diagonaliseringen av en matris till basbyten för linjära avbildningar. Antag att vi har en linjär avbildning som har matrisen A i standardbasen. Vi såg tidigare att om F = (f 1 f 2... f n ) är en annan bas så ges matrisen för den linjära avbildningen i basen F av matrisen A F där A = F A F F 1. (Vi formulerade och visade bara satsen för n = 3, men samma argument fungerar för godtyckligt n.) Om vi jämför detta med diagonaliseringen A = P DP 1 så får vi att D helt enkelt är matrisen A P för den linjära avbildningen i basen P, d v s basen som består av egenvektorerna. Men om vi tänker efter lite så kan vi inse att detta bara är en omformulering av villkoret att vara egenvektorer. Antag t ex att v 1 är den första egenvektorn i P. Då kommer den att ha koordinaterna (1 0 0... 0) t i basen P. Men Av 1 = λ 1 v 1 och λ 1 v 1 har koordinaterna (λ 1 0 0... 0) t i basen P, så första kolumnen i A P kommer att vara (λ 1 0 0... 0) t vilket är samma som för D. På samma sätt motiverar man att de andra kolumnerna också stämmer överens. Summerar vi så får vi alltså att den linjära avbildningen som har A som matris (i standardbasen) har en väldigt enkel matris i basen av egenvektorer: Den är diagonal. Singulärvärdesuppdelning Nu ska vi titta på vad man kan göra om man har en matris som inte är diagonaliserbar. Om man släpper på villkoret P = Q i faktoriseringen A = P DQ t av en symmetrisk matris så visar det sig att man alltid kan nna en sådan faktorisering av en godtycklig (inte nödvändigtvis kvadratisk) matris. Beviset av följande sats ligger utanför den här kursen.

Föreläsning 11, Linjär algebra IT VT2008 5 Sats 4 Låt A vara en m n-matris. Då nns det matriser U, V och Σ sådana att: 1. A = UΣV t. 2. U är en ON-matris av storlek m m. 3. V är en ON-matris av storlek n n. 4. Σ är en `diagonal' matris av formen σ 1 0 0 0 0 σ 2 0 0 Σ = 0 0......... σ r. 0 0 0 0 där σ 1 σ 2 σ r > 0. Faktoriseringen A = UΣV t kallas för en singulärvärdesuppdelning (SVD) av A och (σ 1,..., σ r ) kallas för A:s singulärvärden. Anmärkning 1 Matrisen Σ är unikt bestämd (och därmed är singulärvärdena unikt bestämda), men däremot är matriserna U och V inte unikt bestämda. Det nns ingen enkel algoritm att beräkna SVD av en matris för hand, däremot nns det bra numeriska metoder som lämpar sig för datorberäkningar. Vi ska dock se att faktoriseringen hänger ihop med de symmetriska matriserna AA t och A t A. Antag att A = UΣV t är en SVD av A. Vi får då AA t = (UΣV t )(UΣV t ) t = UΣV t V Σ t U t = U(ΣΣ t )U t. Observera att ΣΣ t är diagonal med σi 2 på diagonalen så vi ser att vi har en diagonalisering av AA t. Detta ger att kolonnerna i U är egenvektorer till AA t med motsvarande egenvärden σi 2. På motsvarande sätt får vi att A t A = V (Σ t Σ)V t. Detta ger att kolonnerna i V (det är därför man envisas med att ha V t istället för V ) är egenvektorer till A t A. En viktig tillämpning på SVD är att man kan utnyttja den till att ta ut det viktiga ur en matris som innehåller någon typ av information. Exempel nns inom signalbehandling, om A är en term/dokument-matris för informationssökning (så kallad LSI som ni hörde om på temaföreläsningen) och om A innehåller pixlarna till en bild. Vi ska nu antyda hur det här fungerar. Om vi låter kolonn i i U vara u i och kolonn i i V vara v i så får vi σ 1 0 0 0 A = UΣV t = ( ) 0 σ 2 0 0 v1 t u 1 u 2... u m 0 0... v t 2...... σ r.. = vn t 0 0 0 0 r σ i u i vi. t i=1

Föreläsning 11, Linjär algebra IT VT2008 6 Observera först att u i v t i är m n-matriser, så att summan i högerledet är en uppdelning av A som summan av r stycken matriser. Eftersom kolonnerna i U och V är normerade så kommer alla element i u i v t i att vara små ( 1). Därmed kommer det att vara singulärvärdena som avgör hur stora matriserna i summan är. Om vi nu tar en del av summan s σ i u i vi t i=1 med s < r så kommer denna att vara nästan lika med A om σ i för i > s är mycket mindre än det största singulärvärdet σ 1. För signalbehandling och för LSI fungerar det så att man genom att bara ta med de största singulärvärdena ltrerar bort skräp i informationen. När det gäller bilder så kan man på det här sättet komprimera lagringen av dem genom att försumma termerna då i > s. (Det nns idag bättre metoder för komprimering, men detta exempel är en bra illustration hur SVD fungerar.)