Kapitel 7, 9.5-9.7 och 8 i Anton/Rorres: Elementary Linear Algebra: Applications version (7:e uppl.)



Relevanta dokument
Ekvationssystem, Matriser och Eliminationsmetoden

Tentamen i Linjär algebra (TATA31/TEN1) ,

Version Linjär algebra kapiltet från ett ODE-kompendium. Mikael Forsberg

Basbyte (variabelbyte)

Preliminärt lösningsförslag

Algebra, polynom & andragradsekvationer en pampig rubrik på ett annars relativt obetydligt dokument

a n = A2 n + B4 n. { 2 = A + B 6 = 2A + 4B, S(5, 2) = S(4, 1) + 2S(4, 2) = 1 + 2(S(3, 1) + 2S(3, 2)) = 3 + 4(S(2, 1) + 2S(2, 2)) = = 15.

TMV166 Linjär algebra för M, vt 2016

Egenvärden och egenvektorer. Linjär Algebra F15. Pelle

Examination: En skriftlig tentamen den 15 mars samt möjlighet till en omtentamen. Tider och lokaler meddelas senare.

Studiehandledning till linjär algebra Avsnitt 4

Träning i bevisföring

Självkoll: Ser du att de två uttrycken är ekvivalenta?

SF1624 Algebra och geometri Tentamen Onsdagen 29 oktober, 2014

Linjär algebra på några minuter

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

3.1 Linjens ekvation med riktningskoefficient. y = kx + l.

Möbiustransformationer.

Kursplanering för Linjär algebra, HT 2003

4-6 Trianglar Namn:..

konstanterna a och b så att ekvationssystemet x 2y = 1 2x + ay = b 2 a b

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

Linjära system av differentialekvationer

Linjära system av differentialekvationer

Vi skall skriva uppsats

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

Kapitel 6. f(x) = sin x. Figur 6.1: Funktionen sin x. 1 Oinas-Kukkonen m.fl. Kurs 6 kapitel 1

Studiehandledning till linjär algebra Avsnitt 3

MVE022 Urval av bevis (på svenska)

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

Något om permutationer

1 som går genom punkten (1, 3) och är parallell med vektorn.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

November 24, Egenvärde och egenvektor. (en likformig expansion med faktor 2) (en rotation 30 grader moturs)

DN1230 Tillämpad linjär algebra Tentamen Onsdagen den 29 maj 2013

4x az = 0 2ax + y = 0 ax + y + z = 0

PRÖVNINGSANVISNINGAR

Crash Course Algebra och geometri. Ambjörn Karlsson c januari 2016

Modul 1: Komplexa tal och Polynomekvationer

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

Vektorgeometri för gymnasister

OM KOMPLEXA TAL. 1 Om a är ett positivt reellt tal så betecknar a det positiva reella tal vars kvadrat är a men det är

Vektorgeometri för gymnasister

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

1 Linjära ekvationssystem. 2 Vektorer

Vektorgeometri för gymnasister

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

1. (a) Bestäm alla värden på c som gör att matrisen A(c) saknar invers: c 1

Diagonalisering och linjära system ODE med konstanta koe cienter.

Kontrollskrivning i Linjär algebra ,

Inför tentamen i Linjär algebra TNA002.

Examination: En skriftlig tentamen den XX mars samt möjlighet till en omtentamen. Tider och lokaler meddelas senare.

Linjär algebra F1, Q1, W1. Kurslitteratur

6.1 Skalärprodukt, norm och ortogonalitet. TMV141 Linjär algebra E VT 2011 Vecka 6. Lärmål 6.1. Skalärprodukt. Viktiga begrepp

SF1620 Matematik och modeller

Lathund, procent med bråk, åk 8

LINJÄR ALGEBRA HT2013. Kurslitteratur: Anton: Elementary Linear Algebra 10:e upplagan.

Linjär algebra. Föreläsningar: Lektioner: Laborationer:

Studiehandledning till linjär algebra Avsnitt 1

Vektorgeometri för gymnasister

Frågorna 1 till 6 ska svaras med ett kryss för varje korrekt påstående. Varje uppgift ger 1 poäng. Använd bifogat formulär för dessa 6 frågor.

Övningshäfte i matematik för. Kemistuderande BL 05

SEPARABLA DIFFERENTIALEKVATIONER

Egenvärden och egenvektorer

Dagens ämnen. Repetition basbyten och linjära avbildningar Diagonalisering Kvadratiska former. Andragradskurvor

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

4-3 Vinklar Namn: Inledning. Vad är en vinkel?

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016

Preliminärt lösningsförslag

Väga paket och jämföra priser

SF1624 Algebra och geometri Lösningsförslag till tentamen Lördagen den 5 juni, 2010 DEL A

När du som vårdpersonal vill ta del av information som finns hos en annan vårdgivare krävs det att:

Preliminärt lösningsförslag

MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET MED MATRISINVERSER = = =

Stöd inför omtentamen i Linjär algebra TNA002.

Exempelsamling :: Diagonalisering

x 2 + px = ( x + p 2 x 2 2x = ( x + 2

där β R. Bestäm de värden på β för vilka operatorn är diagonaliserbar. Ange även för respektive av dessa värden en bas av egenvektorer till F.

SF1624 Algebra och geometri

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

x + y z = 2 2x + 3y + z = 9 x + 3y + 5z = Gauss-Jordan elemination ger: Area = 1 2 AB AC = 4. Span(1, 1 + x, x + x 2 ) = P 2.

Lite Linjär Algebra 2017

2x + y + 3z = 4 x + y = 1 x 2y z = 3

Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner. 2? Det är komplicerat att

Uppgifter, 2015 Tillämpad linjär algebra

(d) Mängden av alla x som uppfyller x = s u + t v + (1, 0, 0), där s, t R. (e) Mängden av alla x som uppfyller x = s u där s är ickenegativ, s 0.

Mätningar på op-förstärkare. Del 3, växelspänningsförstärkning med balanserad ingång.

A = x

Vektorerna är parallella med planet omm de är vinkelräta mot planets normal, dvs mot

EXEMPEL OCH LÖSNINGAR I LINJÄR ALGEBRA II

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) Måndagen den 13 juni 2005

L(9/G)MA10 Kombinatorik och geometri Gruppövning 1

Lösningar till utvalda uppgifter i kapitel 8

Transkript:

Svante Ekelin Institutionen för matematik KTH 1995 Studiehandledning till linjär algebra Avsnitt 5 Kapitel 7, 9.5-9.7 och 8 i Anton/Rorres: Elementary Linear Algebra: Applications version (7:e uppl.) Välkommen till avsnitt 5. Nu börjar vi närma oss slutet av kursen. Detta avsnitt är det sista som innehåller ny teori. Det sista avsnittet, nummer 6, innebär ju att du fritt får välja ett tillämpningsområde i kap 11 att fördjupa dig inom. Avsnitt 5 innehåller huvudsakligen två begreppsbildningar; egenvärdesrelationen och linjära avbildningar mellan allmänna vektorrum. Egenvärdesrelationen innebär följande: Givet en kvadratisk matris A, sök vektorer x och skalärer sådana att Ax = x. Om denna relation är satisfierad så kallas x för en egenvektor till A, och är motsvarande egenvärde. Det visar sig att många egenskaper hos en kvadratisk matris även innehas av en diagonalmatris med egenvärdena på huvuddiagonalen. Denna form innebär att beräkningar underlättas kraftigt. Diagonalisering är en av de viktigaste användningarna för egenvärdesrelationen. Vi hoppar därefter fram till kapitel 9, för att stifta bekantskap med några geometriska tillämpningar av diagonalisering. Den andra begreppsbildningen i avsnitt 5 är linjära avbildningar mellan allmänna vektorrum. Detta kan förefalla ganska abstrakt, men vi kommer att se att egenskaperna för sådana avbildningar i allt väsentligt kan återföras på motsvarande egenskaper för matriser. Vi vet ju sedan tidigare att en linjär avbildning från R n till R m kan beskrivas av en m n -matris. I kap 8 ser vi att motsvarande gäller för en linjär avbildning från ett n-dimensionellt till ett m-dimensionellt vektorrum. Matrisens element visar sig dock bero på hur baserna för vektorrummen valts. 1

Läsanvisningar och kommentarer till läroboken Kap 7.1 Egenvärden och egenvektorer Om A är en kvadratisk matris (n n), så gäller att vektorerna x och Ax är av samma typ (d.v.s. båda är vektorer i R n ). Det kan då vara intressant att fråga sig om dessa vektorer står i något slags relation till varandra. Är det till exempel så att Ax är en multipel av x? D.v.s., finns det något reellt tal så att Ax = x? I så fall säger vi att x är en egenvektor (eigenvector) till A, och att är motsvarande egenvärde (eigenvalue). Den geometriska tolkningen av detta är att vektorerna x och Ax är parallella 1. Just denna typ av relation, egenvärdesrelationen, har visat sig vara mycket betydelsefull, både inom ren matematik och inom olika tillämpningsområden. Studera Ex 1 på sid 356. Innan vi går vidare med att presentera en allmän metod för att bestämma egenvärden och egenvektorer till en given matris är det bra att klargöra vissa grundläggande fakta. Nollvektorn x = 0 satisfierar alltid egenvärdesrelationen Ax = x, oavsett A och. Detta är trivialt, och nollvektorn räknas inte som egenvektor. Egenvektorer är aldrig unika. Om t.ex. vektorn x 1 är en egenvektor till matrisen A svarande mot egenvärdet så gäller detsamma för 2x 1, 17x 1, och överhuvudtaget varje multipel x 1. Detta följer direkt ur matrismultiplikationens linjära egenskap: A x 1 = Ax 1 = x 1 = x 1. För vissa matriser är alla (nollskilda) vektorer egenvektorer. Exempelvis gäller, eftersom Ix = 1x för alla vektorer x, att varje nollskild vektor är egenvektor till enhetsmatrisen I. Motsvarande egenvärde är 1 för samtliga dessa egenvektorer. Vissa matriser saknar helt egenvektorer. 2 Detta inses enklast geometriskt. Matrisen för vridning exempelvis ett kvarts varv moturs saknar egenvektorer, eftersom den resulterande vektorn inte kan vara 1 Eller anti-parallella, om är negativt. 2 Vi förutsätter här att vektorerna hör till R n, d.v.s. att komponenterna är reella tal. Om vi tillåter att skalärer och vektorernas komponenter kan vara komplexa tal så har alla kvadratiska matriser egenvektorer. En 2 2 - matris kan dock då inte längre tolkas som en geometrisk avbildning, t.ex. en vridning, i planet R 2, utan är en linjär operator på ett komplext vektorrum C 2. Komplexa vektorrum är betydelsefulla i bl.a. kvantmekanik, men ingår inte i den här kursen. Den intresserade hittar grundläggande definitioner i kapitel 10. Ibland har man anledning att betrakta komplexa egenvärden även om man inte tar steget fullt ut till komplexa vektorrum. I denna kurs slipper vi dock ifrån denna komplikation. 2

parallell 3 med den ursprungliga. Vi inser (rita figur!) att matriser för vridningar 4 saknar egenvektorer. Varje egenvektor svarar mot ett egenvärde, medan varje egenvärde svarar mot oändligt många egenvektorer. Hur löser man nu egenvärdesproblemet? Givet en kvadratisk matris A, hur bestämmer man samtliga egenvärden och egenvektorer till A? Metoden (som skisseras på nedre halvan av sid 356) bygger på välkända egenskaper för linjära ekvationssystem. Egenvärdesrelationen Ax = x kan med hjälp av enhetsmatrisen I skrivas ( I A)x = 0. Detta kan tolkas som ett homogent linjärt ekvationssystem, där de obekanta är de n komponenterna av vektorn x. Den triviala lösningen x = 0 finns ju alltid, men vi är intresserade av att hitta andra lösningar. Finns det då fler lösningar? Det normala är ju att ett sådant här linjärt ekvationssystem, med lika många ekvationer som obekanta, har exakt en lösning. Detta innebär i vårt fall den ointressanta, triviala lösningen. Denna normalsituation har vi när koefficientmatrisen I A är inverterbar. Vi kan då multiplicera ledvis med inversen ( I A) 1, och får x = ( I A) 1 0 = 0. Intressanta lösningar får vi då koefficientmatrisen inte är inverterbar, d.v.s. då 5 det( I A) = 0. Denna ekvation kallas den karakteristiska ekvationen (characteristic equation) för A, och innebär ett krav på. De värden för som satisfierar den karakteristiska ekvationen är egenvärdena för A. Om man utvecklar determinanten i ekvationens vänsterled finner man att denna är lika med ett n:e-gradspolynom i. Polynomets koefficienter beror på elementen i matrisen A. Från en kurs i algebra kan vi inhämta att ett n:egradspolynom har precis n stycken nollställen, d.v.s. den karakteristiska ekvationen har precis n lösningar. Alltså: en n n -matris har precis n egenvärden, nollställena till det karakteristiska polynomet. Studera Ex 2 på sid 357. Det ovanstående är ju mycket sympatiskt. Det tål att upprepas: en n n- matris har precis n egenvärden. Nu kommer smolket i glädjebägaren : 3 Eller antiparallell. 4 vars vinkel inte är en multipel av ett halvt varv 5 I läroboken hänvisas till sats 6.2.7 för att motivera denna ekvation. Sats 6.2.7 säger att 19 påståenden, benämnda från (a) till (s), är ekvivalenta. Vad som är relevant här är att (b) och (g) är ekvivalenta. 3

Det är inte säkert att alla egenvärden är olika. Vissa egenvärden kan sammanfalla. (Detta kallas degeneration.) Det är inte säkert att alla egenvärden är reella. Ett nollställe till ett polynom kan ju mycket väl vara ett komplext tal. Vi bör dock inte låta oss bli alltför nedslagna av dessa omständigheter. De går att hantera. Nu vet vi hur egenvärdena bestäms. Nästa steg är att bestämma egenvektorerna, svarande mot respektive egenvärde. Detta görs helt enkelt genom att lösa det linjära ekvationssystem som erhålles då man i matrisekvationen ( I A)x = 0 ersätter med aktuellt egenvärde. Se Ex 5, sid 359. Det blir alltid så att minst en ekvation kan strykas (minst en rad i totalmatrisen blir idel nollor), så vi får alltid oändligt många lösningar. Detta bör inte förvåna oss; vi har ju i själva verket valt ut de aktuella värdena för för att ge just denna situation! Observera att man talar om egenrummet (eigenspace) svarande mot egenvärdet. Egenvektorerna utgör ju, tillsammans med nollvektorn, lösningarna till ett homogent linjärt ekvationssystem. Som vi känner till från kapitel 5.2 (sats 5.2.2) bildar sådana lösningar ett delrum av R n. Sats 7.1.4, att en kvadratisk matris A är inverterbar om och endast om 0 inte är ett egenvärde till A, kan alternativt förstås som en direkt följd av sats 1.5.3. Att 0 inte är ett egenvärde till A är ju detsamma som att ekvationen Ax = 0 bara har den triviala lösningen. Övningar: 1a, 2a, 3a, 4c, 5c, 6c, 7a, 8a, 9a, 13ab, 15, 20. 7.2 Diagonalisering En viktig tillämpning av egenvärdesrelationen är diagonalisering. Man kan säga att det handlar om att hitta en lämplig bas, så att problemet man studerar blir så lätt som möjligt att tampas med. Definitionen säger att matrisen A är diagonaliserbar (diagonalizable) om det finns en matris P sådan att P 1 AP är en diagonalmatris. P sägs då diagonalisera A. Hur ska man förstå denna nomenklatur? På vilket sätt har matriserna A och P 1 AP med varandra att göra? A och P 1 AP är i själva verket mycket närbesläktade. Man skulle nästan kunna säga att det är fråga om samma matris, uttryckt i två olika baser. Exaktare formulerat: om den linjära avbildningen T beskrivs av matrisen A i 4

basen B, så beskrivs samma avbildning T av matrisen P 1 AP i basen B. (P är här övergångsmatrisen från basen B till B. Vi återkommer till detta i kap 8.5) Det centrala i kap 7.2 är sats 7.2.1, som säger att en n n -matris är diagonaliserbar om och endast om den har n linjärt oberoende egenvektorer. I så fall kan man nämligen låta dessa egenvektorer utgöra kolonnerna i matrisen P. 6 Läs beviset noga, så att du förstår hur detta hänger ihop! Beviset innebär i praktiken en metod för att diagonalisera en matris (under förutsättning att den är diagonaliserbar). Se de färgade plattorna på sid 367. Studera Ex 1. 7 I Ex 2 får vi se hur det går om metoden tillämpas på en matris som inte är diagonaliserbar. Vi vet ju att en n n-matris har n egenvärden. Om alla dessa är olika (distinct) så är matrisen diagonaliserbar. Detta garanteras av sats 7.2.2, som säger att egenvektorer svarande mot olika egenvärden är linjärt oberoende. Du förväntas känna till och kunna använda detta viktiga resultat. Beviset ingår dock inte i kursen. Du behöver inte lära dig termerna geometrisk respektive algebraisk multiplicitet. Det viktiga på sid 371 är att kravet för diagonaliserbarhet kan uttryckas som att summan av dimensionerna för egenrummen skall vara n, och inte mindre. Kap 7.2 avslutas med ett exempel på hur diagonalisering kan förenkla beräkningar; i det här fallet beräkning av höga potenser av kvadratiska matriser. Läs och begrunda! Övningar: 1, 2, 6, 8, 15, 18. 7.3 Ortogonal diagonalisering I kap 7.2 diskuterades huruvida en n n-matris har n linjärt oberoende egenvektorer. Dessa skulle kunna utgöra en bas för R n. I kap 7.3 ställs frågan 6 Observera att det är nödvändigt att kolonnvektorerna är linjärt oberoende, eftersom P måste vara inverterbar. 7 Observera att matrisen P inte är unik. Dels kan vi räkna upp egenvektorerna i en godtycklig ordning, dels kan varje egenvektor multipliceras med ett godtyckligt tal. I ett fall som detta med flera linjärt oberoende egenvektor svarande mot ett egenvärde kan man också använda andra linjärkombinationer av dessa egenvektorer. 5

om det går att bilda en ortonormal bas för R n bestående av egenvektorer till en given n n-matris. 8 A definieras som ortogonalt diagonaliserbar om det finns en ortogonalmatris P så att P 1 AP är diagonal. ( P 1 AP skrivs i så fall oftast P T AP, vilket är samma sak eftersom P 1 = P T för ortogonalmatriser.) Att detta är fallet precis om A har n ortogonala egenvektorer inses på samma sätt som sats 7.2.1. Man kan också ganska lätt se att ett nödvändigt villkor för detta är att A är symmetrisk. Det roliga är att detta också är ett tillräckligt villkor! 9 (Sats 7.3.1) Detta innebär att det är lätt att direkt se på en matris om den är ortogonalt diagonaliserbar eller inte. Sats 7.3.2 anger ett par sympatiska egenskaper för symmetriska matriser, nämligen att (a) egenvärdena alla är reella, och att (b) egenvektorer svarande mot olika egenvärden är ortogonala. Beviset för (a) ingår inte i kursen 10. Metoden för att diagonalisera en matris ortogonalt är densamma som för vanlig diagonalisering, förutom att man också ser till att de egenvektorer som används är ortogonala och normerade. Se de färgade plattorna på sid 377. Studera Ex 1. Övningar: 2, 6, 10. Innan vi fortsätter med kapitel 8, som är ganska abstrakt, hoppar nu fram till kap 9, för att titta lite närmare på några tillämpningar av ortogonal diagonalisering. Kap 9.5 om kvadratiska former kan verka ganska teoretiskt, med en del nya definitioner. Dessa har dock flera tillämpningar. En är i flervariabelanalysen, närmare bestämt när det gäller att maximera eller minimera en (icke-linjär) funktion av flera variabler. (Beskrivs ej i denna kurs.) Åter andra är mer geometriska, såsom klassificering av andragradskurvor (kap 9.6) resp. andragradsytor (9.7). 8 Vi måste givetvis ha en inre produkt för att kunna resonera om detta. Den euklidiska inre produkten är den som används. 9 Detta resultat, att varje symmetrisk matris är ortogonalt diagonaliserbar, kallas ibland spektralsatsen. Beviset är alltför avancerat för denna kurs. 10 Den intresserade kan ta del av beviset i kap 10. 6

9.5 Kvadratiska former En kvadratisk form i variablerna x 1,..., x n kan skrivas x T Ax, där A är en symmetrisk matris och x är kolonnmatrisen med element x 1,..., x n. I en kvadratisk form ingår normalt både kvadrater av variablerna, t.ex. x 1 2, och korstermer (cross-product terms), t.ex. x 1 x 2. (Om matrisen A är diagonal så saknas korstermer, d.v.s. deras koefficienter är lika med noll.) Studera Ex 1, 2 och 3, för att dels skaffa förståelse för vad kvadratiska former är, och dels för att se hur dessa kan uttryckas på matrisform. Variablerna i en kvadratisk form kan ofta uppfattas som koordinaterna i ett koordinatsystem. Med detta synsätt kan man göra intressanta geometriska tolkningar. Vi återkommer till detta i kap 9.6 och 9.7. Vi kommer i den här kursen att titta lite på de tre senare av de fyra typerna av problem som nämns på sid 477. Sats 9.5.1 skall du känna till och kunna använda, men beviset ingår inte i kursen. Lär dig innebörden av positivt definit (positive definite), enligt definitionen på sid 478. Observera att både kvadratiska former och matriser kan ha denna egenskap. Lär dig samtidigt innebörden av begreppen som definieras i anmärkningen på sid 480. Ex 5, sats 9.5.3 och Ex 6 ingår ej i kursen. Övningar: 1, 2, 7, 11ace, 12ac. 9.6 Diagonalisering av kvadratiska former; kägelsnitt Att diagonalisera en kvadratisk form innebär att göra ett variabelbyte (ett basbyte) så att uttrycket i de nya variablerna blir fritt från korstermer. Tack vare att en kvadratisk form beskrivs av en symmetrisk matris går det alltid att finna nya variabler med denna egenskap. En symmetrisk matris är ju alltid diagonaliserbar. Den är till och med, som vi vet från kap 7.3, ortogonalt diagonaliserbar. 11 11 Detta innebär att det går att införa de nya variablerna med hjälp av ett basbyte förmedlat av en ortogonalmatris. Om de ursprungliga variablerna svarade mot ett ortonormalt koordinatsystem, så har de nya variablerna också denna sympatiska egenskap. Vi kan se det som att det nya koordinatsystemet fås genom en vridning (eller spegling) av det ursprungliga koordinatsystemet. 7

Den allmänna metoden beskrivs på sid 483-484, och resultatet sammanfattas i sats 9.6.1. Se till att du förstår detta, både i teori och praktik. Praktiken illustreras i Ex 1. (Här har bestämningen av egenvektorer utelämnats. Detta bör du klara av själv.) Med viss möda kan man kontrollera resultatet genom att sätta in uttrycken för x 1, x 2 och x 3 i den ursprungliga kvadratiska formen. Återstoden av kap 9.6 behandlar geometrin för andragradsekvationer i två variabler. Kurvorna för sådana ekvationer kallas kägelsnitt (conic sections). 12 Kurvorna kallas också, något mindre poetiskt, för andragradskurvor. Geometrin analyseras genom att vi diagonaliserar kvadratiska former i två variabler. (Variablerna kallas här x och y i stället för x 1 och x 2.) Läs detta noga, så att du ordentligt förstår kopplingen mellan algebran och geometrin. Övningar: 1a, 2a, 7a, 8ac, 14. 9.7 Andragradsytor Här genomför vi motsvarande analys som i kapitel 9.6, men med tre variabler (x, y och z) i stället för två. Geometriskt innebär detta att vi studerar ytor i tredimensionella rymden i stället för kurvor i planet. Algebraiskt är skillnaden bara att vi här diagonaliserar 3 3-matriser i stället för 2 2- matriser. Övningar: 5aceg, 6ac. 8 Linjära avbildningar I detta kapitel studerar vi linjära avbildningar. Detta har vi i och för sig redan gjort tidigare i kursen. Hittills har vi studerat linjära avbildningar från R n till R m. Nu skall vi generalisera ytterligare och behandla linjära avbildningar mellan allmänna vektorrum. 12 Namnet kommer av att det är just dessa typer av kurvor (ellipser, hyperbler och parabler) som kan uppstå som skärning mellan ett plan och en (dubbel)kon. (En dubbelkon är den yta som sveps ut då en rät linje roterar kring en axel som skär linjen.) 8

8.1 Allmänna linjära avbildningar En linjär avbildning (linear transformation) T karakteriseras av egenskapen att T(u + v) = T(u) + T( v), och T(cu) = ct(u). T är här en funktion från V till W, där V och W är två vektorrum. (Om W = V säger vi att T är en linjär operator.) u och v är två godtyckliga vektorer i V, och c är en godtycklig skalär. Jämför sid 4 i avsnitt 3 av studiehandledningen. Vi har tidigare i kursen sysslat med (det viktiga) specialfallet att vektorrummen V och W är R n resp. R m. Det nya här är att vi studerar linjära avbildningar mellan allmänna vektorrum. Vi kommer att se att även dessa allmänna linjära avbildningar kan representeras av matriser. 13 Detta hänger samman med att vektorer i allmänna vektorrum kan beskrivas med hjälp av koordinatvektorer, som ju i princip är element i R n. (Jämför sid 9 och fotnot 14 i avsnitt 3 av studiehandledningen.) Läs igenom exemplen. Övningar: 2, 3, 5, 12, 16, 19. 8.2 Kärna och värdemängd Vid läsningen av kap 8.2 bör man upptäcka stora likheter med det som behandlades i kap 5.5 och 5.6. Här definieras kärna (kernel) och värdemängd (range) för en linjär avbildning T : V W. Kärnan definieras som mängden av vektorer i V som avbildas på nollvektorn i W. Kärnan är ett delrum av V (sats 8.2.1(a)). Värdemängden definieras som mängden av de vektorer i W som är bild av någon vektor i V. 14 Värdemängden är ett delrum av W (sats 8.2.1(b)). Studera Ex 1-5. Observera i Ex 1 särskilt kopplingen mellan kärna för linjär avbildning och nollrum för matris, liksom den mellan värdemängd för linjär avbildning och kolonnrum för matris. 13 Under förutsättning att det är fråga om avbildning mellan ändligtdimensionella vektorrum. 14 Detta är inte något som är unikt för linjära avbildningar, utan denna definition gäller alla funktioner och bör vara bekant sedan tidigare. Se t.ex. sid 181. 9

Rang och nullity, liksom dimensionssatsen, för linjära avbildningar är direkta motsvarigheter till samma begrepp för matriser. Beviset för dimensionssatsen ingår inte i kursen. Övningar: 1ab, 2ab, 5a, 6ac, 7ac, 8ac, 10abcd, 14a. 8.3 Inversa linjära avbildningar En förutsättning för att en avbildning skall vara inverterbar är att den är enentydig, d.v.s. att två olika vektorer inte kan avbildas på samma vektor. Den inversa avbildningen är då den som avbildar tillbaka på ursprungsvektorn. Se Fig 1 på sid 405. När det gäller matriser är det bara kvadratiska sådana som kan vara inverterbara. Kvadratiska matriser svarar mot linjära avbildningar mellan vektorrum med samma dimension. (En n n-matris svarar mot en linjär avbildning från R n till R n.) När det gäller linjära avbildningar mellan allmänna vektorrum T : V W så kan T vara inverterbar även om V och W har olika dimension (W kan ha högre dimension än V). Se t.ex. Ex 2 och 6. Detta innebär dock inget väsentligt avsteg från den rådande korrespondensen mellan matriser och allmänna linjära avbildningar, utan är snarare en fråga om hur man formulerar definitionerna. Om T är inverterbar så är den inversa avbildningen T 1 : R(T) V, där R(T) (värdemängden för T) är ett delrum till W, som ju kan ha lägre dimension än W. Det är i så fall alltid så att R(T) har samma dimension som V. Man skulle i stället kunna betrakta avbildningen T som T : V R(T), varvid diskrepansen mellan matriser och linjära avbildningar i detta avseende skulle försvinna. Notera att inversen av en sammansättning av avbildningar är sammansättningen av deras inverser, i omvänd ordning. 15 (Detta är motsvarigheten till sats 1.4.6(b), sid 43.) Rita gärna en figur som kombinerar informationen i Fig 5 sid 391 (om sammansättning) med informationen i Fig 1 sid 405 (om invers), för att övertyga dig om detta! Övningar: 1ace, 2a, 4ac, 5ab, 6ab, 8b. 15 Detta givetvis under förutsättning att de ingående avbildningarna är inverterbara. 10

8.4 Matriser för allmänna linjära avbildningar I kap 8.4 ser vi hur en linjär avbildning T från ett n-dimensionellt vektorrum V till ett m-dimensionellt vektorrum W kan beskrivas av en m n -matris. Detta är tack vare att vektorerna i V respektive W kan beskrivas av koordinatmatriser, som ju är vektorer i R n respektive R m. Se Fig 1 och Fig 2 sid 410. 16 Elementen i denna matris beror på hur man har valt baserna i de båda rummen. Om basen för V är B och basen för W är B, så kallar vi avbildningens matris [ T] B,B. Alltså: en och samma linjära avbildning kan beskrivas av olika matriser, beroende på hur vi har valt våra baser. Detta är inte konstigare än att en och samma vektor kan beskrivas av olika taluppsättningar (koordinater), beroende på val av bas. Ett viktigt specialfall är då W = V, d.v.s. då vi har att göra med en linjär avbildning T : V V. 17 Man har då oftast ingen anledning att laborera med olika baser för V till vänster om pilen resp. V till höger om pilen. I stället för att skriva [ T] B,B för avbildningens matris skriver man normalt bara [ T] B. Läs exemplen. Du behöver inte kunna bevisa något i kap 8.4. Övningar: 2ab, 4ab, 8abc. 8.5 Similaritet Till slut tar vi upp något om similaritet. Kommer du ihåg matrisen P 1 AP som dök upp i samband med diagonalisering (kap 7.2)? Man säger att de kvadratiska matriserna A och A är similära 18 om det finns en inverterbar matris P sådan att A = P 1 AP. Similära matriser är i själva verket matriser för en och samma linjära avbildning uttryckt i olika baser (sats 8.5.2). Detta resultat kan alternativt förstås på följande sätt: Kalla bilden av vektorn v under avbildningen T för w. Vi har alltså 16 A, som förekommer på fyra ställen i Fig 1, är inte en matematisk symbol och borde inte stå kursivt. 17 En sådan linjär avbildning kallas som bekant ofta för linjär operator. 18 Termerna simila resp. likformiga förekommer också för denna egenskap. Operationen som transformerar A till A kallas ibland för en likformighetstransformation. På sidan 428 ges denna definition av similaritet. Där används beteckningen B för en av matriserna, vilket kanske inte är helt lyckat då B annars i kap 8.5 står för en bas. 11

w = T(v). Uttryckt relativt basen B skrivs detta samband W = AV. Uttryckt relativt basen B skrivs samma samband W = A V. Om övergångsmatrisen mellan B och B kallas P så har vi V = P V och W = P W. (Jämför sid 343.) Då dessa uttryck för V och W sätts in i sambandet relativt basen B ovan fås P W = AP V. Vi multiplicerar denna ekvation ledvis från vänster med P 1, och får W = P 1 AP V. När detta jämförs med sambandet relativt basen B ser vi direkt att A = P 1 AP, vilket är det sökta resultatet. (För att tydliggöra ovanstående resonemang har notationen förenklats jämfört med Anton. V står här för koordinatmatrisen [ v] B, och W för [ w] B. På samma sätt gäller att V är [ v] B och W är [ w] B. A står för [ T] B och A för [ T] B.) Similära matriser har en hel räcka egenskaper gemensamma, bl.a. spår, egenvärden och determinant. Se tabell 1, sid 429. I och med att alla similära matriser, som ju representerar en och samma linjära operator, har en viss egenskap gemensam är det möjligt att tillmäta den linjära avbildningen denna egenskap. Man kan alltså tala om spår, egenvärden och determinant m.m för en linjär operator. Definitionerna bygger på motsvarande definitioner för kvadratiska matriser. Övningar: 1, 2, 3, 7, 8ac, 13ab. 12