Kort om linjär algebra Lars Svensson och Oscar Mickelin 24 juli 2014
Innehåll 1 Förord 1 2 Grundläggande denitioner 2 2.1 Binära kompositioner.................................. 2 2.2 Moduler över ringar.................................. 4 2.3 Strukturebevarande avbildningar........................... 4 2.4 Strukturella delmängder av algebror......................... 5 2.5 Kärnor och bilder.................................... 5 2.6 Några exempel..................................... 6 2.7 Metriska rum...................................... 7 2.8 Normerade rum..................................... 8 2.9 Inreproduktrum..................................... 8 3 Vektorrum och linjära avbildningar 11 3.1 Linjärt beroende och oberoende............................ 11 3.1.1 Bas för vektorrum............................... 12 3.2 Linjära avbildningar.................................. 12 3.2.1 Koordinatavbildingar med avseende på en bas................ 12 3.2.2 Matrisrepresentationen av en avbildning relativt baser........... 13 3.2.3 Projektioner.................................. 14 3.3 Multilinjära avbildningar............................... 16 3.4 Alternerande avbildningar............................... 16 3.4.1 Alternerande multilinjära avbildningar.................... 17 3.4.2 Cramers regel.................................. 18 3.5 Adjugatet till en matris................................ 18 3.6 Determinanten för en linjär avbildning........................ 20 3.7 Egenvärden och egenvektorer............................. 20 3.7.1 Några beteckningar och konventioner..................... 20 3.7.2 Invarianta delrum............................... 21 3.7.3 Triangulering av avbildningar......................... 21 3.7.4 Diagonalisering av avbildningar........................ 22 3.8 Annihilerande polynom................................ 23 3.9 Reducerade polynomet................................. 24 3.10 Struktursatsen för ändligt genererade moduler över Euklidiska ringar....... 25 3.10.1 Välgrundade relationer............................. 25 3.11 Strukturen hos linjära avbildningar på ändligtdimensionella vektorrum...... 26 3.12 Adjungerad avbildning................................. 28 2
3.12.1 Dualitetsteori.................................. 28 3.13 Normala, Hermitiska och unitära avbildningar.................... 29 3.13.1 Spektralsatsen för normala avbildningar................... 30 3.13.2 Singulärvärdesdekomposition......................... 30 4 Kvadratiska former 32 4.1 Kvadratiska former................................... 32 4.2 Kanonisk bas...................................... 32 4.2.1 Existens av kanonisk bas........................... 32 4.2.2 Sylvesters tröghetssats............................. 33 4.3 Matrisrepresentation av kvadratiska former..................... 33 5 Diverse 36 5.1 Algebrans fundamentalsats av Gauss......................... 36
Kapitel 1 Förord Detta kompendium innehåller en bearbetning av föreläsningsanteckningar som givits i samband med kursen i utvidgad linjär algebra vid KTH. Det är tänkt att fungera som ett självständigt, rigoröst och kompakt komplement till den typiska kurslitteraturen inom linjär algebra och innehåller dessutom några ytterligare denitioner inom algebra och smått och gott inom andra grenar av matematiken. Tanken är även att det skall kunna användas som något av ett uppslagsverk under de första åren på KTH då det innehåller ett ertal nyttiga denitioner och satser. Dock är det fortfarande under uppbyggnad och rapporter om eventuella tryckfel mottages tacksamt till oscarmi@kth.se. 1
Kapitel 2 Grundläggande denitioner Detta kapitel inleds med denitioner av de begrepp som kommer att användas för bevisen i resten av kompendiet. Sedan följer en rad exempel för att åskådliggöra dessa. 2.1 Binära kompositioner Låt M vara en mängd. En avbildning M M M (2.1) (x, y) x y (2.2) kallas en binär komposition eller en binär operation. är kommutativ om x y = y x för alla x och y i M. är associativ om x (y z) = (x y) z för alla x, y och z i M. Denition 1 (Distributivitet). Låt och vara två binära kompositioner på M. Vi säger då att är distributiv över om x (y z) = (x y) (x z) (2.3) (y z) x = (y x) (z x). (2.4) Anmärkning 1. Den första likheten kallas vänsterdistributivitet och den andra högerdistributivitet. Denition 2 (Enhet). Ett element e M kallas enhet eller identitet för om x e = e x = x x M. Observation 1. Om e och e är enheter så är e = e, då e e = e = e. 2
3 Linjär Algebra Denition 3 (Inverser). Om x y = e så kallas x vänsterinvers till y och y högerinvers för x. Om x y = y x = e så kallas y invers till x och betecknas vanligen x 1. Observation 2. Om y är vänsterinvers och z är högerinvers till x och om är associativ, så är y = z = x 1 inversen till x, ty (y x) z = y (x z) e z = y e z = y. Vi får som slutsats att om x har invers så är denna unik. Med hjälp av dessa enkla begrepp kan ett antal matematiska strukturer denieras. Denition 4 (Monoid). En monoiod är en mängd med associativ binär komposition med enhet. Denition 5 (Grupp). En grupp är en monoid där varje element har invers. Anmärkning 2. Axiomen för en grupp är precis de som krävs för att garantera att ekvationer av typen ax = b har en entydig lösning x för givna element a, b i gruppen. Denition 6 (Abelsk grupp). En abelsk grupp är en grupp med kommutativ binär komposition. Anmärkning 3. För abelska grupper är det vanligast att kompositionen betecknas + och kallas addition. Enheten betecknas 0 och kallas nolla. Inversen till x betecknas x. Denition 7 (Ring). En ring är en mängd R med två associativa binära kompositioner kallade addition (+) och multiplikation ( ), sådan att multiplikationen är distributiv över additionen och där (R, +) är en abelsk grupp. Vanligen har ringen en etta, dvs ett element betecknat 1 som är enhet vid multiplikation. Denition 8 (Kommutativ ring). En kommutativ ring är en ring där multiplikation är kommutativ.
Lars Svensson, Oscar Mickelin 4 Denition 9 (Skevkropp). En skevkropp K är en ring där varje nollskilt element har multiplikativ invers och med K {0}. Denition 10 (Kropp). En kropp är en kommutativ skevkropp. 2.2 Moduler över ringar Låt M vara en Abelsk grupp med operationen +, och R en ring. Vi betecknar nollan i R med 0 och nollan i M med 0. Antag att vi har en avbildning sådan att R M M (2.5) (r, x) r x (2.6) (i) 0 x = 0 och 1 x = x, (ii) r (x + y) = r x + r y, x M r R, x, y M (iii) (r + s) x = r x + s x, s, r R, x M (iv) r (s x) = (rs) x, s, r R, x M Då kallas M en R-modul. Om R är en kropp K så kallas modulen M för ett vektorrum över kroppen K. Anmärkning 4. Vi kommer i fortsättningen använda den vanliga konventionen för parenteser r x + s y = (r x) + (s y). Oftast skriver vi rx istället för r x och betecknar nollan i både R och M med 0. 2.3 Strukturebevarande avbildningar En avbildning ϕ : M M mellan två monoider som x, y M uppfyller ϕ(x y) = ϕ(x) ϕ(y) (2.7) ϕ(e) = e (2.8) kallas en monoidmorsm. En avbildning θ : G G mellan två grupper som x, y G uppfyller θ(x y) = θ(x) θ(y) (2.9) θ(e) = e (2.10) θ(x 1 ) = θ(x) 1 (2.11)
5 Linjär Algebra kallas en grupphomomorsm. En avbildning ρ : R R mellan två ringar sådan att x, y R ρ(x + y) = ρ(x) + ρ(y) (2.12) ρ(0) = 0 (2.13) ρ(x y) = ρ(x) ρ(y) (2.14) ρ(1) = 1 (om ettan existerar) (2.15) kallas en ringhomomorsm. En avbildning T : M M mellan två R-moduler sådan att x, y M, r R kallas en modulhomomorsm eller en linjär avbildning. T (x + y) = T (x) + T (y) (2.16) T (r x) = r T (x) (2.17) 2.4 Strukturella delmängder av algebror En delmonoid A av en monoid M är en delmängd A M sådan att x, y A så gäller att x y A och e A. En delgrupp H av en grupp G är en delmängd H G sådan att x, y H : x 1 H och x y H. Det nns också en speciellt n typ av delgrupper N G, kallade normala, som uppfyller kravet att x N y G : y 1 x y N. Ett ideal J i en ring R är en delmängd J R sådan att 0 J och (i) x, y J x + y J (ii) x J z R zx J, (vänsterideal) (iii) x J z R xz J, (högerideal) En delmodul L av en R-modul M är en delmängd L M sådan att (i) x, y L x + y L (ii) x L r R rx L Ett delrum W till ett K-vektorrum V är en delmängd som är en delmodul av K-modulen V (ett vektorrum över K är ju också en K-modul). 2.5 Kärnor och bilder Om ϕ : M M är en monoidmorsm så denieras kärnan av ϕ av Bilden Im(ϕ) denieras, som för funktioner i allmänhet, av ker(ϕ) = {x M : ϕ(x) = e }. (2.18) Im(ϕ) = {y M : x M ϕ(x) = y} = {ϕ(x) : x M} = ϕ(m). (2.19) Kärna och bild för grupp-, ring- och modulhomomorsmer denieras på samma sätt och är delgrupper av domän respektive codomän av morsmen, där domänen av en avbildning f : A B är A och codomänen är B. Domänen betecknas ibland med dom(f).
Lars Svensson, Oscar Mickelin 6 Övning 1. Låt ϕ : M M vara en monoidmorsm. Veriera att ker(ϕ) och Im(ϕ) är delmonoider. Övning 2. Låt θ : R R vara en ringhomomorsm. (i) Visa att ker(θ) är ett ideal i dom(θ). (ii) Ge exempel som visar att Im(θ) inte alltid är ideal i R. Övning 3. Låt F : M M vara en modulhomomorsm. Visa att ker(f ) och Im(F ) är delmoduler av M respektive M. 2.6 Några exempel Exempel 1. Låt A vara en mängd. Vi uppfattar A som en mängd av tecken eller symboler eller bokstäver. Det vill säga att vi tolkar A som ett sorts alfabet. Låt nu List(A) vara mängden av alla ändliga ordnade listor av element ur A. Vi inkluderar ovan den tomma listan som vi betecknar med (inget alls), dvs om a 1, a 2, a 3,... är i A så är a 2 a 1 a 1 a 3 a 2 en 5 lista, a 2 en 1 lista och det tomma ordet en 0 lista. Om L n = {n-listor i L} och List(A) = L, så har vi att L = L 0 L 1 L 2... = n N L n (2.20) Vi ska nu göra L till en monoid genom att deniera genom konkatenation av listor. Låt x L, y L, x = x 1 x 2... x n och y = y 1 y 2... y m där n, m N\{0}, x i A, y i A så sätter vi x y = x 1 x 2... x n y 1... y m (2.21) Det tomma ordet (eller listan) är identitet eller enhet. Uppenbarligen är en associativ binär komposition på L, och L blir därvid en monoid. Den kallas den fria monoiden på A. Detta är den mest naturliga monoiden. Exempel 2. De naturliga talen N = {0, 1, 2,...} är en kommutativ monoid under addition. Exempel 3. Mängden av icke-negativa funktioner från en mängd X är en monoid under punktvis addition, dvs med f : X [0, ) och g : X [0, ) så denieras f + g : X [0, ) genom De heltalsvärda funktionerna från X är en delmonoid. (f + g)(x) = f(x) + g(x). (2.22)
7 Linjär Algebra Exempel 4. Z n är en Abelsk grupp under addition. Exempel 5. Mängden av bijektioner S(X) från X till X är en grupp under sammansättning, dvs om f och g är bijektiva X X så är f g bijektiv X X. Enheten i S(X) är identitetsavbildningen id X : X X. Exempel 6. Z är en kommutativ ring under vanlig addition och multiplikation. Exempel 7. Om R är en ring så är R[t], mängden av polynom i den formella variabeln t med koecienter i R, en ring som är kommutativ om R är kommutativ. Exempel 8. Mat n (R), mängden av matriser av format n n med element i ringen R, är en ring under addition och matrismultiplikation. Exempel 9. Mängden av kontinuerliga funktioner R n addition och multiplikation. R är en ring med punktvis dernierad Övning 4. Beskriv hur Z n kan tolkas som en Z modul och visa sedan på samma sätt att varje Abelsk grupp G kan tolkas som en Z modul. Övning 5. Hitta på er exempel. 2.7 Metriska rum Låt M vara en godtycklig mängd. En avbildning kallas en metrik på M om M M d [0, ) R (2.23)
Lars Svensson, Oscar Mickelin 8 d är symmetrisk, dvs. x, y M : d(x, y) = d(y, x). d uppfyller triangelolikheten, dvs. x, y, z M : d(x, z) d(x, y) + d(y, z). x, y M : x = y d(x, y) = 0. 2.8 Normerade rum Låt V vara ett vektorrum över R eller C. En avbildning kallas en norm på V om V [0, ) R (2.24) α R (eller C) och x V : αx = α x, x, y V : x + y x + y, x V : x = 0 x = 0. En mängd M med en metrik kallas ett metriskt rum och ett vektorrum över R (eller C) med en norm kallas ett normerat rum. Varje normerat rum är också ett metriskt rum med metriken d(x, y) = x y. 2.9 Inreproduktrum En inre produkt på ett vektorrum V över R är en avbildning sådan att y V är V x x, y R linjär, x, y V x, y = y, x, x V x, x 0, x V x, x = 0 x = 0. V V, R (2.25) En inre produkt på ett vektorrum V över de komplexa talen C är en avbildning sådan att y V V x x, y C är linjär, x, y V x, y = y, x, x V x, x 0, x V x, x = 0 x = 0. V V, C (2.26)
9 Linjär Algebra Exempel 10. På V = R n är x, y = x T y = x 1 y 1 +... + x n y n en inre produkt (reella skalärer). Exempel 11. På V = C n är x, y = x T y = x 1 y 1 +... + x n y n en inre produkt (komplexa skalärer). Anmärkning 5. Inre produkter på reella vektorrum kallas ibland euklidiska och på komplexa vektorrum kallas inre produkter unitära. Anmärkning 6. Vi betecknar x, x med x 2 och ska strax visa att x = x, x 1/2 är en norm. Sats 1 (Cauchys olikhet). Om V är ett inreproduktrum så gäller x, y V x, y x y med likhet precis då x och y är linjärt beroende. Bevis. Om x eller y är noll så gäller olikheten självklart, så antag x och y är nollskilda. Om α och β är nollskilda skalärer så gäller och αx, βy = α β x, y (2.27) αx βy = α β x y, (2.28) dvs olikheten är invariant under skalning. Det räcker således att visa olikheten då x 2 = y 2 = x, x = y, y = 1. Vidare kan vi utan inskränkning anta att x, y 0, dvs x, y = x, y. Vi visar satsen endast i det komplexa fallet. Notera att 0 x y, x y = x, x + y, y x, y y, x = 1 + 1 2 x, y (2.29) x, y x y. (2.30) Sats 2 (Minkowskis olikhet, triangelolikheten). x + y x + y. (2.31) Bevis. x + y 2 = x + y, x + y = x 2 + y 2 + x, y + y, x = (2.32) = x 2 + y 2 + 2 Re x, y x 2 + y 2 + 2 x y = ( x + y ) 2. (2.33)
Lars Svensson, Oscar Mickelin 10 Korollarium 3. Om V är ett inreproduktrum så denierar x = x, y 1/2 en norm på V. Vi har således att varje inreproduktrum är ett normerat rum, och varje normerat rum är ett metriskt rum.
Kapitel 3 Vektorrum och linjära avbildningar Linjär algebra studerar egenskaper av vektorrum och detta kapitel innehåller denitioner av ett antal fundamentala egenskaper för dessa. Vi fortsätter sedan med att jämföra två givna vektorrum V och V. Ett naturligt tillvägagångssätt för detta är att studera de avbildningar T : V V som bevarar strukturen av V, nämligen de linjära avbildningar som denierades i Ekv. (2.16), och detta görs nedan. Vid en första genomläsning kan det också vara till hjälp att tänka sig att kroppen K som ingår i denitionerna som följer är R eller C och att vektorrummet är R n eller C n. 3.1 Linjärt beroende och oberoende En delmängd M av ett vektorrum V över K kallas linjärt beroende om det existerar v 1,..., v m i M och α 1,..., α m i K som ej alla är noll sådana att α 1 v 1 +... + α m v m = 0. Om M saknar en sådan delmängd säger vi att M är linjärt oberoende. Sats 4. Om u 1,..., u n och v 1,..., v m är vektorer i V sådana att m > n och varje v j är en linjärkombination av u 1,..., u n så är v 1,..., v m linjärt beroende. Bevis. Vi använder induktion över n. Om n = 1 är satsen trivial så xera ett n > 1 och antag att satsen gäller för lägre n. Då har vi alltså v 1 = α 11 u 1 +... + α 1n u n (3.1) v 2 = α 21 u 1 +... + α 2n u n (3.2). (3.3) v m = α m1 u 1 +... + α mn u n (3.4) Om α j1 = 0 för j = 1,..., m så kan u 1, u 2,..., u n ersättas med u 2,..., u n och induktionsantagandet ger att v 1,..., v m är linjärt beroende, så antag, efter eventuell omnumrering, att α 11 0. Då följer att v k α k1 α 11 v 1 linspan{u 2,..., u n }, k = 2,..., m (3.5) 11
Lars Svensson, Oscar Mickelin 12 Enligt indutionsantagandet existerar då β 2,..., β m ej alla noll sådana att ( β 2 v 2 α ) ( 21 v 1 +... + β m v m α ) m1 v 1 = 0 (3.6) α 11 α 11 ( α 21β 2... α ) m1β m v 1 + β 2 v 2 +... + β m v m = 0 (3.7) α 11 α 11 som visar att v 1,..., v m är linjärt beroende. Anmärkning 7. Den tomma mängden är linjärt oberoende. 3.1.1 Bas för vektorrum En ordnad delmängd av ett vektorrum som är linjärt oberoende och som spänner upp vektorrummet kallas en bas. Om basen är en ändlig mängd så kallas vektorrummet ändligtdimensionellt. Sats 5. Om u 1,..., u n och v 1,..., v m är baser för vektorrummet V så är n = m. Bevis. Enligt satsen ovan skulle v 1,..., v m vara linjärt beroende om m > n och u 1,..., u n skulle vara linjärt oberoende om n > m. Således är n = m. Denition 11. Dimensionen för ett ändligtdimensionellt och icke-trivialt vektorrum är antalet element i en bas. Anmärkning 8. Ett vektorrum skiljer sig från moduler över endast ringar i det att man kan visa att alla vektorrum har en bas. En modul för vilket detta inte är sant är exempelvis M = Z 4 över ringen Z. Eftersom 4 m = 0 för alla m M så nns det ingen mängd av linjärt oberoende element i M och därför heller ingen bas. 3.2 Linjära avbildningar Vi denierade i Ekv. (2.16) vad som menas med att en avbildning T : V W mellan två vektorrum V och W över kroppen K är linjär. Utskrivet i detalj är alltså T linjär om T (αx + βy) = αt (x) + βt (y), α, β K, x, y V. (3.8) 3.2.1 Koordinatavbildingar med avseende på en bas Låt u 1,..., u n vara en bas i vektorrumet V. Då existerar för varje x i V unika x 1,..., x n i K sådana att x = x 1 u 1 +... + x n u n. (3.9)
13 Linjär Algebra Skalärlistan x 1,..., x n kallas då koordinaterna för x i basen U = {u 1,..., u n }. Om e 1,..., e n är standardbasen i K n så kan vi deniera den s.k. koordinatavbildningen V x = x 1 u 1 +... + x n u n U x1 e 1 +... x n e n = Uppenbarligen är U en linjär avbildning från V till K n som också är en bijektion. Övning 6. Veriera att koordinatavbildningen är en linjär bijektion. Övning 7. Visa att en linjär bijektion har en linjär invers. x 1.. x n K n. (3.10) 3.2.2 Matrisrepresentationen av en avbildning relativt baser Låt T : V W vara linjär och antag att A = {a 1,..., a n } är en bas för V samt att B = {b 1,..., b m } är en bas för W. Deniera koordinatavbildningarna V x = x 1 a 1 +... + x n a n W y = y 1 b 1 +... + y m b m A x1 e 1 +... + x n e n K n (3.11) B y1 e 1 +... + y m e m K m (3.12) Notera den något olämpliga notationen, då e 1,..., e n betecknar standardbasen i K n och e 1,..., e m standardbasen i K m, men vi får vara lite toleranta och förse oss med en kontextuell språksyn. Vi vill nu nna en linjär avbildning S : K n K m så att diagrammet i Fig. 3.1 kommuterar. a k e k A V T W B T (a k ) K n S K m S(e k ) Figur 3.1: Denition av avbildningen S i termer av T och koordinatavbildningar Detta går, ty A och B är ju linjära och bijektioner, dvs har linjära inverser. Därför gäller att S = B T A 1 och T = B 1 S A, där A 1 (x 1 e 1 +... + x n e n ) = x 1 a 1 +... + x n a n och B 1 (y 1 e 1 +... + y m e m ) = y 1 b 1 +... + y m b m. Då ser vi att och om T (a k ) = α 1k b 1 + α 2k b 2 +... + α mk b m så får vi S(e k ) = (B T )(a k ) = B(T (a k )) (3.13) α 1k α 2k S(e k ) = α 1k e 1 + α 2k e 2 +... + α mk e k =.. α mk. (3.14) α 11... α 1n Men då kan S representeras med matrisen M =. av format m n, i den α m1... α mn meningen att S(e k ) = M e k där punkten i högerledet betecknar matrismultiplikation, dvs S(x) = Mx, (3.15)
Lars Svensson, Oscar Mickelin 14 om x K n. Observation 3. Me k är k-te kolumnen i matrisen M. 3.2.3 Projektioner En linjär avbildning P : V V från vektorrummet V till sig själv kallas en projektion om P P = P. Ibland kallas P också för en idempotent om P 2 = P. Observation 4. Om P 2 = P så är id P också en projektion och Im(P ) = ker(id P ), ker(p ) = Im(id P ), (3.16) ty (id P ) (id P ) = id P P + P 2 = id P och (id P )x = 0 x = P (x) samt P (x) = 0 x = x P x = (id P )x. Följande resultat är enkelt, men användbart. Sats 6. Om M är ett delrum i ett ändligtdimensionellt vektorrum V så existerar en projektion P : V V sådan att Im(P ) = M. Vi säger att P är en projektion på M. Bevis. Låt u 1,..., u m vara en bas för M och välj u m+1,..., u n så att u 1,..., u n är en bas för V (att detta är möjligt ges som en övning för läsaren). Varje x i V kan skrivas unikt som x = x 1 u 1 +... + x m u m +... + x n u n (där x 1,..., x n är koordinaterna för x i basen u 1,..., u n ). Deniera nu P : V V genom Uppenbarligen är P linjär och P (x) = x 1 u 1 +... + x m u m (3.17) P P (x) = P (x 1 u 1 +... + x m u m ) = x 1 u 1 +... + x m u m, (3.18) dvs P P = P Dessutom ser vi att Im(P ) = M, varför satsen är visad. En mental bild för satsen ges i Figur 3.2. Ett av de mest centrala resultaten i linjär algebra är Sats 7 (Dimensionssatsen). Om V och W är ändligtdimensionella vektorrum över K och T : V W är en linjär avbildning så är dim(v ) = dim(ker(t )) + dim(im(t )). Bevis. Låt {a 1,..., a k } vara en bas för ker(t ). Utvidga denna till en bas {a 1,..., a k, a k+1,..., a n } för hela V. Då spänner vektorerna T (a k+1 ),..., T (a n ) naturligtvis upp Im(T ). Vi ska nu visa att de dessutom är linjärt oberoende och därmed en bas för Im(T ). Så antag λ k+1 T (a k+1 ) +... + λ n T (a n ) = 0 T (λ k+1 a k+1 +... + λ n a n ) = 0 (3.19) λ k+1 a k+1 +... + λ n a n ker(t ) (3.20) λ k+1 =... = λ n = 0, (3.21)
15 Linjär Algebra u m+1 ker(p )=Im(id P ) 0 u n u 1 V u 2 x u m M = Im(P ) P x Figur 3.2: Mental bild för Sats 6. eftersom a 1,..., a k ju är bas för ker(t ) och a 1,..., a n är linjärt oberoende. Således har vi visat att dim(ker(t )) + dim(im(t )) = k + (n k) = n = dim(v ) (3.22) Observation 5. W behöver inte ha ändlig dimension. En mental bild för satsen ges i gur 3.3. T V W a n. T a n a k.... T a k+1 a 2 a 1 0 0 a k+1 Figur 3.3: Mental bild för Sats 7. Övning 8. Använd bevisidén i dimensionssatsen för att visa följande resultat: låt A : X Y och B : X Z vara linjära avbildingar där X, Y och Z är ändligtdimensionella vektorrum. Antag dessutom att ker(a) ker(b). Visa att det existerar någon linjär C : Y Z sådan att B = C A, dvs så att diagrammet i Figur 3.4 kommuterar. En ledning ges i Figur 3.5.
Lars Svensson, Oscar Mickelin 16 X A Y B Z C Figur 3.4: Kommuterande diagram i Övning 8. Y A X B Z 0 0 0 Figur 3.5: Ledning till Övning 8. 3.3 Multilinjära avbildningar Låt V 1, V 2,..., V m och W vara vektorrum över K. Den kartesiska produkten V 1... V m består av alla listor på formen (x 1,..., x m ) där x i V i. En avbildning M :V 1... V m W (3.23) (x 1,..., x m ) M(x 1,..., x m ) (3.24) kallas multilinjär om för varje x j V j, j i avbildningen V i x i M(x 1,..., x i,..., x m ) W är linjär. Om m = 2 kallas en multilinjär avbildning M för bilinjär. 3.4 Alternerande avbildningar En avbildning A : V V... V W (3.25) som byter tecken då två variabler x i och x j (i j) byter plats kallas alternerande, dvs om A(x 1,..., x i,..., x j,..., x m ) = A(x 1,..., x j,..., x i,..., x m ). Övning 9. Visa att om A : V m W är multilinjär så är A alternerande precis om den blir noll då två variabler är lika.
17 Linjär Algebra Övning 10. Låt A : V m W vara alternerande och π en permutation av {1, 2,..., m}. Visa att A(x π(1),..., x π(m) ) = (sgn π)a(x 1,..., x m ), där π:s signatur, sgn π, är 1 om π är udda och +1 om π är jämn. 3.4.1 Alternerande multilinjära avbildningar Låt V vara ett n-dimensionellt vektorrum över K och låt V n (x 1,..., x n ) D(x 1,..., x n ) W (3.26) vara en multilinjär alternerande avbildning. Tag e 1, e 2,..., e n som en bas för V. Varje x j V kan då skrivas som en linjärkombination av basvektorerna x j = α 1j e 1 +... + α nj e n = n α kjje kj (3.27) k j=1 Låt A beteckna n n-matrisen [α ij ]. Av multilinjariteten följer att D(x 1,..., x n ) = n... k 1=1 n α k11... α knnd(e k1,..., e kn ) (3.28) k n=1 Men D(e k1,..., e kn ) = 0 om två av e ki :na är lika. Således behöver vi endast summera över de (k 1,..., k n ) som är en permutation π av (1, 2,..., n). Därav följer att D(x 1,..., x n ) = π S n (sgn π)α π(1)1... α π(n)n D(e 1,..., e n ), (3.29) där S n betecknar mängden av alla permutationer av 1,..., n. Således är D(x 1,..., x n ) = det(a)d(e 1,..., e n ) (3.30) om vi denierar determinanten, det(a), av matrisen A genom det(a) = π S n (sgn π)α π(1)1... α π(n)n (3.31) En alternerande multilinjär avbildning som ovan är alltså helt bestämd av dess värde på (e 1,..., e n ). Vi får nu ett enkelt bevis för att determinanten av en produkt är produkten av determinanterna. Sats 8. Om A och B är n n-matriser så är det(ab) = (det(a)) (det(b)). Bevis. Låt b 1, b 2,..., b n beteckna kolonnerna i B. Då ser vi att det(ab) = det([ab 1,..., Ab n ]) är en alternerande multilinjär avbildning av b 1,..., b n. På samma sätt är det(a) det(b) alternerande och multilinjär i b 1,..., b n. Men alternerande multilinjära avbildningar visades ju vara unikt bestämda av deras värden på baslistan e 1,..., e n, som vi låter vara standardbasen i K n. Således räcker det att visa satsen i fallet B = [e 1,..., e n ] = I, då den ju är trivial.
Lars Svensson, Oscar Mickelin 18 3.4.2 Cramers regel Låt A vara en n n-matris med kolonnerna a 1, a 2,..., a n och låt b K n. Antag vi vill lösa ekvationssystemet Ax = b, för x i K n (3.32) Men Ax = A(x 1 e 1 +... + x n e n ) = x 1 A(e 1 ) +... + x n A(e n ) = x 1 a 1 +... + x n a n = b medför att det[x 1 a 1 +... + x n a n, a 2, a 3,..., a n ] = det[b, a 2, a 3,..., a n ] (3.33) Den alternerande multilinjariteten ger då att x 1 det[a 1, a 2,..., a n ] = det[b, a 2,..., a n ] (3.34) På samma sätt behandlas x 2,..., x n, så vi ser att vi får formler för x 1,..., x n om det(a) 0. Detta kallas Cramers regel. 3.5 Adjugatet till en matris Låt A vara en n n-matris med element i en kropp K (R eller Q eller C tex.). Om elementet på rad i, kolonn j är a ij så är det(a) = π S n (sgnπ)a π(1),1... a π(n),n. (3.35) Fixera ett t {1, 2,..., n}. Då är det(a) = = n s=1 n s=1 a s,t π S n, π(t)=s π S n, π(t)=s (sgnπ)a π(1),1... a s,t... a π(n),n (3.36) (sgnπ)a π(1),1... ǎ s,t... a π(n),n, (3.37) där ǎ s,t betyder att faktorn a s,t strukits. Sätt nu C t,s = (sgnπ)a π(1),1... ǎ s,t... a π(n),n, (3.38) så har vi att π S n, π(t)=s det(a) = n C t,s a s,t (3.39) s=1 Vi noterar att C t,s endast beror av matrisen A:s element utanför kolonn t och utanför rad s. Deniera nu adjugatet A adj till A genom ( A adj) ij = C ij. Låt nu t t och beteckna med A den matris vi får om den t:te kolonnen i A ersätts med den t :te kolonen i A så att två kolonner i A blir lika och följdaktligen det(a ) = 0. Om a ij betecknar elementet på rad i och kolonn j i A, så har vi alltså att a ij = a ij om j t och a i,t = a i,t = a i,t. Således får vi att C t,s = C t,s s, och att n n C t,s a s,t = C t,sa s,t = det(a ) = 0 (3.40) s=1 s=1
19 Linjär Algebra Vi har alltså visat att A adj A = (det(a))i. Vi lämnar som övning att veriera att även AA adj = (det(a))i. Vi observerar också att elementen i A adj är summor av (n 1)-ställiga produkter av elementen i A. Vi har således visat Sats 9. Till varje kvadratisk matris A över en kommutativ ring R existerar en kvadratisk matris A adj av samma format som A och vars element är summor av (n 1)-ställiga produkter av elementen i A och som uppfyller där I betecknar enhetsmatrisen. AA adj = A adj A = (det(a))i, (3.41) Vi får nu ett elegant bevis av den berömda Sats 10 (Cayley-Hamiltons sats). Låt A vara en n n-matris över en kommutativ ring R och deniera dess karaktäristiska polynom P A (t) = det(a ti) = p 0 + p 1 t + p 2 t 2 +... + p n t n, (3.42) där p i R och p n = ( 1) n. Då är P A (A) = p 0 I + p 1 A + p 2 A 2 +... + p n A n = 0. (3.43) Bevis. (A ti) adj är en n n-matris vars element är polynom i t av grad högst n 1 med koecienter som är summor av (n 1)-ställiga produkter av elementen i A och som uppfyller Men då existerar n n-matriser A 0,..., A n 1 sådana att Alltså har vi (A ti) adj (A ti) = P A (t)i. (3.44) (A ti) adj = A 0 + ta 1 + t 2 A 2 +... + t n 1 A n 1 (3.45) (A 0 + ta 1 + t 2 A 2 +... + t n 1 A n 1 )(A ti) = p 0 I + p 1 ti +... + p n t n I (3.46) Vi identierar koecienter och får då t 0 : A 0 A = p 0 I p 0 I = A 0 A t 1 : A 0 + A 1 A = p 1 I p 1 A = A 0 A + A 1 A 2 t 2 : A 1 + A 2 A = p 2 I p 2 A 2 = A 1 A 2 + A 2 A 3. t n 1 : A n 2 + A n 1 A = p n 1 I p n 1 A n 1 = A n 2 A n 1 + A n 1 A n t n : A n 1 = p n I p n A n = A n 1 A n Genom att addera ekvationerna till höger och beakta kancellationen fås p 0 I+p 1 A+...+p n A n = 0 som visar satsen.
Lars Svensson, Oscar Mickelin 20 C=A B 1 K n T A K n A A V B T K n T B V B K n A B 1 =C Figur 3.6: Koordinatavbildningar för Kap. 3.6. 3.6 Determinanten för en linjär avbildning Låt T : V V vara en linjär avbildning där V är ett ändligtdimensionellt vektorrum över kroppen K. Vi ska nu visa att det är möjligt att deniera determinanten av T trots att T inte är en matris. Låt A = {a 1,..., a n } och B = {b 1,..., b n } vara två baser för V med motsvarande koordinatavbildningar och V x = x 1 a 1 +... + x n a n V y = y 1 b 1 +... + y n b n A x1 e 1 +... + x n e n K n (3.47) B y1 e 1 +... + y n e n K n (3.48) där e 1,..., e n är standardbasen i K n. Låt [T A ], [T B ] och [C] vara de n n-matriser som uppfyller T A (x) = [T A ]x, T B (x) = [T B ]x, C(x) = [C]x, som i Fig. 3.6. Då har vi att och således [T B ] = [C] 1 [T A ][C] (3.49) det([t B ]) = det([c]) 1 det([t A ])det([c]) = det([c]) 1 det([c])det([t A ]) (3.50) = det ( [C] 1 [C] ) det([t A ]) = det(i) det([t A ]) = det([t A ]). (3.51) Det betyder att matrisrepresentationerna [T A ] och [T B ] för avbildningen T i baserna A och B respektive har samma determinant. Detta gemensamma värde denierar vi som determinanten för T, dvs det(t ) def = det([t A ]) (3.52) Vi får då också att en linjär avbildning T : V V har ett karakteristiskt polynom P T (t) = det(t t id). Om dim(v ) = n så är deg(p T (t)) = n. 3.7 Egenvärden och egenvektorer 3.7.1 Några beteckningar och konventioner Om inget annat anges så avses med notationen T : V W eller V x T (x) W alltid att T är linjär och att V och W är ändligtdimensionella vektorrum över någon kropp K, som typiskt är R eller C. Om M V så denierar vi T (M) = {T (x) : x M} (3.53)
21 Linjär Algebra Vi kommer också ibland att identiera en linjär avbilding T : K n K m med matrisrepresentationen för T i standardbaserna, om ingen risk för missförstånd uppstår. Om E och F är delrum i ett vektorrum V så inför vi också notationen E + F enligt 3.7.2 Invarianta delrum Denition 12. E + F = {x + y : x E, y F }. (3.54) Ett delrum E i V säges vara invariant under T : V V om T (E) E. En nollskild vektor e V kallas en egenvektor till T : V V om det existerar ett λ K sådant att T e = λe. Talet λ kallas för ett egenvärde till T hörande till egenvektorn e. Då har vi alltså att 0 e ker(t λ id) som ger att det(t λ id) = P T (λ) = 0. Omvänt, om λ är nollställe till T :s karakteristiska polynom P T (t) så existerar 0 e ker(t λ id) som innebär att T e = λe. Denition 13. Spektrum för en avbildning T : V V denieras av spec(t ) = {λ K : P T (λ) = 0} och egenrummet E λ hörande till λ spec(t ) : E λ = ker(t λid) 3.7.3 Triangulering av avbildningar Sats 11. Om T : V V och K = C så existerar en följd delrum 0 = M 0 M 1... M n 1 M n = V sådana att dim(m j ) = j och T (M j ) M j för j = 0, 1,..., n. Bevis. Av algebrans fundamentalsats existerar λ 1 C sådan att P T (λ 1 ) = det(t λ 1 id) = 0 och nollskild e 1 i V sådan att T e 1 = λ 1 e 1. Låt P 1 vara någon projektion på E 1 = Ce 1 och sätt F 1 = ker(p 1 ) = Im(id P 1 ). Betrakta nu avbildningen T 1 denierad av F 1 x T x P 1 T x = T 1 x F 1. Då existerar λ 2 C och 0 e 2 F 1 sådana att T 1 e 2 = λ 2 e 2. Men då får vi T e 2 = P 1 T e 2 + λ 2 e 2 E 2 = Ce 1 + Ce 2. Vi har alltså att dim(e 2 ) = 2, T (E 2 ) E 2. Vi går nu fram induktivt och antar att vi funnit nollskilda E 1 E 2... E k sådana att T (e j ) E j och dim(e j ) = j för j = 1, 2,..., k. Låt P k vara en projektion på E k och låt F k = ker(p k ) = Im(id P k ). Deniera T k genom F k x T x P k T x F k. Som ovan får vi att det existerar λ k+1 i C och nollskild e k+1 V sådan att T k e k+1 = λ k+1 e k+1 som innebär att T e k+1 = P k T e k+1 + λ k+1 e k+1 E k + Ce k+1 = E k+1. (3.55) Men då är E k E k+1 och dim(e k+1 ) = k + 1. Vidare är T (E k+1 ) E k+1 som visar satsen. Övning 11. Visa att matrisrepresentationen för T i basen e 1,..., e n i beviset ovan ges av en uppåttriangulär matris.
Lars Svensson, Oscar Mickelin 22 3.7.4 Diagonalisering av avbildningar En linjär avbildning med en bas av egenvektorer kallas diagonaliserbar. Namnet kommer av att om u 1,..., u n är en bas för V sådan att T u j = λ j u j för λ j K och T : V V så har matrisrepresentationen för T i denna bas formen λ 1 λ 2 D = (3.56)... λn med nollor utanför diagonalen. Detta ser vi i Fig. 3.7. u j V T V T (u j ) = λ j u j e j K n D K n λ j e j Figur 3.7: Diagonaliseringsavbildning. Som ett första resultat har vi Sats 12. Om T : V V har egenvektorer u 1,..., u n hörande till de distinkta egenvärdena λ 1,..., λ n respektive, så är u 1,..., u n linjärt oberoende. Bevis. Antag motsatsen. Av alla linjärkombinationer µ 1 u 1 +...+µ n u n = 0 där inte alla µ:na är noll måste det nnas en som har ett minimalt antal nollskilda µ i :n. Genom eventuell omnumrering av u 1,..., u n kan vi anta att µ 1 u 1 +... + µ m u m = 0 (3.57) är en sådan. Då följer att 2 m n och att alla µ:na är nollskilda. Om (3.57) multipliceras med λ 1 får vi µ 1 λ 1 u 1 +... + µ m λ 1 u m = 0. (3.58) Om T verkar på (3.57) får vi dessutom, eftersom T u j = λ j u j, att Om nu (3.59) subtraheras från (3.58) fås µ 1 λ 1 u 1 +... + µ m λ m u m = 0. (3.59) µ 2 (λ 1 λ 2 )u 2 +... + µ m (λ 1 λ m )u m = 0. (3.60) Detta är en linjärkombination med färre än m nollskilda koecienter, varför minimaliteten hos m ger att µ 2 (λ 1 λ 2 ) =... = µ m (λ 1 λ m ) = 0. (3.61) Men λ 1 λ j 0 för j 1, enligt hypotesen, så vi har att µ 2 =... = µ m = 0. Detta är en motsägelse som visar satsen.
23 Linjär Algebra 3.8 Annihilerande polynom Låt K[t] beteckna mängden av polynom i symbolen t med koecienter i K. Lemma 13. Till varje ideal J i K[t] hör ett polynom p(t) i J sådant att J = {p(t)r(t) : r(t) K[t]} Bevis. Låt p(t) vara ett nollskillt polynom i J av minimal grad. Om f(t) J så existerar av Euklides divisionsalgoritm q(t) och r(t) i K[t] sådana att f(t) = q(t)p(t) + r(t), där r(t) = 0 eller deg(r(t)) < deg(p(t)). Men r(t) = f(t) q(t)p(t) J och p(t) hade ju minimal grad i J, så r(t) = 0 som visar lemmat. Låt nu T : V V och bilda J(T ) = {p(t) K[t] : p(t ) = 0} (3.62) Man verierar lätt att J(T ) är ett ideal som bland annat, enligt Cayley-Hamiltons sats, innehåller karakteristiska polynomet P T (t) = det(t t id) för T. Enligt lemmat existerar p 0 (t) K[t] sådant att varje polynom i J(T ) är en multipel av p 0 (t). Speciellt är p 0 (t) en faktor i P T (t). Polynomet p 0 (t) kallas för ett minimalpolynom till T. Sats 14. Låt p(t) och q(t) vara icke-konstanta polynom i K[t] utan gemensam faktor (av positiv grad) sådana att p(t )q(t ) = 0, där T : V V. Om L = ker(p (T )) och M = ker(q(t )) så gäller att (i) L + M = V, (ii) L M = 0, (iii) T (L) L och T (M) M. Bevis. Av Euklides algoritm vet vi att det existerar f(t) och g(t) i K[t] sådana att 1 = f(t)p(t)+ g(t)q(t) som ger I = f(t )p(t ) + g(t )q(t ). (i) Tag x V x = P (T )f(t )x + q(t )g(t )x. Sätt y = q(t )g(t )x och z = p(t )f(t )x. Då har vi att p(t )y = p(t )q(t )g(t )x = 0 och att q(t )z = q(t )p(t )f(t )x = 0 som visar att y ker(p (T )) = L och att z ker(q(t )) = M. Detta visar att L + M = V, dvs (i). (ii) Antag x L M = ker(p(t )) ker(q(t )). Då har vi x = f(t )p(t )x+g(t )q(t )x = 0+0 = 0 som visar att L M = 0, dvs (ii). (iii) Om x L så är p(t )x = 0. Men då gäller att T (P (T )x) = P (T )(T x) = 0, dvs T x L som innebär att T (L) L. Att T (M) M visas på samma sätt.
Lars Svensson, Oscar Mickelin 24 Övning 12. Låt med notationen från ovanstående sats T L och T M denieras enligt Visa att dvs att det(t tid V ) = det(t L tid L ) det(t M tid M ). 3.9 Reducerade polynomet L x T L (x) = T x L, (3.63) M x T M (x) = T x M. (3.64) P T (t) = P TL (t) P TM (t), (3.65) Om p(t) K[t] och p (t) är derivatan till p(t) så låter vi g(t) = gcd((p(t), p (t)) beteckna största gemensamma delaren till p(t) och p (t). Vi minns att g(t) kan beräknas genom Euklides algoritm och att det existerar polynom a(t) och b(t) i K[t] sådana att Vi denierar nu p red (t) som reduktionen av p(t), genom som är ett polynom då ju g(t) p(t). g(t) = a(t)p(t) + b(t)p (t). (3.66) p red (t) = p(t) g(t), (3.67) Övning 13. Visa att om K = C så har p red (t) samma nollställen som p(t), fast alla med enkel multiplicitet. Vi har nu följande karakterisering av diagonaliserbara avbildningar. Sats 15. Låt V vara ett ändligtdimensionellt vektorrum över C (eller någon annan algebraiskt sluten kropp). Då är T : V V diagonaliserbar, dvs har bas av egenvektorer, precis om p Tred (T ) = 0, där p Tred (t) betecknar reduktionen av det karakteristiska polynomet p T till T. Bevis. Antag P T (t) = (λ 1 t) m1... (λ k t) m k, m i > 0 där λ i λ j om i j. Då ger föregående övning att p Tred (t) = (λ 1 t)... (λ k t). (3.68) Vi antar först att T är diagonaliserbar med basen u 1,..., u n av egenvektorer. Låt u vara en av dessa. Då kan vi anta att T u = λ k u och vi får p Tred (T )u = (λ 1 id T )... (λ k u T u) = 0, (3.69) som visar att p Tred (T ) = 0, då ju u 1,..., u n bildar bas för V. Vi antar nu, för att visa satsens andra riktning, att p Tred = 0, dvs att (λ 1 id T )... (λ k id T ) = 0. (3.70) Låt nu L j = ker(λ j id T ). Då ser vi, med en enkel itererad variant av ovanstående sats (14), att L 1 + L 2 +... + L k = V och att om v j L j och v 1 +... + v k = 0, så måste v 1 =... = v k = 0 (övning). Men detta innebär precis att T har en bas av egenvektorer.
25 Linjär Algebra 3.10 Struktursatsen för ändligt genererade moduler över Euklidiska ringar 3.10.1 Välgrundade relationer Låt vara en relation på en mängd X sådan att för varje icke-tom delmängd S av X existerar ett s S sådant att x x s x S. Vi säger att s är ett minimalt element i S. En relation som har denna egenskap kallas välgrundad. Exempel 12. Om X = N och om x y är den vanliga ordningsrelationen x < y på N så vet vi att är välgrundad. Detta brukar kallas induktionsaxiomet. Exempel 13. Låt X = K[x]{0}, dvs. mängden av nollskilda polynom i variabeln x med koecienter i kroppen K. Om f(x) och g(x) är två nollskilda polynom med graderna n och m respektive, så denieras f(x) g(x) genom n < m. Detta är också en välgrundad relation. En ring R kallas euklidisk om det existerar en välgrundad relation på R {0} sådan att s R {0} t R q, q, r, r R sådana att t = qs + r = sq + r, där r 0 r s och r 0 r s. Exempel 14. Z och K[x] är euklidiska ringar. Anmärkning 9. Vi kräver alltså inte att R ska vara kommutativ. Låt nu M vara en R-modul. M kallas ändligt genererad om det existerar x 1, x 2,..., x m i M sådana att M = Rx 1 + Rx 2 +... + Rx m = {r 1 x 1 +... + r m x m : r i R}. x 1,..., x m kallas en minimal generator om m är minimalt. Vi säger då att M har rangen m. Sats 16. Om M har rangen m och om R är en euklidisk ring så existerar x 1, x 2,..., x m sådana att (i) M = Rx 1 +... + Rx m. (ii) Om r 1 x 1 +... + r m x m = 0 så är r 1 x 1 =... = r m x m = 0. Villkoren (1) och (2) brukar skrivas M = Rx 1... Rx m.
Lars Svensson, Oscar Mickelin 26 Bevis. Om m = 1 är satsen trivial så antag att satsen gäller för moduler över R med lägre rang än m. Låt S = {s R{0} : s 2,..., s m R och minimal generator x 1,..., x m sådan att sx 1 + s 2 x 2 +... + s m x m = 0}. Om S = så gäller naturligtvis att M = Rx 1... Rxm och vi är klara. Om däremot S så väljer vi ett minimalt s i S och s 2,..., s m, x 1..., x m sådana att s x 1 +s 2 x 2 +...+s m x m = 0. Vi har nu att s j = s q j + r j, där r j 0 r j s, 2 j m (3.71) s x 1 + (s q 2 + r 2 )x 2 +... + (s q m + r m )x m = 0 (3.72) s (x 1 + q 2 x 2 +... + q m x m ) + r 2 x 2 +... r m x m = 0. (3.73) Deniera x 1 = x 1 + q 2 x 2 +... q m x m. Eftersom x 1 = x 1 q 2 x 2... q m x m så ser vi att x 1, x 2..., x m också är en minimal generator. Av minimaliteten hos s följer då att r 2 =... r m = 0, dvs. att s x 1 = 0. Vi ska nu visa att M = Rx 1 M, där M = Rx 2 +... + Rx m. Antag att t 1 x 1 + t 2 x 2 +... t m x m = 0. Vi måste alltså veriera att t 1 x 1 = 0, men t 1 kan skrivas som t 1 = qs + r, där r 0 r s (3.74) (qs + r)x 1 + t 2 x 2 +... t m x m = 0 (3.75) rx 1 + t 2 x 2 +... + t m x m = 0 eftersom s x 1 = 0 (3.76) r = 0 t 1 x 1 = qs x 1 = 0. (3.77) Således har vi visat att M = Rx 1 M, men av induktionsantagandet kan M, som ju har rangen m 1, skrivas som M = Rx 2... Rx m, för lämpliga x 2,..., x m i M. Detta visar satsen. 3.11 Strukturen hos linjära avbildningar på ändligtdimensionella vektorrum Låt T : V V vara en linjär avbildning där V är ett d-dimensionellt vektorrum över kroppen K. Vi ska nu göra V till en modul över polynomringen K[x] genom att deniera K[x] V V (3.78) (p(x), v) p(x)v = p(t )v, (3.79) dvs. om p(x) = p 0 + p 1 x +... + p n x n, p i K så är p(t )v = p 0 v + p 1 T v +... + p n T n v. Man verierar omedelbart att (p(x) + q(x))v = (p(t ) + q(t ))v = p(t )v + q(t )v = p(x)v + q(x)v och att p(x)(v + w) = p(t )(v + W ) = p(t )v + p(t )w = p(x)v + p(x)w. Detta visar att V kan ses som en modul över K[x]. Låt nu e 1, e 2... e d vara en bas för V över kroppen K. Om v V kan vi alltså skriva v = λ 1 e 1 +... λ d e d för lämpliga λ i K. Vi kan nu uppfatta λ i som ett polynom i K[x] av grad noll som p i (x) = λ i. Då har vi att p i (x)e i = λ i e i, dvs. p 1 (x)e 1 +... p d (x)e d = v. Detta visar att K[x]e 1 +... K[x]e d = V, dvs. att V är ändligt genererad som K[x]-modul och har rang d. Vi får nu från struktursatsen ovan följande slutsats. Sats 17. Det existerar v 1, v 2..., v m V sådana att V = K[x]v 1... K[x]vm.
27 Linjär Algebra Vi påminner om att ett delrum W av V kallas invariant under T om T W W. Lemma 18. V j = K[x]v j är ett invariant delrum till V under T. Bevis. Att V j är ett delrum är uppenbart. Låt w V j = K[x]v j. Då existerar polynom p(x) i K[x] sådant att w = p(x)v j = p(t )v j, men då har vi att T w = T p(t )v j = (xp(x))v j V j. Således är V j invariant under T j = 1, 2..., m. Lemma 19. Det existerar ett d j < d sådan att v j, T v j,... T dj 1 v j är en bas för V j som vektorrum över K. Bevis. v j, T v j,... T d v j är linjärt beroende. Låt d j vara det minsta positiva heltal sådant att v j,..., T dj v j är linjärt beroende. Detta ger T dj v j = λ 0 v j λ 1 T v j... λ dj 1T dj 1 v j, för lämpliga λ i K. Detta betyder att v j, T v j,..., T dj 1 v j är en bas för V j, j = 1, 2..., m. Anmärkning 10. {T i v j : 0 i < d j, 0 < j m} är en bas för V. Matrisrepresentationen för T på V j i denna bas ser ut som 0 0 0... 0 λ 0 1 0 0... 0 λ 1 0 1 0... 0 λ 2 A j = 0 0 1... 0 λ 3, (3.80)... 0 0 0... 0 λ dj 2 0 0 0... 1 λ dj 1 där T dj v j = λ 0 v j λ 1 v j λ dj 1T dj v j. Matrisrepresentationen för T på hela V blir då A 1 A 2. (3.81)... Am Detta är så långt vi kan komma för godtyckliga korppar K. Övning 14. Veriera att det(ki A) = t n t n 1 λ n 1 t n 2 λ n 2... tλ 1 λ 0, om 0 0 0... 0 λ 0 1 0 0... 0 λ 1 0 1 0... 0 λ 2 A j =... (3.82). 0 0 0... 0 λ n 2 0 0 0... 1 λ n 1
Lars Svensson, Oscar Mickelin 28 3.12 Adjungerad avbildning I detta avsnitt betecknar V och W alltid ändligtdimensionella unitära rum. Inre produkter skrivs alltid, dvs x y = x, y. Lemma 20. För varje linjär L : V C existerar en unik u i V sådan att x V L(x) = x u Bevis. Sätt u = L(e 1 )e 1 +... + L(e n )e n där e 1, e 2,..., e n är en ON-bas för V. Då har vi L(e j ) = e j u j, så lemmat följer av linjäriteten. Sats 21. För varje linjär T : V W existerar en unik linjär T : W V sådan att x V y W T x y = x T y Bevis. Fixera först ett y i W och deniera den linjära avbildningen V x T x y C. (3.83) Av lemmat ovan existerar en unik vektor S(y) V sådan att T x y = x S(y) x V. Om λ C så har vi T x (λy) = x S(λy) x V, men T x (λy) = λt x y = λx S(y) = x λs(y). Således har vi att S(λy) = λs(y). Vidare, om z W och T x z = x S(z), så fås T x (y +z) = x S(y +z) och T x (y + z) = T x y + T x z = x S(y) + x S(z). Detta ger att S(y + z) = S(y) + S(z), som visar att S är linjär. Vi betecknar S med T och inser att den även är unik, enligt lemmat. Anmärkning 11. T kallas adjunkten till T. Övning 15. Låt λ C och antag att T 1 och T 2 tillhör Hom(V, W ). Veriera att (λt 1 ) = λt 1 och att (T 1 + T 2 ) = T 1 + T 2 Övning 16. Låt den komplexa matrisen A vara matrisrepresentationen för T Hom(V, W ) relativt två ortonormala baser för V och W. Låt A t beteckna den matris vi får genom att komplexkonjugera alla elementen i A och därefter transponera resultatet. Visa att A t är matrisrepresentationen för T i de givna ON-baserna. 3.12.1 Dualitetsteori Ortogonala komplementet A till en delmängd A av ett unitärt rum V denieras av A = {x V : x y = 0 y A} (3.84) Övning 17. Visa att V = 0 = {0} och att ( A ) = A, där A betecknar linjära höljet av A. Följande resultat är centralt
29 Linjär Algebra Sats 22. Om T Hom(V, W ) så gäller i) ker(t ) = (Im(T )) ii) ker(t ) = (Im(T )) Bevis. Vi verierar bara i) eftersom ii) visas på samma sätt. För varje x i V gäller att x ker(t ) T x = 0 T x y = 0 y W (3.85) x T y = 0 y W x (Im(T )). (3.86) Övning 18. Låt T End(V ) och antag att T x x = 0 x V. Visa att T = 0. Ledning: notera att x, y V gäller T (x + y) (x + y) = T (x + iy) (x + iy) = 0. Övning 19. Visa att en linjär projektion P : V V är ortogonal precis om endera av följande påståenden stämmer. (i) P = P (ii) x V : P x x = P x 2 Övning 20 (Shur). Visa att om T End(V ) så existerar en ON-bas e 1, e 2,..., e n för V sådan att T M k M k, där M k = Ce 1 +... + Ce k, k = 1, 2,..., m. 3.13 Normala, Hermitiska och unitära avbildningar Denition 14. En avbildning T End(V ) kallas normal om T T = T T. hermitisk om T = T. unitär om T T = T T = I. Övning 21. Visa följande påståenden. (i) T normal x V T x = T x. (ii) T normal ker(t ) = ker(t ). (iii) T normal och T x = λx T x = λx. (iv) T normal, T x = λx, T y = µy & λ µ x y = 0. (v) T unitär x V T x = x. (vi) T unitär x, y V T x T y = x y. Vi är nu redo att visa
Lars Svensson, Oscar Mickelin 30 3.13.1 Spektralsatsen för normala avbildningar Sats 23. En normal avbildning har en ortonormal bas av egenvektorer. Bevis. Låt T : V V vara normal, dvs T T = T T. Vi visar satsen med induktion över dimensionen hos V. Om dim(v ) = 1 är satsen trivial eftersom varje bas för V duger. Antag satsen gäller för alla normala avbildningar på vektorrum av lägre dimension än n och antag att V är unitärt rum av dimension n > 1. Av algebrans fundamentalsats existerar λ i C och nollskild e i V sådana att T e = λe. Då följer att T e = λe, ty T e λe = T e λe, enligt observation 3 tidigare. Om E = Ce så har vi således att T (E) E och T (E) E. Vi påstår nu att även E är invariant under både T och T. Ty om x E så är T x e = x T e = x λe = 0, som visar att T x E. Vidare har vi att e T x = T e x = λe x = 0, som visar att T (E) E. Genom en smula eftertanke ser vi nu att T är en normal avbildning på E med den ärvda inre produkten. Av induktionsantagandet existerar en ON-bas e 1,..., e n 1 för E av egenvektorer till T. Tillsammans med e bildar dessa en ON-bas för V av egenvektorer till T, som visar satsen. 3.13.2 Singulärvärdesdekomposition En praktiskt mycket användbar följd av spektralsatsen är den följande. Sats 24. Antag T : V W är linjär och antag att V och W är unitära rum. Antag dessutom att k = dim(im(t )). Då existerar en ON-bas e 1,..., e n i V och en ON-bas f 1,..., f m i W samt strikt positiva tal p 1,..., p k sådana att T e j = p j f j om j = 1,..., k och T e i = 0 om i > k. Bevis. Betrakta diagrammet V S=T T T W Då är S = T T = S, dvs symmetrisk och därmed normal. Spektralsatsen tillhandahåller sålunda en ON-bas e 1,..., e n av egenvektorer till S och λ 1,..., λ n i C sådana att Se j = λ j e j. Men V T T e j 2 = T e j T e j = Se j e j = λ j 0, j = 1,..., n (3.87) Låt oss numrera e:na så att λ 1,..., λ k > 0 och λ i = 0 om i > k (Vi ska strax se att k = dim(im(t ))). Vidare gäller också att T e j T e i = Se j e i = λ j e j e i = 0, om i j (3.88)
31 Linjär Algebra Införs nu f j = T e j T e j = T e j λj, om 1 j k, (3.89) så ser vi att f 1,..., f k är ett ON-system. Detta kan utvidgas till en ON-bas f 1,..., f k,..., f m för hela W. Om vi sätter p j = λ j då 1 j k ser vi att T e j = p j f j om 1 j k, och att T e i = 0 om i > k. Uppenbarligen gäller att f 1,..., f k är en bas för Im(T ), varför k = dim(im(t )). Detta fullbordar beviset.
Kapitel 4 Kvadratiska former 4.1 Kvadratiska former Låt B : V V K vara en symmetrisk bilinjär avbildning, där dim(v ) < och K är en kropp sådan att 1 + 1 0 (K får t.ex. inte vara Z 2 = {0, 1}). Avbildningen Q : V K denierad av Q(x) = B(x, x) kallas en kvadratisk form på V. 4.2 Kanonisk bas En bas e 1,..., e n för V kallas kanonisk om Q(e i + e j ) = q(e i ) + q(e j ), i j. Detta är ekvivalent med att 0 = B(e i + e j, e i + e j ) B(e i, e i ) B(e j, e j ) (4.1) = B(e i, e i ) + B(e i, e j ) + B(e j, e i ) + B(e j, e j ) B(e i, e i ) B(e j, e j ) (4.2) = 2B(e i, e j ) B(e i, e j ) = 0, i j, (4.3) eftersom B är symmetrisk och bilinjär. 4.2.1 Existens av kanonisk bas Sats 25. En symmetrisk bilinjär B : V V K har en kanonisk bas. Bevis. Om B(x, x) = 0, x V så följer att B(x + y, x + y) = B(x, x) + B(y, y) + 2B(x, y) = 0 B(x, y) = 0, x, y V. Men då är alla baser för V kanoniska. Så antag e 0 i V så att B(e, e) 0. Deniera W = {x V : B(x, e) = 0}. W är ett underrum i V. Om x W Ke så är x = te, t K och B(te, e) = tb(e, e) = 0. Men då måste t = 0. Alltså har vi att W Ke = 0. Speciellt följer då att dim(w ) < dim(v ). Om x är godtycklig vektor i V så kan vi bilda x = x B(x, e)b(e, e) 1 e. (4.4) 32
33 Linjär Algebra Då har vi att x W eftersom B( x, e) = B(x, e) B(x, e)b(e, e) 1 B(e, e) = 0. Detta visar att x W + Ke, dvs att V = W + Ke. Vi använder nu induktion över dim(v ). Om dim(v ) = 1 är satsen trivial, så antag satsen gäller för alla vektorrum av strikt lägre dimension än dim(v ) > 1. Men restriktionen av B på W W är ju också en bilinjär symmetrisk form, varför det existerar e 1,..., e n 1 som är kanonisk bas för W. Men då är e, e 1,..., e n 1 en kanonisk bas för V. 4.2.2 Sylvesters tröghetssats Sats 26. Låt E och F vara kanoniska baser för det reella vektorrummet V, relativt den symmetriska bilinjära formen B : V V R och anta att dim(v ) <. Deniera E 0 = {e E : B(e, e) = 0}, F 0 = {f F : B(f, f) = 0} (4.5) E + = {e E : B(e, e) > 0}, F + = {f F : B(f, f) > 0} (4.6) E = {e E : B(e, e) < 0}, F = {f F : B(f, f) < 0}. (4.7) Då gäller att E 0 och F 0 spänner upp samma underrum i V och att E + = F +, E = F ( A betecknar antalet element i den ändliga mängden A). Bevis. Låt V = {x V : B(x, y) = 0, y V }. Då måste linspan(e 0 ) V, eftersom E är en kanonisk bas. För att visa att V linspan(e 0 ) tar vi ett godtyckligt x i V och skriver x = x 0 + x + + x, där x 0,+, linspan(e 0,+, ). Men B(x, x + ) = B(x +, x + ) = 0 x + = 0 och B(x, x ) = B(x, x ) = 0 x = 0, så x = x 0 som visar att V = linspan(e 0 ). På samma sätt fås att V = linspan(f 0 ). För att visa att E + = F + antar vi att E + < F +. Men då måste mängden E 0 F + E vara linjärt beroende. Då existerar således x 0 linspan(e 0 ), y + linspan(f + ), x linspan(e ), ej alla noll, sådana att x 0 +y + +x = 0 B(x 0 +x, x 0 +x ) = B( y +, y + ) B(x, x ) = B(y +, y + ) x = y + = 0 x 0 = 0. Denna motsägelse visar att E + F +. På motsvarande sätt visas att E + F + som visar satsen. 4.3 Matrisrepresentation av kvadratiska former En kvadratisk form på R n kan uppfattas som ett homogent polynom i x 1,..., x n av grad två. q(x) = q(x 1,..., x n ) = i,j q ij x i x j, (4.8) där vi alltid kan välja q ij = q ji R. Om Q betecknar matrisen med element q ij på rad i och kolonn j så är Q T = Q och q(x) = x T Qx = x Qx. (4.9) Enligt spektralsatsen existerar då en ON-bas u 1,..., u n i R n av egenvektorer till Q med egenvärden λ 1,..., λ n respektive, som alla är reella. Låt U = [u 1,..., u n ] vara den ortogonala matris