Multilinjär algebra Anders Källén MatematikCentrum LTH anderskallen@gmail.com Sammanfattning I det här kapitlet diskuterar vi de algebraiska grunderna för differentialformer, vilket görs ur ett abstrakt perspektiv. Vi börjar i ett vektorrum, som vi sedan lägger på en skalärprodukt på, och ser vad det tillför den musikaliska isomorfismen och volymsformen. En annan sak det tillför är Hodges stjärnavbildning som ytterst förklarar vad som är speciellt med analys i rummet.
Multilinjär algebra 1 (18) 1 Introduktion I det här kapitlet ska vi studera multilinjära avbildningar på ett vektorrum. Inom de delar av analysen som behandlar geometriska problem spelar sådana en stor roll. Den allmänna relativitetsteorin brukar t.ex. beskrivas med hjälp av tensorer, vilka är objekt som i varje punkt är just en sådan avbildning. Andra exempel är differentialformer som är grund för mycket högre differentialkalkyl. På de objekt vi ska studera ska vi införa diverse viktiga rent algebraiska operationer, vilka spelar stor roll i den högre differentialkalkylen. Hit hör skalärprodukter, den inre produkten och Hodges stjärnavbildning på former. 2 Linjära rum och avbildningar Låt K beteckna antingen R eller C (eller någon annan kropp av karakteristik 0). Ett linjärt rum, eller vektorrum, över K är en icke-tom mängd, vars element kallas vektorer, på vilken man definierat (i) en addition sådan att u + v = v + u, u + (v + w) = (u + v) + w, (ii) en multiplikation med element i K sådan att 0.u = 0, 1.u = u, a(u + v) = au + av, (a + b)u = au + bu, (ab)u = a(bu). Här är u, v, w vektorer i V och a, b element i K. Element i K kallar vi ofta skalärer. En delmängd W till V kallas ett underrum om det gäller att u, v W, a, b K au + bv W. Vektorn u V är en linjärkombination av vektorerna u 1,..., u k i V om det finns skalärer a k K sådana att u = j a ju j. Mängden av alla linjärkombinationer av u 1,..., u k bildar ett underrum i V som betecknas L(u 1,..., u k ) och kallas linjära höljet av u 1,..., u k. Om L(u 1,..., u k ) = V säger man att u 1,..., u k genererar V. Ett linjärt rum sägs vara ändligtdimensionellt om det kan genereras av ändligt många vektorer. Slutligen kallas u 1,..., u k linjärt beroende om a 1 u 1 +... + a k u k = 0 för någon uppsättning skalärer a 1,..., a k som inte alla är noll. Om vektorerna u 1,..., u k inte är linjärt beroende sägs de vara linjärt oberoende. Om vektorerna är linjärt oberoende och spänner upp V utgör de en bas för V, och dimensionen av V är då lika med k. En avbildning T : V v, w V gäller att W mellan två vektorrum är linjär om det för alla a, b K och T (av + bw) = at (v) + bt (w). Mängden av sådana avbildningar bildar ett vektorrum som vi betecknar L(V, W ). Antag i fortsättningen att V har dimensionen n. Om e 1,..., e n är en bas för V finns då entydigt bestämda koordinater x 1,..., x n som är reellvärda funktioner på V sådana att
Multilinjär algebra 2 (18) u = i x i(u)e i. Fixerar vi därför en bas i V kan vi sedan identifiera V med K n, varför differentialkalkyl i ett vektorrum egentligen inte skiljer sig från differentialkalkyl i K n. Men vi noterar också att funktionerna x i : V K är linjära funktioner och som sådana detsamma som deras differentialer dx i. De linjära avbildningarna θ : V K utgör också ett vektorrum som vi betecknar med V. Dess element kallar vi 1-former. Om e 1,..., e n är en bas för V så definieras dess duala bas θ 1,..., θ n av att θ i (e j ) = δ ij, och man inser lätt att θ i = dx i. Det är emellertid fördelaktigt i många sammanhang att inte blanda in koordinaterna x 1,..., x n. Men nu kan vi utgå ifrån V och bilda dess dual V. Men vi kan uppfatta en vektor v V som en linjär funktion på V, nämligen som funktionen Vi kan därför identifiera V med V. v(θ) = θ(v). Slutligen, om T : V W är en linjär avbildning, så definieras naturligt en linjär avbildning T : W V. Denna kallas den transponerade avbildnignen till T och definieras av att T (θ)(v) = θ(t (v)), θ W, v V. 3 Tensorprodukten av två vektorrum Låt V vara ett vektorrum av dimension n och U ett av dimension m (båda över samma skalärer). Dess tensorprodukt V U består då av alla bilinjära avbildningar En bilinjär avbildning B : V U K. Att detta är ett vektorrum är klart, och för att se att det har dimensionen nm definierar vi bilinjärformen α β ut en α V och β U genom (α β)(v, u) = α(v)β(u). Det är då lätt att se att om e 1,..., e n är en bas för V och f 1,..., f m en bas för U, så är {e i f j } en bas för V U. Dessa är nm element och alltså gäller att Uttryckt i en sådan bas kan vi skriva dim(v U) = (dim V )(dim U). B(v, u) = i,j B(e i, f j )u i v j, så den beskrivs av en n m-matris. Antag nu att U = V och B är en bilinjärform på V V, vi säger då bilinjärform på V. Vi kan då definiera Sym(B)(u, v) = 1 (B(u, v) + B(v, u)), 2 Alt(B)(u, v) = B(u, v) B(v, u). Dessa är nya bilinjärformer på V med de speciella egenskaperna att Sym(B)(u, v) = Sym(v, u), Alt(u, v) = Alt(v, u).
Multilinjär algebra 3 (18) Det betyder att Sym(B) är en symmetrisk bilinjär form på V medan Alt(B) är en skevsymmetrisk bilinjär form på V. De symmetriska och de skevsymmetriska bilinjära formerna på V utgör vektorrum var för sig, vilka vi betecknar med S 2 (V ) respektive Λ 2 (V ). De symmetriska formerna svarar mot symmetriska matriser (B(e i, e j )), vilket betyder att ( ) n dim S 2 (V n(n + 1) ) = + n =, 2 2 medan de skevsymmetriska formerna svarar mot skevsymmetriska matriser, så ( ) n dim Λ 2 (V ) =. 2 För att hitta baser i dessa vektorrum inför vi de två multiplikationerna av 1-former: och (α s β)(u, v) = 1 (α(u)β(v) + α(v)β(u)) = Sym(α β)(u, v), 2 (α β)(u, v) = α(u)β(v) α(v)β(u) = Alt(α β)(u, v). Den första av dessa ger en symmetrisk bilinjär form, och den andra ger en skevsymmetrisk sådan. Notera speciellt att α α = 0. Vi ser att elementen {θ i s θ j } i j bildar en bas för S 2 (V ) och {θ i θ j } i<j en bas för Λ 2 (V ). 4 Tensorer I syfte att skapa den algebraiska grunden för differentialformer behöver vi generalisera begreppet dualrum till ett reellt vektorrum V. En p-tensor på V är en reellvärd funktion T på den kartesiska produkten V p = V... V som är multilinjär, dvs linjär i varje variabel när de andra hålls fixa: T (v 1,..., v j + av j,..., v p ) = T (v) + at (v 1,..., v j,..., v p ). Speciellt är 1-tensorer detsamma som 1-former på V. En känd 2-tensor är skalärprodukten på R k och en känd n-tensor är determinantfunktionen. Summor och skalära produkter av multilinjära funktioner är också multilinjära, så mängden av p-tensorer utgör ett vektorrum T p (V ). Notera att T 1 (V ) = V. Vi kan också multiplicera tensorer på ett enkelt sätt: om T är en p-tensor och S en q-tensor definierar vi en p + q-tensor T S genom (T S)(v 1,..., v p, v p+1,..., v p+q ) = T (v 1,..., v p )S(v p+1,..., v p+q ). T S kallas tensorprodukten av T med S. Notera att tensorprodukten inte är kommutativ, men man ser lätt att den är associativ och distributiv. När man arbetar med tensorer är det bekvämt att arbeta med multiindex. Ett multiindex är en uppsättning (i 1,..., i k ) av index 1 i k n och vi skriver antalet element som I (så att I = k här). Vi använder sedan detta vid olika sorters produkt, såsom θ I = θ t 1... θ tp.
Multilinjär algebra 4 (18) Sats 1 Låt {θ 1,..., θ n } vara en bas för V. Då bildar p-tensorerna {(θ I ; I = p} en bas för T p (V ). Speciellt gäller att dim T p (V ) = n p. Bevis. Låt {e 1,..., e k } vara den duala basen i V och beteckna med e I följden (e i1,..., e ip ). Per definition, om I och J är två sådana indexseqvenser så är θ I (v J ) = 1 om I = J och = 0 om I J. Det är klart från multilinjäriteten att två p-tensorer T och S är lika om och endast om T (e J ) = S(e J ) för varje svit e J. Alltså gäller att T = J T (e J)θ I, och alltså spänner upp T p (V ). Att θ I :na är oberoende följer av att om S = I a Iθ I = 0 så gäller att 0 = S(e J ) = a J för alla J. En allmän tensor T är symmetrisk om den inte ändras om två variabler transponeras: T (v 1,..., v i,..., v j,..., v p ) = T (v 1,..., v j..., v i,..., v p ). Alla 1-tensorer är automatiskt symmetriska. Ett annat exempel är skalärprodukten. En omformulering av villkoret bygger på att vi inför gruppen S p av permutationer av talen 1 till p. För en p-tensor T och en permutation π S p definierar vi en annan p-tensor T π genom T π (v 1,..., v p ) = T (v π(1),..., T π(p) ). En symmetrisk p-tensor är då en som uppfyller T π = T, för alla π S p. Notera att det alltid gäller att (T π ) σ = T π σ. Det är lätt att konstruera en symmetriska tensor från en given sådan. Om T är en godtycklig p-tensor definierar vi helt enkelt Sym(T ) = 1 T π. p! π S p Det är uppenbart att om T redan är symmetrisk så gäller att Sym(T ) = T. Eftersom summor och skalära multipler av symmetriska funktioner också är symmetriska följer att de symmetriska p-tensorerna bildar ett underrum S p (V ) T p (V ). Tensorprodukter av symmetriska tensorer är inte symmetrisk, men vi kan definiera den symmetriska produkten S s T = Sym(S T ) om S S p (V ) och T S q (V ) och produkten är då i S p+q (V ). Utskrivet blir detta (S s T )(v 1,..., v p+q ) = 1 (p + q)! v S p+q S(v π(1),..., v π(p) )T (v π(p+1),..., v π(p+q) ) 5 Skevsymmetriska tensorer alias p-former En tensor T är skevsymmetrisk (eller alternerande) om tecknet på T ändras om två variabler transponeras: T (v 1,..., v i,..., v j,..., v p ) = T (v 1,..., v j..., v i,..., v p ).
Multilinjär algebra 5 (18) Alla 1-tensorer är automatiskt alternerande. Determinanten är alternerande, medan skalärprodukten inte är det. Liksom ovan omformulerar vi detta villkor med hjälp av gruppen S p. En permutation π S p är jämn eller udda beroende av om den kan skrivas som en produkt av ett jämnt eller udda antal transpositioner och dess signatur, sign π, definieras som +1 eller 1 om permutationen är jämn eller udda. De alternerande p-tensorerna är nu de som uppfyller T π = sign π T, för alla π S p. Standardmetoden att skapa alternerande tensorer från godtyckliga sådana använder operatorn Alt(T ) = 1 sign πt π. p! π S p Att den är alternerande följer av att sign π σ = sign π sign σ: Alt(T ) σ = 1 sign π(t π ) σ = 1 sign(π σ) T π σ. p! p! π S p π S p Om vi nu sätter τ = π σ följer att τ genomlöper S p då π gör det. Alltså gäller att högerledet är lika med (sign σ) Alt(T ). Vi kan också notera att om T redan är alternerande gäller att Alt(T ) = T eftersom det gäller för varje term att sign π T π = T. Eftersom summor och skalära multipler av alternerande funktioner altjämt är alternerande följer att de alternerande p-tensorerna bildar det underrum Λ p (V ) T p (V ). Tensorprodukter av alternerande tensorer är inte alternerande, men vi kan definiera kilprodukten ( ) p + q T S = Alt(T S) p om T Λ p (V ) och S Λ q (V ) och kilprodukten är då i Λ p+q (V ). Koefficienten är vald så att vi återfår vår definition från ovan i fallet p = q = 1 Utskrivet blir det (S T )(v 1,..., v p+q ) = 1 p!q! v S p+q sign π S(v π(1),..., v π(p) )T (v π(p+1),..., v π(p+q) ). Anmärkning Om θ, η är godtyckliga 1-former på V ger detta samma kilprodukt som ovan: Observera att θ η = 1 (θ η η θ). 2 θ η = η θ och θ θ = 0, vilket visar att är antikommutativ på Λ 1 (V ). Alt är en linjär operation, så det är klart att kilprodukten är distributiv över addition och skalär multiplikation. Att den är associativ är dock lite mer besvärligt att visa. Lemma 1 Om Alt(T ) = 0 gäller att T S = 0 = S T.
Multilinjär algebra 6 (18) Bevis. Låt G vara den undergrupp den symmetriska gruppen till S p+q som håller de sista q talen fixt, vilken naturligt identifieras med den symmetriska gruppen S p. Vi har då (T S) π = T π S och sign π = sign π där primmad beteckning är motsvarigheten i S p av den oprimade i G. Alltså gäller att ( 1) π (T S) π = [ sign π T π ] S = Alt(T ) S = 0. π G π S p Nu gäller att G delar upp S p+q i en disjunkt union av högerbiklasser G σ = {π σ; π G}. För varje biklass sign π(t S) π ] σ = 0. sign(π σ)(t S) π σ = sign σ[ π G π G Eftersom T S = ( ) p+q p Alt(T S) är summan dessa partialsummor över högerbiklaserna till G, så T S = 0. På ett motsvarande sätt visar vi att S T = 0. Sats 2 Kilprodukten är associativ: (T S) R = T (S R), så vi kan skriva T S R utan att det blir tolkningsproblem. Bevis. Vi ska visa att (T S) R = Alt(T S R). Per definition har vi att så lineariteten av Alt medför att (T S) R = Alt((T S) R), (T S) R Alt(T S T ) = Alt([T S T S] R). Eftersom T S är alternerande gäller att Alt(T S T S) = Alt(T S) Alt(T S) = T S T S = 0. Så lemmat medför att Alt([T S T S] R) = 0, vilket bevisar satsen. Ett analogt resonemang visar att T (S R) = Alt(T S R). Formeln T S R = Alt(T S T ) kan utvidgas till att relatera kil och tensorprodukter av godtyckligt antal tensorer. Vi kan använda den till att bestämma en bas för Λ p (V ). Om nämligen T är en p-tensor kan vi skriva T = I t I θ i 1... θ i p där {θ i } är en bas för V. Om T är alternerande så gäller att T = Alt(T ), så T = I t I Alt(θ I ) = t I θ I,
Multilinjär algebra 7 (18) där vi använt beteckningen θ I = θ i 1... θ ip när I = {i 1,..., i p }. Vi har visat att θ I där I genomlöper alla multiindex spänner upp Λ p (V ), men det är en fundamental egenskap hos kilprodukten att de inte är oberoende. Ur definitionen av kilprodukten följer att en produkt av 1-former beräknas genom en determinant θ 1 (v 1 )... θ p (v 1 ) (θ 1... θ p )(v 1,..., v p ) =... θ 1 (v p )... θ p (v p ) Utvecklar vi determinanten efter första raden ser vi att, om S är en (p 1)-form, (θ S)(v 1,..., v p ) = i ( 1) i 1 θ(v i )S(v 1,..., ˆv i,..., v p ), där ˆv i innebär att detta element inte är med. Detta gäller först för (p 1)-former S som är produkt av 1-former, men sedan av linjäriterskäl för allmänna (p 1)-former. Anmärkning Det är ofta bekvämt att införa beteckningen v i = (v 1,..., ˆv i,..., v p ). Då kan vi skriva formeln kortare som (θ S(v) = i ( 1) i 1 θ(v i )S(v i ). Antikommutativen leder till några relationer angående θ I. Om två indexsviter I och J skiljs åt bara i ordningsföljd följer att θ I = ±θ J. Om två index i I är lika gäller att θ I = 0. Följaktligen kan vi eliminera redundans genom att bara använda θ I för vilka alla index är strängt växande. Antalet sådana sviter är ( k p). Det är lätt att se att de återstående tensorerna är linjärt oberoende. Låt v j vara basen i V som är dual till θ j. Låt v I vara som ovan. Enligt definitionen av Alt-operatorn gäller då att θ I (v I ) = 1/p!, men om J har andra växande indices gäller att θ I (v J ) = 0. Alltså gäller att om a I θ I = 0, så är 0 = I a I θ I (v J ) = 1 p! a J. Vi har därmed visat Sats 3 Om θ i är en bas för V så är θ I = θ i1... θ ip (växande index) en bas för Λ p (V ). Det följer att dim Λ p (V ) = ( n p). Antag nu att indexsviten I har längd p medan J har längd q. Från antikommutativiteten för kilprodukten i Λ 1 (V ) ser vi då att vilket visar att θ I θ J = ( 1) pq θ J θ I, T S = ( 1) pq S T, om S Λ p (V ), S Λ q (V ). Bassatsen ovan medför att λ n (V ) är endimensionell om n = lim V. Om V = R n betyder detta att varje alternerande n-mutilinjär funktion är en multipel av determinanten (entydigheten av determinantfunktionen).
Multilinjär algebra 8 (18) Om längden av I är > k måste något index repeteras, vilket betyder att θ I = 0. Det följer att Λ p (V ) = 0 om p > k. Man inför också Λ 0 (V ) = R, vilket kan tolkas som de konstanta funktionerna på V. Vi utvidgar kilprodukten genom att helt enkelt låta multiplikation i detta rum vara skalär multiplikation. Med kilprodukten blir då den direkta summan Λ(V ) = Λ 0 (V ) Λ 1 (V )... Λ k (V ) en icke-kommutativ algebra som kallas den yttre algebran på V. Identitetselementet är 1 Λ 0 (V ). Det finns ytterligare en basal konstruktion. Låt A : V W vara en linjär avbildning. Transponatet A : W V utvidgas då naturligt till den yttre algebran: A : Λ p (W ) Λ p (V ) genom att vi för T Λ p (W ) definierar A T Λ(V ) genom Man ser lätt att A är linjär och att A T (v 1,..., v p ) = T (Av 1,..., Av p ), v i V. A (T S) = A T A S. Så A är en algebrahomomorfism: Λ(W ) Λ(V ). Notera att om B : W U är en annan linjär avbildning så gäller att (BA) = A B. Som specialfall, om A : V V är en bijektion så är den inducerade avbildningen A : Λ n (V ) Λ n (V ) en linjär avbildning mellan två 1-dimensionella vektorrum, och måste därför innebära multiplikation med en konstant λ R, alltså A T = λt för alla T Λ n (V ). Vi ska visa att λ är precis determinanten av A. För detta, tag vilken som helst bijektion B : V R n och betrakta T = B (det) Λ n (V ). Då gäller att A B (det) = λb (det), vilket medför att alltså (B ) 1 A B (det) = λ(b ) 1 B (det) = λ(bb 1 ) (det) = λ(det), (BAB 1 ) (det) = λ(det). Vi beräknar nu båda sidor i denna ekvation i standardbasen i R k. Då ser vi att Vi har alltså visat λ = det(bab 1 ) = det A. Sats 4 (Determinantsatsen) Om A : V A T = (det A)T för varje T Λ n (V ). Speciellt V är en linjär isomorfism så gäller att A θ 1... A θ n = (det A)θ 1... θ n. 6 Allmännare tensorer Man behöver inom tensoranalysen inte enbart multilinjära avbildningar, utan även vektorvärda multilinjära avbildningar. Mer precis, multilinjära avbildningar V s V r för
Multilinjär algebra 9 (18) positiva heltal r och s. Det linjära rummet av sådana betecknar vi T r,s (V ) och en tensor i det sägs vara kovariant av ordning s med kontravariant av ordning r. Klassiskt betraktar man ett element i T r,s (V ) inte som en vektorvärd avbildning på V r utan som en skalärvärd multilinjär avbildning på (V ) r V r, precis som vi kan betrakta en vektor som en linjär avbildning på V. Vi kan då alternativt skriva T r,s (V ) som tensorprodukten (V ) r V s. Speciellt ser vi att en tensor av typ (1, 0) är en vektor och en tensor av typ (0, 1) är en 1-form, medan en tensor av typ (0, p) är det som vi tidigare kallade en p-tensor. Vidare är T s (V ) = T (0,s) (V ). Anmärkning Inom tensoranalysen låter man den duala basen till basen e i i V betecknas med e i (som alltså är vårt θ i ). Vidare inför man e J I = e i1... e ir e j 1... e js, där I = {i 1,..., i r }, J = {j 1,..., j s } som blir en bas för T r,s. Tensorerna av typ (r, s) skrivs sedan S = SJe I J I, där SJ I = S(e I J). I =r, J =s Här utelämnas summatecknet oftast till förmån för konventionen att samma index uppe och nere alltid ska summeras över (Einsteins summationskonvention). Vi ser speciellt att S är entydigt bestämd av sina värden på baselementen. Mer explicit: S = T i...j k...l e i... e j e k... e l. där T i...j k...l = T (e i..., e j, e k,..., e l ). Ofta när man beskriver tensorer anger man endast koefficienterna SJ I, och utelämnar baselementen. Det fungerar så länge man endast diskuterar algebra, men när man ska derivera tensorer leder det till införandet av diverse korrektionsfaktorer (Christoffel-symboler) som härör från att man också måste derivera baselementen. Vi noterar nu att vi kan skriva S = ( SJe I J ) e I = S I e I, I =r J =s där S I = J =s SI J θj, vilket betyder att vi kan uppfatta en (r, s)-tensor som en uppsättning V r -värda T s (V )-tensorer. Av speciellt intresse är här (1, 1)-tensorer S = ij si j(θ j e i ) som alltså svarar mot avbildningar på V vars koordinater är 1-former. Spåret av α v definierar vi som Tr(α v) = α(v) vilket utvidgas till den allmänna (1, 1)-tensorn S som I =r Tr S = ij s i jθ j (e i ) = i s i i. Inom tensoranalysen kallas denna operator kontraktionen av S och betecknas oftast C(S). Den kan utvidgas till allmänna (r, s) tensorer med konventionen att det är första argumentet i varje komponent man kontraherar (tar spåret över). Vi ska strax ge den en annan formulering i form av den s.k. inre produkten (som ska skiljas från en skalärprodukt).
Multilinjär algebra 10 (18) 7 Orientering av vektorrum Vi ska nu börja lägga lite mer struktur på vektorrummet V och se vilka konsekvenser denna får för tensorer på V. Vi börjar med att orientera vektorrummet. Man kan ge ett vektorrum V en av två olika orienteringar. Om vi har två baser i det, gäller nämligen e = Ae, där A är en linjär avbildning på V. Vi kan därför dela upp baserna i V i två ekvivalensklasser där vi säger att baserna e, e har samma orientering om det A > 0. Att välja en orientering för V är att konsekvent välja baser ur endast en av dessa ekvivalensklasser. Ett behändigare sätt att beskriva detta är genom att betrakta vektorrummet Λ n (V ), som ju är endimensionellt. För ett element σ i det gäller att, om baserna e, e är relatierade genom e = Ae, σ(e 1,..., e n) = det A σ(e 1,..., e n ) vilket betyder att σ inte ändrar tecken om vi byter till en ny bas med samma orientering. Att orientera V är därför detsamma som att välja ett element σ Λ n (V ). 8 Den inre produkten Vi ska nu formulera den klassiska tensoranalysens kontraktioner på ett alternativt sätt. För en tensor S T r,s (V ), som vi uppfattar som en vektorvärd tensor, och v V är en vektor, kan vi definiera en T r,s 1 -form i(v)s genom att stoppa in v i det första argumentet för S (s positionerna) och sedan variera de övriga: i(v)s(v 1,..., v s 1 ) = S(v, v 1,..., v s 1 ). Notera att det alltid är i första argumentet vi sätter v. Per definition gäller att i(v)a = 0 om a är en skalär. Exempel 1 För en 1-form innebär den inre produkten endast att vi beräknar den i vektorn i fråga och får en skalär: i(v)θ = θ(v) = Tr(θ v). På motsvarade sätt ser vi att S är en (0, 2)-tensor så gäller att S(u, v) = (i(u)s(v) = i(v)i(u)s, en observation som ofta är användbar och naturligtvis generaliseras till (0, s)-tensorer. Vidare ser vi att i(v)(θ i θ j )(u) = (θ i θ j )(v, u) = θ i (v)θ j (u) θ i (u)θ j (v) = v i θ j (u) v j θ i (u) så om B är en 2-form så får vi att (i(v)b)(u) = i<j B ij i(v)(θ i θ j )(u) = i<j B ij v i θ j i<j B ij v j θ i,
Multilinjär algebra 11 (18) vilket vi kan skriva som i(v)b = B(v, θ) B(θ, v). Detta kan generaliseras med en formel som bygger på observationen att θ 1 (v)... θ s (v) θ 1 (v 1 )... θ s (v 1 ) i(v)(θ 1... θ s )(v 1,..., v s 1 ) = = ( 1) i 1 θ.. i (v)θ i (v 1,..., v s 1 ), i θ 1 (v s 1 )... θ s (v s 1 ) där vi satt θ i = θ 1... ˆθ i... θ s. Ett annat sätt att tänka ges i nästa exempel. Exempel 2 Vi noterar först att i(e k )θ m = θ m (e k ) = δ km. Om S är en k-form, så gäller att vi kan skriva S = A + θ j B, där varken A eller B innehåller θ j. Då följer att i(e j )S = B. Vi ser också att om S, T är allmänna tensorer så har vi att i(v)(s T ) = (i(v)s) T + S (i(v)t ), medan formeln är lite annorlunda för skev-symmetriska former: där S är en T 0,k -tensor. i(v)(s T ) = (i(v)s) T + ( 1) k S (i(v)t ), Det tre-dimensionella fallet är värd en egen mässa, eftersom det indikerar vad det är som är speciellt med just tre dimensioner. Exempel 3 Vi har att ω = i(u)(dx 1 dx 2 dx 3 ) = (i(u)dx 1 ) (dx 2 dx 3 ) dx 1 i(u)(dx 2 dx 3 ) = Ur detta följer sedan att u 3 dx 1 dx 2 + u 2 dx 3 dx 1 + u 1 dx 2 dx 3. i(v)ω = (u 2 v 3 u 3 v 2 )dx 1 + (u 3 v 1 u 1 v 3 )dx 2 + (u 1 v 2 u 2 v 1 )dx 3, där vi känner igen koefficienterna i vektorform som den klassiska vektorproduktens komponenter. Detta betyder att (med den vanliga, euklidiska skalärprodukten) (dx 1 dx 2 dx 3 )(u, v, w) = i(w)i(v)ω = (u v) w.
Multilinjär algebra 12 (18) 9 Metriker i vektorrum Vi ska nu förse vårt vektorrum V med en skalärprodukt. Med en skalärprodukt på V menar vi en symmetrisk bilinjärform g som är icke-degenererad, d.v.s. g(u, u) = 0 endast då u = 0. Motsvarande kvadratiska form u g(u, u) kallas då en metrik på V och enligt tröghetssatsen för kvadratiska former kan vi skriva V = V + V som en direkt summa av underrum sådana att g(u, u) > 0 då u V + och g(u, u) < 0 då u V. Om V = V + sägs rummet vara Euklidiskt, medan fallet när V + är en-dimensionellt och dim V > 0 svarar mot Minkowski-rum som är kopplade till den speciella relativitetsteorin. Vi säger att e 1,..., e n är en ortonormerad bas för V om det gäller att g(e i, e j ) = 0, i j och g(e i, e i ) = 1 för alla i. Notera att eftersom vi inte kräver en positivt definit metrik så blir formeln för hur man hittar koordinaterna för en vektor i en ortonormerad bas lite annorlunda mot den vanliga: om v = i x ie i så gäller att g(v, e i ) = j x jg(e i, e j ) = x i g(e i, e i ), och alltså (eftersom g(e i, e i ) = ±1) x i = g(v, e i )g(e i, e i ). I en allmän, icke nödvändigtvis ortonormerad, bas på V skriver vi g(u, v) = ij g ij θ i (u)θ j (v) (eller g = ij g ijθ i θ j om vi vill), där matrisen G = (g ij ) är symmetrisk. 10 Den musikaliska isomorfismen Med hjälp av metriken g kan vi på ett naturligt sätt identifiera V med sitt duala rum V. Om nämligen v V så blir L v : V u g(u, v) R en linjär avbildning, alltså ett element i V. Om e 1,..., e n är en bas för V så kommer elementen {L ei } att utgöra en bas för V av dimensionsskäl, så avbildningen v L v definierar en isomorfism mellan V och V. Eftersom denna isomorfism är fundamental inför vi också speciella beteckningar: den linjära form som hör till v V (alltså L v ovan) betecknar vi v, och om en linjär form L V är given, så betecknas det v V som är sådant att θ = v med θ. Detta betyder att v (u) = g(u, v), θ(u) = g(u, θ ). Exempel 4 Ibland vill man tolka 1-former α som det n 1-dimensionella underrum som definieras av att α(u) = 0, alltså g(u, α ) = 0. Kilprodukten av två 1-former blir då det i allmänhet n 2-dimensionella underrum som är ortogonalt mot båda de duala vektorerna osv. När vi därför kommer upp i kilprodukten av n 1-former blir resultatet (i allmänhet) endast origo. Men härigenom får vi också en skalärprodukt på V : vi definierar bara (u, v ) = g(u, v) (θ, η) = g(θ, η ). Andra sätt att uttrycka detta är att (θ, v ) = θ(v), eller (θ, η) = θ(η ) = g(θ, η ).
Multilinjär algebra 13 (18) Exempel 5 1-formerna η i = e i utgör följaktligen också en bas för V, liksom den duala basen θ i. Per definition har vi att η i (v) = g(e i, v) = j g ij θ j (v), från vilket vi lätt ser att (θ i ) = j g ik e k där (g ij ) är inversen till (g ij ). Det följer att (θ i, θ j ) = g ij. Speciellt ser vi alltså att om e i är en ON-bas för V, så är θ i en ON-bas för V. Anmärkning Det är värt att notera hur indexen ändrar sig när vi går från en vektor till en 1-form och tillbaka med den musikaliska isomorfismen. Om vi har en vektor v = i v ie i, så gäller att v = v i η i = v i g ij dx j = ( g ji v i )dx j, i ij j i så koefficienterna för v ges alltså av v j = i g jiv i. Omvänt, om vi utgår ifrån en 1-form ω = i ω idx i, så får vi att ω = j ω je j, ω j = i g ji ω i. Inom den klassiska tensoranalysen, där man endast räknar med koefficienterna, har detta översatts till en speciell teknik att höja och sänka index. Man skiljer där, som redan påpektas, på kontravarianta och kovarianta vektorer, där de förra är våra vektorer och de senare är våra 1-former. De förra skrivs med koordinater v i och de senare v i. Formlerna ovan innebär då att v i = g ij v j, v i = g ij v j, där vi också infört Einsteins summationskovention: om vi har samma index uppe och nere, summerar vi över det. Den musikaliska isomorfismen mellan bas och motsvarande koordinatbas innebär då den klassiska tekniken att höja och sänka index. 11 Volymsformer och skalärprodukt av tensorer Vi har sett hur vi får en metrik på V och vi har en metrik på V. Vidare, har vi en metrik på två vektorrum U och V, så får vi en metrik på tensorprodukten U V genom definitionen (S, u v ) = S(u v). Om S = α β betyder detta alltså α(u)β(v). På V V betyder detta att (S, θ i θ j ) = S((θ i ), (θ j ) ) = k,l g ik g jl S(e k, e l ) = k,l g ik g jl S kl = S ij,
Multilinjär algebra 14 (18) där sista ledet är definition. Det följer då att (S, T ) = ij S ij T ij. Detta generaliseras naturligt till godtyckliga tensorrum. Det betyder att vi får en metrik på alla tensorrum, och vi kan utvidga den musikaliska isomorfismen så att t.ex. en bilinjära form på V, alltså ett element S T 0,2 (V ), svarar mot en vektorvärd 1-form S på V genom (S (u), v) = S(u, v). Om vi skriver S = ij S ijθ i θ j och S = ij sj i θi e j så innebär detta att s j i = k gjk S ik. Med andra ord, när vi går över till koefficienterna ska vi höja index i andra variabeln. För skalärprodukterna på rummen Λ k (V ) gäller att (S, u 1... u k) = S(u 1,..., u k ). För en produkt av 1-former betyder det (α 1, β 1 )... (α 1, β k ) (α 1... α k, β 1... β k ) = det.., (α k, β 1 )... (α k, β k ) och vi ser att g i 1j 1... g i 1j k (θ I, θ J ) = det.. = det(g I ij j ). g i kj 1... g i kj k Om e 1,..., e n är en ortonormerad bas för V betyder detta att {θ I }, där I är strängt växande index av längd k, utgör en ortonormerad bas för Λ k (V ), och i det fallet har vi alltså att ( a I θ I, b J θ J ) = a I b I. I J I Vektorrummet Λ n (V ) är som vi sett endimensionellt, vilket gör att det finns två n-former σ sådana att (σ, σ) = ( 1) n där dim V = n. Genom att välja en av dessa, väljer man en orientering av vektorrummet V och den valda n-formen, som vi betecknar σ V, kallas då vektorrummets volymform (även om det inte är en sann volym). Om e 1,..., e n är en ON-bas så gäller att σ V = ±θ 1... θ n där teckenvalet definierar orienteringen. För att bestämma ett uttryck för σ V i en icke-ortonormerad bas noterar vi först att för en bas e 1,..., e n är positivt orienterad om det gäller att θ 1... θ n = Kσ V, K > 0. För en positivt orienterad ON-bas {o i } i V har vi här att K = 1 och om e = oa där det A > 0, så ser vi att (x är koordinaterna för den ortonormerade basen) σ V = (θ 1 )... (θ n ) = det A θ 1... θ n. Vidare har vi att (g(e i, e j )) = A(g(o i, o j ))A t vilket betyder att det g ij = (det A) 2, så σ V = det g ij θ 1... θ n, och vi har då att (σ V, σ V ) = det((θ i, θ j )) = det(g ij ).
Multilinjär algebra 15 (18) 12 Två relaterade operatorer För k-former har vi att för fixt v V gäller att i(v) är en avbildning Λ k (V ) Λ k 1 (V ). På ett metriskt rum kan vi också definiera en avbildning j(v) : Λ k (V ) Λ k+1 (V ) genom j(u)s = u ω. Dess relation till den inre produkten framgår först av att vi har att j(u)j(v)ω = j(v)j(u)ω, men också att i(u)j(v)ω = i(u)(v ω) = (i(u)v ) ω v (i(v)ω) = g(u, v)ω j(v)i(u)ω. Sammanfattningvis gäller alltså på Λ k (V ) att { i(u)i(v) + i(v)i(u) = 0, j(u)j(v) + j(v)j(u) = 0 i(u)j(v) + j(v)i(u) = g(u, v). Anmärkning I fallet med Euklidiskt rum har operatorerna ovan en viktig betydelse i kvantfysiken där de kallas skapelse- och förstörelse-operatorer för fermioner. Formlerna ovan utgör då anti-kommuteringsreglerna för dessa operatorer. Vi kan också notera följande. Från definitionen av skalärprodukt har vi för ω Λ k (V ) och η = u 2... u k att och att (i(u k )ω, η) = ω(u k, u 2,..., u n ) = (ω, u k η) = (ω, j(u k )η) = 0, k 2 (i(u 1 )ω, η) = ω(u 1,..., u k ) = (ω, u 1 η) = (ω, j(u 1 )η). Tillsammans med linjäriteten ger detta formeln (i(v)ω, η) = (ω, j(v)η), v V, ω Λ k (V ), η Λ k 1 (V ). 13 Hodges stjärnoperator Om vi tar en k-form ω och en n k-form η så gäller att deras kilprodukt är en n-form. Om vi dessutom har valt en metrik på och en orientering av V, och därmed en volymform σ V, så gäller att kilprodukten är proportionell mot σ V : ω η = B(ω, η)σ V där B : Λ k (V ) Λ n k (V ) K är en bilinjär-form. Om vi nu fixerar ω Λ k (V ) så blir avbildningen Λ n k (V ) η B(ω, η) K en linjär avbildning, vilket betyder att det finns ett element ω Λ n k (V ) sådant att B(ω, η) = ( ω, η). Detta ger oss en linjär avbildning : Λ k (V ) Λ n k (V ) genom ω η = ( ω, η)σ V. Vi måste dock komplettera denna definition med fallen k = 0, n. Om vi betecknar baselementet i Λ 0 (V ) med 1, så har vi att σ V = 1 och att 1 = (σ V, σ V )σ V, eftersom σ V = 1 σ V = ( 1, σ V )σ V.
Multilinjär algebra 16 (18) Anmärkning Notera att vår definition ger att ω ω = ( ω, ω)σ V. Här gäller, som vi ska se nedan, att ( ω, ω) = ±(ω, ω), där tecknet bestäms av metrikens signatur. Vi har plustecken om metriken är positivt definit. Exempel 6 Vi ska bestämma uttryck för -operatorn i en ON-bas θ 1,..., θ n på V sådan att σ V = θ 1... θ n är definierar den givna orienteringen. Eftersom θ I θ J = 0 om I, J har något gemensamt element följer att θ I = aθ J, där J är de komplementära indexen till I. Men θ I θ J = sign πσ V där π är den permutation som överför {I, J} på {1,..., n}, varför definitionen på -avbildningen ger att a = (θ J, θ J ) sign π och alltså θ I = (θ J, θ J )(sign π)θ J. Exempel 7 Om V är ett orienterat 2-dimensionellt Euklidiskt rum och dx, dy är positivt orienterad ortonormerad bas för V, beräknar vi dx genom att notera att σ V = dx dy = ( dx, dy)σ V ( dx, dy) = 1. Genom att ersätta dy med dx ser vi att ( dx, dx) = 0, så det gäller att dx = dy. En enkel modifiering av räkningen ovan visar sedan att dy = dx. Geometriskt betyder alltså stjärnoperatorn i detta fall rotation ett kvarts varv. Ändrar vi nu förutsättningarna så att rummet inte är Euklidiskt utan har Minkowskimetriken dt 2 dx 2 och σ V = dt dx, där dt, dx är en orienterad och ortonormerad bas för V. Då gäller att (σ V, σ V ) = 1 och nu får vi att dt dx = ( dt, dx)σ V, alltså ( dt, dx) = 1, vilket betyder att dt = ( dt, dx)(σ V, σ V ) = dx. En motsvarande räkning visar att dx = dt, eftersom (dt, dt) = 1. Geometriskt betyder alltså stjärnoperatorn nu spegling i linjen dt + dx = 0. Exempel 8 Betrakta nu två-former i ett orienterat Minkowski-rum av dimension fyra med metrik dt 2 dx 2 dy 2 dz 2. Vi har då att σ V = (dt dx) dy dz) = ( (dt dx), dy dz)σ V ( (dt dx), dy dz) = 1 och övriga skalärprodukter blir noll. Det följer att (dt dx) = (dy, dy)(dz, dz)dy dz = dy dz. Ur detta följer att om ω är en 1-form i dx, dy, dz så gäller att (dt ω) = ω där i högerledet är stjärnoperatorn i det Euklidiska underrummet som spänns upp av dx, dy, dz. Vidare har vi att σ V = dx dy dt dz = ( dx dy, dt dz)σ V, så (dx dy) = (dt, dt)(dz, dz)dt dz = dt dz. Tillsammans med motsvarande formler för de andra baselementen ser vi att om ω är en 2-form i dx, dy, dz så gäller att ω = dt ω. Dessa formler kommer att bli användbara när vi längre fram ska diskutera Maxwells ekvationer.
Multilinjär algebra 17 (18) Vi behöver nu ett antal formler som relaterar stjärnoperatorn till operatorer vi ovan stött på. För att härleda dem ska vi använda följande explicita formeln för stjärnoperatorn: med η = v k+1... v n blir definitionen att Vi börjar med att konstatera att ( ω)(v k+1,..., v n )σ V = ω v k+1... v n. ω η = η ω, vilket följer av att skalärprodukten är symmetrisk. Sedan har vi de två viktiga formlerna Sats 5 Vi har de två formlerna i(u)( ω) = ( 1) k j(u)ω, och j(u)( ω) = ( 1) k 1 i(u)ω. Bevis. Den första likheten följer då av att i(u)( ω)(v k+2,..., v n )σ V = ω(u, v k+2,..., v n )σ V = ω u v k+2... v n = (ω u )(v k+2,..., v n )σ V från vilket resultatet kan avläsas. Den andra är lite mer komplicerad: (j(u)( ω))(v k,..., v n )σ V = n ( 1) i 1 u (v i )( ω)(v k,..., v k,..., v n )σ V = k n ( 1) i 1 vi(u)(ω vk... ˆv k... vn) = ω i(u)(vk... vn) = k ( 1) k+1 (i(u)ω) (v k... v n) = ( 1) k+1 i(u)ω(v k,..., v n )σ V. Här har vi använt att om ω λ = 0 så gäller att i(u)ω λ + ( 1) k ω i(u)λ = 0 och alltså i(u)ω λ = ( 1) k+1 ω i(u)λ. Exempel 9 Låt oss inte skilja på 1-former och vektorer utan beteckna dessa med samma bokstav så att vi t.ex. har att a b = (a b). Att få ett känt uttryck för trippelprodukten (a b) c är då lätt: (a b) c = (( (a b)) c) = (c ( (a b)) = j(c)( (a b)) = i(c)(a b) = a(c)b b(c)a = (a, c)b (b, c)a. Vi ser hur dessa operationer ersätter komplicerade vektoroperationer! Exempel 10 Med samma lätt oegentliga beteckningar som i föregående exempel har vi i det Euklidiska rummet att (i(u)( a), b) = (u, b a). Detta följer av följande räkning: (i(u)( a), b)dx = b (i(u)( a)) = b ( 2 j(u)a) = j(u)(b a), för tar vi stjärna på det får vi att (i(u)( a), b) = i(u)( (b a)) = (u, b a).
Multilinjär algebra 18 (18) Exempel 11 Vi har följande tolkning av stjärnoperatorn. Låt e k+1,..., e n spänna upp underrummet U och sätt ω = e 1... e k. Då gäller att u U i(u)ω = 0 eftersom e i(u) = 0 då i k om u är en linjärkombination av e k+1,..., e n. Vidare har vi att i(u) ω = ( 1) k j(u)ω = ( 1) k u e 1... e k = 0 om u är en linjärkombination av e 1,..., e k så vi har u U i(u)( ω) = 0 Avbildningen 2 avbildar Λ k (V ) på sig självt. Vad är det då för avbildning? Svaret är att det är multiplikation med ett tal som är ±1: Sats 6 Vi har att 2 = ( 1) k(n k) (σ V, σ V ) på Λ k (V ). Bevis. Notera först att (v1... vk)(v k+1,..., v n )σ V = v1... vn = (σ V, σ V )σ V (v 1,..., v n ), där högerledet också kan skrivas (σ V, σ V )i(v 1 )... i(v n )σ V. Vi får då ( 2 ω)(v 1,..., v n )σ V = ( ω) v1... vk = (v1... vk) ω = (σ V, σ V )i(v 1 )... i(v n )σ V ω = ( 1) k(n k) (σ V, σ V )σ V (i(v 1 )... i(v n )ω) = ( 1) k(n k) (σ V, σ V )ω(v 1,..., v k )σ V. En första konsekvens av detta är att ω η = (σ V, σ V )(ω, η)σ V, eftersom vänsterledet är lika med ( 1) k(n k) η ω = ( 1) k(n k) ( 2 η, ω)σ V = (σ V, σ V )(η, ω)σ V. Det följer nu att stjärnoperatorn nästan bevarar skalärprodukt: ( ω, η) = (σ V, σ V )(ω, η). Vi har nämligen att (σ V, σ V )( ω, η)σ V = ( ω) ( 2 η) = 2 ( ω) η = 2 ( 2 ω, η)σ V = (ω, η)σ V Användbara resultat som ingår i detta är (ω, η) = 1 (ω η), ( ω, η) = (ω η).