1 Grundläggande kalkyler med vektorer och matriser

Relevanta dokument
1 De fyra fundamentala underrummen till en matris

Linjär Algebra M/TD Läsvecka 2

MULTIPLIKATION AV MATRISER, BASER I RUMMET SAMT FÖRSTA MÖTET MED MATRISINVERSER = = =

Enhetsvektorer. Basvektorer i två dimensioner: 1 1 Basvektorer i tre dimensioner: Enhetsvektor i riktningen v: v v

15 september, Föreläsning 5. Tillämpad linjär algebra

Uppsala Universitet Matematiska Institutionen Thomas Erlandsson

1 Linjära ekvationssystem. 2 Vektorer

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna 1-4.

14 september, Föreläsning 5. Tillämpad linjär algebra

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

MATRISTEORI. Pelle Pettersson MATRISER. En matris är ett rektangulärt schema med tal, reella eller komplexa, vilka kallas matrisens

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A =

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister

1 Positivt definita och positivt semidefinita matriser

SKRIVNING I VEKTORGEOMETRI Delkurs

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Dagens program. Linjära ekvationssystem och matriser

SKRIVNING I VEKTORGEOMETRI

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

Vektorgeometri för gymnasister

1 LP-problem på standardform och Simplexmetoden

Linjär algebra på 2 45 minuter

Moment 6.1, 6.2 Viktiga exempel Övningsuppgifter T6.1-T6.6

Moment 5.5 Övningsuppgifter I 5.60a. 5.60b, 5.60.c, 61

= ( 1) ( 1) = 4 0.

LÖSNINGAR TILL UPPGIFTER TILL RÄKNEÖVNING 1

Dagens ämnen. Linjära ekvationssystem: Successiv elimination Vektorer Definitionen Grundläggande räkneoperationer Bas och koordinater Ortsvektorer

MVE022 Urval av bevis (på svenska)

Matriser. En m n-matris A har följande form. Vi skriver också A = (a ij ) m n. m n kallas för A:s storlek. 0 1, 0 0. Exempel 1

Vektorgeometri för gymnasister

1 Duala problem vid linjär optimering

Subtraktion. Räkneregler

SKRIVNING I VEKTORGEOMETRI

Gausselimination fungerar alltid, till skillnad från mer speciella metoder.

SKRIVNING I VEKTORGEOMETRI

SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A

A = (3 p) (b) Bestäm alla lösningar till Ax = [ 5 3 ] T.. (3 p)

TMV166/186 Linjär Algebra M/TD 2011/2012 Läsvecka 1. Omfattning. Innehåll Lay, kapitel , Linjära ekvationer i linjär algebra

Moment Viktiga exempel Övningsuppgifter

Linjär Algebra M/TD Läsvecka 1

Vektorgeometri för gymnasister

MYSTERIER SOM ÅTERSTÅR

TMV166 Linjär algebra för M, vt 2016

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

linjära ekvationssystem.

Vektorgeometri för gymnasister

Norm och QR-faktorisering

Veckoblad 4, Linjär algebra IT, VT2010

1 Kvadratisk optimering under linjära likhetsbivillkor

Stora bilden av Linjära algebran. Vektorrum, linjära transformationer, matriser (sammanfattning av begrepp)

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri

Kursplanering för Linjär algebra, HT 2003

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

5 Linjär algebra. 5.1 Addition av matriser 5 LINJÄR ALGEBRA

1 Konvexa optimeringsproblem grundläggande egenskaper

Mer om analytisk geometri

Vektorgeometri för gymnasister


Vektorgeometri för gymnasister

Lösningar till MVE021 Linjär algebra för I

Linjär algebra. 1 Inledning. 2 Matriser. Analys och Linjär Algebra, del B, K1/Kf1/Bt1. CTH/GU STUDIO 1 TMV036b /2013 Matematiska vetenskaper

1 Minkostnadsflödesproblem i nätverk

Lösningsförslag till skrivningen i Vektorgeometri (MAA702) måndagen den 30 maj 2005

1 Ickelinjär optimering under bivillkor

Självkoll: Ser du att de två uttrycken är ekvivalenta?

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

6.4. Linjära ekvationssytem och matriser

Laboration: Vektorer och matriser

SKRIVNING I VEKTORGEOMETRI

Linjär Algebra F14 Determinanter

A. Grundläggande matristeori

Linjär algebra på några minuter

SF1624 Algebra och geometri Lösningsförslag med bedömningskriterier till kontrollskrivning 2 Fredagen den 28 januari, 2011

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

En vektor är mängden av alla sträckor med samma längd och riktning.

Slappdefinition. Räkning med vektorer. Bas och koordinater. En vektor är mängden av alla sträckor med samma längd och riktning.

VEKTORRUMMET R n. 1. Introduktion

1 som går genom punkten (1, 3) och är parallell med vektorn.

. b. x + 2 y 3 z = 1 3 x y + 2 z = a x 5 y + 8 z = 1 lösning?

Veckoblad 1, Linjär algebra IT, VT2010

8(x 1) 7(y 1) + 2(z + 1) = 0

Determinanter, egenvectorer, egenvärden.

Inför tentamen i Linjär algebra TNA002.

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

Analys o Linjär algebra. Lektion 7.. p.1/65

Minsta kvadratmetoden

Modul 1: Komplexa tal och Polynomekvationer

Innehåll. 1 Linjärt ekvationssystem (ES) 5. 2 Grundläggande algebra 13

8 Minsta kvadratmetoden

Numerisk Analys, MMG410. Exercises 2. 1/33

Matriser och linjära ekvationssystem

Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 9 juni 2011 kl

1. (a) (1p) Undersök om de tre vektorerna nedan är linjärt oberoende i vektorrummet

Geometriska vektorer

Studieanvisningar. H. Anton och C. Rorres: Elementary Linear Algebra, 9:e upplagan. Wiley, 2005 (betecknas A nedan).

Lite Linjär Algebra 2017

z = 4 + 3t P R = (5 + 2t, 4 + 2t, 4 + 3t) (1, 1, 3) = (4 + 2t, 3 + 2t, 1 + 3t)

Matriser och linjära ekvationssystem

Transkript:

Krister Svanberg, mars 2015 1 Grundläggande kalkyler med vektorer och matriser Trots att läsaren säkert redan behärskar grundläggande vektor- och matriskalkyler, ges här i Kapitel 1 en repetition om just detta Det som möjligen kan kännas nytt är tolkningarna av vad som egentligen pågår bakom de formella kalkylerna I avsnitt 18 (kapitlets höjdpunkt) tolkas multiplikation av två matriser på fyra olika sätt I Kapitel 2 presenteras grunderna för partitionerade matriser, och i Kapitel 3 behandlas baser, inverser och besläktade ting 11 Vektorer i IR n och linjärkombinationer av sådana Mängden av reella tal betecknas IR Mängden IR n består av alla kolonnvektorer med n st reella komponenter Om x IR n och de n st komponenterna i vektorn x kallas x 1, x 2,, x n så är alltså x 1 x 2 x x n Man kan addera vektorer i IR n och man kan multiplicera en vektor i IR n med en skalär (dvs ett reellt tal) Om x IR n, y IR n och α IR så gäller per definition att x 1 y 1 x 1 + y 1 x 1 αx 1 x 2 x + y + y 2 x 2 + y 2 x 2 och α x α αx 2 x n y n x n + y n x n αx n Om x IR n så är x T en radvektor med samma komponenter som kolonnvektorn x, dvs x T brukar utläsas x-transponat x T (x 1 x 2 x n ) Låt nu v 1,, v k vara k st givna vektorer i IR n, dvs v i IR n för i 1,, k Vektorn w IR n säges vara en linjärkombination av dessa vektorer v 1,, v k om det finns k st skalärer (dvs reella tal) α 1,, α k sådana att w α 1 v 1 + + α k v k k α i v i Ibland skrivs skalärerna i stället till höger om (kolonn-)vektorerna, varvid gångertecknet utelämnas, dvs w v 1 α 1 + + v k α k i1 k v i α i Detta ändrar inte betydelsen på något sätt, utan är bara ett annat skrivsätt i1 1

(Att det ofta är naturligare att skriva skalären α i till höger om kolonnvektorn v i beror på att man då kan uppfatta kolonnvektorn som en n 1 matris och skalären som en 1 1 matris Räknereglerna för matrismultiplikation BC (se nedan) förskriver att antalet kolonner i B ska överensstämma med antalet rader i C och det är uppfyllt om B v i är n 1 och C α i är 1 1, dvs om skalären α i står till höger om kolonnvektorn v i Det är däremot inte uppfyllt om B α i är 1 1 och C v i är n 1, dvs om skalären α i står till vänster om kolonnvektorn v i, varför vi i detta fall använder gångertecknet för att markera att det inte är fråga om matrismultiplikation Gångertecknet används nämligen normalt inte vid matrismultiplikationer) Att kolonnvektorn w är en linjärkombination av kolonnvektorerna v 1,, v k är ekvivalent med att radvektorn w T är en linjärkombination av radvektorerna v T 1,, vt k, dvs w T α 1 v T 1 + + α k v T k k α i vi T i1 (Här är det naturligt att skriva skalären α i till vänster om radvektorn vi T Om skalären uppfattas som en 1 1 matris och radvektorn som en 1 n matris så är räknereglerna för matrismultiplikation uppfyllda och vi behöver inte använda gångertecknet) 12 Multiplikation av radvektor och kolonnvektor ( skalärprodukt) Om x IR n och y IR n så kan man multiplicera radvektorn x T med kolonnvektorn y Resultatet blir per definition det reella talet y 1 x T y 2 y (x 1 x 2 x n ) x 1y 1 + x 2 y 2 + + x n y n y n n x j y j (11) Eftersom resultatet blir en skalär brukar x T y kallas för skalärprodukten av x och y Man kan notera att ordningen på x och y inte spelar någon roll, dvs att y T x x T y Vidare följer ur definitionen att om även z IR n så är x T (y + z) x T y + x T z och (x + y) T z x T z + y T z Speciellt kan man skalärmultiplicera en vektor x IR n med sig själv, varvid erhålls x T x x 2 1 + x 2 2 + + x 2 n där x betecknar (euklidiska) längden på vektorn x n x 2 j x 2, Två vektorer x IR n och y IR n säges vara ortogonala om x T y 0, dvs om skalärprodukten av x och y är noll Ibland säger man vinkelräta i stället för ortogonala, eftersom den geometriska tolkningen i IR 2 och IR 3 är att vinkeln mellan x och y är 90 grader om x T y 0 Den enda vektor som är ortogonal mot sig själv är nollvektorn, ty x T x 0 x 2 1 + x 2 2 + + x 2 n 0 x 1 x 2 x n 0 x 0 j1 j1 2

13 Matriser i IR m n Mängden IR m n består av alla m n matriser med reella element Om matrisen A IR m n så är alltså a 11 a 12 a 1n a 21 a 22 a 2n A, a m1 a m2 a mn där a ij IR betecknar matriselementet i rad nr i och kolonn nr j Man kan addera matriser av samma storlek och man kan multiplicera en matris med en skalär Om A IR m n, B IR m n och α IR så gäller per definition att a 11 a 1n b 11 b 1n a 11 + b 11 a 1n + b 1n A + B + a m1 a mn och α A α b m1 b mn a 11 a 1n a m1 + b m1 a mn + b mn αa 11 αa 1n a m1 a mn αa m1 αa mn 14 Multiplikation av matris och kolonnvektor Om A IR m n och x IR n så kan man multiplicera A och x (i den ordningen) Resultatet blir per definition följande kolonnvektor Ax IR m : x a 11 a 12 a 1 1n a a 21 a 22 a 2n x 2 11 x 1 + a 12 x 2 + + a 1n x n Ax a 21 x 1 + a 22 x 2 + + a 2n x n (12) a m1 a m2 a mn a m1 x 1 + a m2 x 2 + + a mn x n x n Om den i:te komponenten i kolonnvektorn Ax betecknas (Ax) i så gäller alltså att n (Ax) i a i1 x 1 + a i2 x 2 + + a in x n a ij x j, för i 1,, m (13) Denna matris-kolonnvektormultiplikation kan tolkas på (åtminstone) två olika sätt Den första tolkningen av Ax utgår från kolonnerna i A Låt â j beteckna den j:te kolonnen i matrisen A, dvs a 1j A a 2j â 1 â 2 â n, där âj IRm 3 j1 a mj

Ur (12) erhålls att a 11 x 1 a 1n x n a 21 x 1 Ax + + a 2n x n a m1 x 1 a mn x n a 11 a 21 a m1 x 1 + + a 1n a 2ṇ a mn x n, och eftersom högerledet här är â 1 x 1 + + â n x n x 1 x 2 Ax â 1 â 2 â n â 1x 1 + â 2 x 2 + + â n x n x n så kan man tolka (12) på följande sätt: Kolonnvektorn Ax är alltså en linjärkombination av kolonnerna i matrisen A Den andra tolkningen av Ax utgår från raderna i A Låt ā T i beteckna den i:te raden i matrisen A, dvs A ā T 1 ā T 2 ā T m n â j x j (14) j1, där āt i (a i1 a i2 a in ), dvs ā i IR n Ur (13) erhålls då att (Ax) i a i1 x 1 + a i2 x 2 + + a in x n ā T i x, vilket betyder att den i:te komponenten i vektorn Ax är skalärprodukten av den i:te raden i matrisen A och vektorn x Man kan alltså tolka (12) på följande sätt: ā T ā T 1 1 x ā Ax T 2 x ā T 2 x (15) ā T m ā T mx 15 Multiplikation av radvektor och matris Om A IR m n och u IR m så kan man multiplicera radvektorn u T (u 1 u 2 u m ) och matrisen A (i den ordningen) Resultatet blir en radvektor u T A med n st komponenter Om den j:te komponenten i denna radvektor betecknas (u T A) j så gäller per definition att (u T A) j u 1 a 1j + u 2 a 2j + + u m a mj m u i a ij, för j 1,, n (16) i1 Även denna radvektor-matrismultiplikation kan tolkas på (åtminstone) två olika sätt 4

Den första tolkningen av u T A utgår från kolonnerna i A Låt â j beteckna den j:te kolonnen i A Ur (16) erhålls då att (u T A) j u 1 a 1j + u 2 a 2j + + u m a mj u T â j, (17) vilket betyder att den j:te komponenten i radvektorn u T A är skalärprodukten av vektorn u och den j:te kolonnen i matrisen A Man kan alltså tolka (16) på följande sätt: u T A u T â 1 â 2 â n (utâ 1 u T â 2 u T â n ) (18) Den andra tolkningen av u T A utgår från raderna i A Låt ā T i beteckna den i:te raden i A Ur (16) erhålls då att u T A u 1 ā T 1 + u 2 ā T 2 + + u m ā T m, så att (16) kan tolkas på följande sätt: u T A (u 1 u 2 u m ) ā T 1 ā T 2 ā T m u 1ā T 1 + u 2 ā T 2 + + u m ā T m m u i ā T i (19) i1 Radvektorn u T A är alltså en linjärkombination av raderna i matrisen A 16 Multiplikation av radvektor, matris och kolonnvektor I detta avsnitt skall visas att om A IR m n, u IR m och x IR n så är (u T A)x u T (Ax) Genom att i tur och ordning använda (18), (11) och (14) så erhålls att (u T A)x (u T â 1 u T â 2 u T x 2 â n ) x n x 1 n u T â j x j j1 u T (Ax) Alternativt kan man i tur och ordning använda (15), (11) och (19): ā T 1 x u T ā T 2 (Ax) (u 1 u 2 u m ) x m u i ā T i x (u T A)x ā T mx Man kan alltså utan risk för tvetydighet skriva u T Ax Av ovanstående följer också att skalären u T Ax kan skrivas som dubbelsumman u T Ax m i1 j1 i1 n u i a ij x j (110) 5

17 Multiplikation av kolonnvektor och radvektor Om b IR m och c IR n så kan man multiplicera kolonnvektorn b och radvektorn c T (i den ordningen) Resultatet blir per definition följande matris bc T IR m n : b 1 b 1 c 1 b 1 c 2 b 1 c n b b 2 c 1 b 2 c 2 b 2 c n bc T (c 1 c 2 c n ) (111) 2 b m b m c 1 b m c 2 b m c n I denna matris bc T är varje rad en multipel av vektorn c T, medan varje kolonn är en multipel av vektorn b, ty enligt (111) är b 1 c T b 2 c T bc T och bc T bc 1 bc 2 bc n b m c T 18 Multiplikation av två matriser Om B IR m k och C IR k n så kan man multiplicera B och C (i den ordningen) Resultatet blir en m n-matris BC IR m n Om (BC) ij betecknar elementet i den i:te raden och j:te kolonnen i matrisen BC så gäller per definition att (BC) ij k b il c lj, för i 1,, m och j 1,, n (112) l1 Denna matris-matrismultiplikation kan tolkas på (åtminstone) fyra olika sätt Den första tolkningen utgår från de enskilda elementen i matrisen BC Eftersom högerledet i (112) är produkten av den i:te raden i B och den j:te kolonnen i C, dvs skalärprodukten av b i IR l och ĉ j IR l, så kan BC skrivas b T 1 b T 1 b T ĉ1 b T 1 ĉ2 b T 1 ĉn 2 b T 2 ĉ1 b T 2 ĉ2 b T 2 ĉn BC ĉ1 ĉ 2 ĉ n (113) b T mĉ 1 b T mĉ 2 b T mĉ n b T m Den andra tolkningen utgår från kolonnerna i BC Genom att jämföra en godtycklig kolonn i högerledet i (113) med högerledet i (15) så inses att den j:te kolonnen i matrisen BC är produkten av matrisen B och den j:te kolonnen i C, dvs BC B ĉ 1 ĉ 2 ĉ n Bĉ1 Bĉ 2 Bĉ n (114) 6

Den tredje tolkningen utgår från raderna i BC Genom att jämföra en godtycklig rad i högerledet i (113) med högerledet i (18) så inses att den i:te raden i matrisen BC är produkten av den i:te raden i B och matrisen C, dvs BC b T 1 b T 2 b T m C b T 1 C b T 2 C b T mc (115) Den fjärde tolkningen bygger på att produkten av den l:te kolonnen i B och den l:te raden i C enligt (111) ges av följande matris: b 1l b 1l c l1 b 1l c l2 b 1l c ln b 2l b 2l c l1 b 2l c l2 b 2l c ln ˆb l c T l (c l1 c l2 c ln ) b ml b ml c l1 b ml c l2 b ml c ln Om (ˆb l c T l ) ij betecknar elementet i den i:te raden och j:te kolonnen i denna matris ˆb l c T l så k är alltså (ˆb l c T l ) ij b il c lj, vilket medför att (112) kan skrivas (BC) ij (ˆb l c T l ) ij k Eftersom detta gäller för varje rad i och kolonn j så är BC ˆb l c T l Den fjärde tolkningen av produkten BC kan därmed uttryckas på följande vis: BC ˆb 1 ˆb 2 ˆb k c T 1 c T 2 c T k l1 l1 ˆb 1 c T 1 + ˆb 2 c T 2 + + ˆb k c T k (116) 19 Multiplikation av tre matriser Om A IR m p, B IR p q och C IR q n så kan man enligt ovan multiplicera dels A och B, dels B och C Till resultat erhålls matriserna AB IR m q respektive BC IR p n Men det betyder att man i sin tur kan multiplicera dels AB och C, dels A och BC Till resultat erhålls då matriserna (AB)C IR m n respektive A(BC) IR m n Här ska nu visas att matrismultiplikation är associativ, dvs att (AB)C A(BC) (117) 7

Med hjälp av (115) och den högra likheten i (113) erhålls att ā T 1 B ā T 1 ā T 2 B Bĉ 1 ā T 1 Bĉ 2 ā T 1 Bĉ n ā T 2 Bĉ 1 ā T 2 Bĉ 2 ā T 2 Bĉ n (AB)C ĉ1 ĉ 2 ĉ n ā T mb ā T mbĉ 1 ā T mbĉ 2 ā T mbĉ n Med hjälp av (114) och den högra likheten i (113) erhålls på motsvarande sätt att ā T 1 ā T 1 ā T Bĉ 1 ā T 1 Bĉ 2 ā T 1 Bĉ n 2 ā T 2 Bĉ 1 ā T 2 Bĉ 2 ā T 2 Bĉ n A(BC) Bĉ1 Bĉ 2 Bĉ n ā T mbĉ 1 ā T mbĉ 2 ā T mbĉ n ā T m Som synes är de bägge högerleden ovan identiska Man kan alltså utan risk för tvetydighet skriva ABC 110 Transponering av matriser Att transponera matrisen A innebär att man låter rader och kolonner byta plats med varann Om A är en m n-matris med elementet a ij i rad nr i och kolonn nr j, så är därmed den transponerade matrisen A T en n m-matris med elementet a ij i kolonn nr i och rad nr j Om a 11 a 12 a 1n a 21 a 22 a 2n A â 1 â 2 â n a m1 a m2 a mn ā T 1 ā T 2 ā T m, så är alltså A T a 11 a 21 a m1 a 12 a 22 a m2 â T 1 â T 2 ā 1 ā 2 ā m a 1n a 2n a mn â T n Den j:te kolonnen â j i A har alltså transponerats och blivit den j:te raden â T j i AT, medan den i:te raden ā T i i A har transponerats och blivit den i:te kolonnen ā i i A T Man kan notera att om man transponerar en matris två gånger så får man tillbaka den ursprungliga matrisen, dvs (A T ) T A 8

Om B IR m k och C IR k n så kan man multiplicera B och C, varvid BC IR m n För de transponerade matriserna gäller då att C T IR n k och B T IR k m, vilket betyder att man kan multiplicera C T och B T, varvid C T B T IR n m Eftersom B b T 1 b T 2 b T m och C ĉ 1 ĉ 2 ĉ n, så är B T b 1 b 2 b m och C T ĉ T 1 ĉ T 2 ĉ T n Därmed är C T B T ĉ T 1 ĉ T 2 b 1 b 2 b m ĉ T b 1 1 ĉ T b 1 2 ĉ T b 1 m ĉ T b 2 1 ĉ T b 2 2 ĉ T b 2 m, ĉ T n ĉ T n b 1 ĉ T n b 2 ĉ T n b m medan BC b T 1 b T 2 ĉ1 ĉ 2 ĉ n b T 1 ĉ1 b T 1 ĉ2 b T 1 ĉn b T 2 ĉ1 b T 2 ĉ2 b T 2 ĉn b T m b T mĉ 1 b T mĉ 2 b T mĉ n Från detta ser man att (BC) T C T B T, (118) som säger oss att transponatet av två matrisers produkt är lika med produkten av matrisernas transponat fast i omvänd ordning! Detta kan generaliseras till flera matriser Antag att A IR m p, B IR p q och C IR q n Då är produkten ABC enligt tidigare väldefinierad och lika med A(BC) Upprepad användning av (118) ger då att (ABC) T (A(BC)) T (BC) T A T (C T B T )A T C T B T A T, (119) så även för tre matriser gäller att transponatet av matrisernas produkt är lika med produkten av matrisernas transponat fast i omvänd ordning Resonemanget kan enkelt upprepas för produkten av fyra matriser, och sedan fem matriser, etc 9

Antag speciellt att A IR m n, u IR m och x IR n Då gäller enligt (118) att (Ax) T x T A T och (u T A) T A T u, (120) ty x IR n kan uppfatts som en n 1-matris och u IR m som en m 1-matris Vidare gäller enligt (119) att (u T Ax) T x T A T u (121) Men u T Ax är en 1 1-matris, dvs en skalär, som inte påverkas av transponering Därför är (u T Ax) T u T Ax, vilket tillsammans med (121) ger att u T Ax x T A T u, (122) som innebär att skalärprodukten av vektorerna u och Ax alltid är lika med skalärprodukten av vektorerna x och A T u 10

2 Partitionerade matriser, även kallade blockmatriser Vi inleder med ett exempel Givet följande fyra matriser T IR p q, U IR p s, V IR r q och W IR r s : t 11 t 1q u 11 u 1s v 11 v 1q w 11 w 1s T, U, V, W t p1 t pq u p1 u ps v r1 v rq w r1 w rs Observera att T har lika många rader som U, att V har lika många rader som W, att T har lika många kolonner som V, och att U har lika många kolonner som W Då kan man bilda följande matris A med p + r st rader och q + s st kolonner: t 11 t 1q u 11 u 1s t A p1 t pq u p1 u ps v 11 v 1q w 11 w 1s v r1 v rq w r1 w rs Den naturliga beteckningen på denna matris är T U A V W Här startade vi med fyra matriser och byggde med hjälp av dessa upp en större matris Omvänt kan man förstås starta med en stor matris och dela upp den i mindre matriser: Givet en matris A med m st rader och n st kolonner, låt m 1, m 2, n 1 och n 2 vara positiva heltal sådana att m 1 + m 2 m och n 1 + n 2 n Inför sedan de fyra matriserna A 11, A 12, A 21 och A 22 enligt följande: Låt A 11 bestå av elementen i de första m 1 raderna och de första n 1 kolonnerna i A Låt A 12 bestå av elementen i de första m 1 raderna och de sista n 2 kolonnerna i A Låt A 21 bestå av elementen i de sista m 2 raderna och de första n 1 kolonnerna i A Låt A 22 bestå av elementen i de sista m 2 raderna och de sista n 2 kolonnerna i A Då kan A med beteckning i enlighet med ovan skrivas A11 A 12 A A 21 A 22 Man säger att A är en partitionerad (uppdelad) matris, eftersom A är uppdelad i delmatriser Alternativt säger man att A är en blockmatris bestående av blocken A 11, A 12, A 21 och A 22 11

En partitionerad matris (blockmatris) behöver inte vara uppdelade i just fyra delar (block) Allmänt ser en partitionerad matris ut på följande sätt, där M och N är givna positiva heltal: A A 11 A 12 A 1N A 21 A 22 A 2N A M1 A M2 A MN Här måste alla delmatriser A ij med gemensamt förstaindex i, exempelvis A 21, A 22,, A 2N, ha lika många rader Vidare måste alla delmatriser A ij med gemensamt andraindex j, exempelvis A 12, A 22,, A M2, ha lika många kolonner Att partitionera matriser är ofta mycket användbart för att få överblick och insikt om vad som egentligen pågår vid matriskalkyler Vi kommer att se många exempel på det längre fram Här ska nu närmast härledas några grundläggande räkneregler för partitionerade matriser, speciellt matrismultiplikation 21 Produkten av en 2 1 blockmatris och en 1 2 blockmatris Antag att B IR m k och C IR k n, så att produkten BC är definierad Antag vidare att B och C är partitionerade enligt B b T 1 b T p b T p+1 b T m B1 B 2 och C ĉ 1 ĉ q ĉ q+1 ĉ n C1 C 2, där B 1 b T 1 b T p, B 2 b T p+1 b T m, C 1 ĉ 1 ĉ q och C2 ĉ q+1 ĉ n Med hjälp av (115) erhålls då att BC B1 B 2 C b T 1 C b T p C b T p+1 C b T mc B1 C B 2 C (21) 12

Med hjälp av (114) erhålls i stället att BC B C 1 C 2 Bĉ1 Bĉ q Bĉ q+1 Bĉ n BC1 BC 2, (22) samt att B 1 C1 C 2 B1 ĉ 1 B 1 ĉ q B 1 ĉ q+1 B 1 ĉ n B1 C 1 B 1 C 2, (23) B 2 C1 C 2 B2 ĉ 1 B 2 ĉ q B 2 ĉ q+1 B 2 ĉ n B2 C 1 B 2 C 2 (24) Genom att kombinera räknereglerna (21), (23) och (24) erhålls därmed att B1 C B1 C 1 C 2 B1 C 1 B 1 C 2 BC B 2 C B 2 C 1 C 2 B 2 C 1 B 2 C 2 Alltså: Om antalet kolonner i såväl B 1 som B 2 överensstämmer med antalet rader i såväl C 1 som C 2 så är B1 B1 C 1 B 1 C 2 C1 C 2 (25) B 2 B 2 C 1 B 2 C 2 22 Produkten av en 1 2 blockmatris och en 2 1 blockmatris Antag nu att G IR m k och H IR k n, så att produkten GH är definierad Antag vidare att G och H är partitionerade enligt G ĝ 1 ĝ l ĝ l+1 ĝ k G1 G 2 och H h T 1 h T l h T l+1 h T k H1 H 2, där G 1 ĝ 1 ĝ l, G2 ĝ l+1 ĝ k, H1 h T 1 h T l och H 2 h T l+1 h T k Med hjälp av (116) erhålls då att GH ĝ 1 h T 1 + + ĝ l h T l + ĝ l+1 h T l+1 + + ĝ k h T k G 1H 1 + G 2 H 2 13

Alltså: Om antalet rader i G 1 antalet rader i G 2, antalet kolonner i H 1 antalet kolonner i H 2, antalet kolonner i G 1 antalet rader i H 1 och antalet kolonner i G 2 antalet rader i H 2, så är G1 G 2 H 1 H 2 G 1 H 1 + G 2 H 2 (26) 23 Produkten av en 2 2 blockmatris och en 2 2 blockmatris Antag nu att B11 B 12 C11 C 12 B B 21 B 22 och C C 21 C 22, där B ij IR m i k j och C ij IR k i n j, för i {1, 2} och j {1, 2}, så att B IR m k och C IR k n, där m m 1 +m 2, n n 1 +n 2 och k k 1 +k 2 Nu ska härledas en räkneregel för produkten BC Låt G 1 B11 B 21 Då är B G 1, G 2 B12 B 22 G 2 och C H1 BC G 1 H 1 + G 2 H 2, H 1 C 11 C 12 och H2 C 21 C 22 H 2 B11 B 21, varvid räkneregeln (26) ger att Tillämpning av räkneregeln (25) på högerledet i (27) ger att BC B12 C11 C 12 + C21 C 22 (27) B 22 B11 C 11 B 11 C 12 B12 C 21 B 12 C 22 + B 21 C 11 B 21 C 12 B 22 C 21 B 22 C 22 Alltså: Förutsatt att blocken B ij och C ij har dimensioner enligt ovan så är B11 B 12 C11 C 12 B11 C 11 + B 12 C 21 B 11 C 12 + B 12 C 22 (28) B 21 B 22 C 21 C 22 B 21 C 11 + B 22 C 21 B 21 C 12 + B 22 C 22 Om man jämför (28) med multiplikationsregeln för vanliga 2 2 matriser så ser man att blockmatriser kan multipliceras med varann genom att helt enkelt behandla blocken som element vid vanlig matrismultiplikation Detta förutsätter dock att dimensionerna på blocken är sådana att de inblandade blockmultiplikationerna och blockadditionerna är definierade Denna viktiga räkneregel gäller även för mer generella blockmatriser än 2 2 blockmatriser 14

24 Transponering av blockmatriser Antag att A är följande 2 2 blockmatris: t 11 t 1q u 11 u 1s A T U t p1 t pq u p1 u ps V W v 11 v 1q w 11 w 1s v r1 v rq w r1 w rs Om man här transponerar A, dvs byter plats på rader och kolonner, så erhålls t 11 t p1 v 11 v r1 A T t 1q t pq v 1q v rq u 11 u p1 w 11 w, r1 u 1s u ps w 1s w rs vilket betyder att T U T T T V T A T V W U T W T Observera att blocken U och V byter plats och att samtliga block transponeras Allmänt gäller att om A 11 A 12 A 1N A 21 A 22 A 2N A A M1 A M2 A MN så är A T A T 11 A T 21 A T M1 A T 12 A T 22 A T M2 A T 1N AT 2N AT MN 15

3 Baser och inverser 31 Linjärt beroende resp linjärt oberoende vektorer i IR m Låt a 1,, a n vara n st givna vektorer i IR m (dvs a i IR m för i 1,, n) Dessa vektorer säges vara linjärt beroende om det finns n st (reella) tal x 1,, x n som inte alla är 0, sådana att där 0 (0,, 0) T IR m a 1 x 1 + + a n x n 0, (31) Om däremot den enda möjligheten att uppfylla (31) är att sätta x 1 x n 0 så säges vektorerna a 1,, a n vara linjärt oberoende Låt A vara en m n matris med de givna vektorerna a 1,, a n till kolonner, dvs A a 1 a n, och betrakta följande homogena ekvationssystem i variabelvektorn x (x 1,, x n ) T IR n : Ax 0 (32) Eftersom (32) bara är ett alternativt sätt att skriva (31) på, så kan ovanstående definitioner ekvivalent uttryckas så här: Kolonnerna till matrisen A är linjärt oberoende om det homogena systemet (32) endast har lösningen x 0 Om det däremot finns minst en lösning x 0 till det homogena systemet (32) så är kolonnerna till A linjärt beroende Betrakta nu följande ekvationssystem, där b IR m är en given högerledsvektor Ax b (33) Om kolonnerna i A är linjärt oberoende så har detta ekvationssystem högst en lösning x Antag nämligen att både x och y är lösningar till (33) och sätt z x y Då är Az A(x y) Ax Ay b b 0, vilket betyder att z är en lösning till det homogena systemet (32) Men eftersom kolonnerna i A är linjärt oberoende så är därmed z 0, vilket betyder att x y Notera att det faktum att kolonnerna i A är linjärt oberoende inte garanterar att det finns någon lösning x till ekvationssystemet (33) Men om det finns någon lösning så är den unik Om kolonnerna a 1,, a n i m n matrisen A är linjärt oberoende så måste n m, ty om n > m så har ekvationssystemet (32) fler obekanta än ekvationer, och sådana liggande homogena ekvationssystem har alltid oändligt många lösningar (Se exempelvis avsnitt 14 i Petermanns bok Linjär geometri och algebra) 16

32 Uppspännande vektorer i IR m Låt som ovan a 1,, a n vara n st givna vektorer i IR m Dessa vektorer säges spänna upp IR m om varje vektor b IR m kan skrivas som en linjärkombination av dessa vektorer, dvs om det för varje vektor b IR m finns n st tal x 1,, x n sådana att a 1 x 1 + + a n x n b (34) Låt A vara en m n matris med de givna vektorerna a 1,, a n till kolonner, dvs A a 1 a n, och betrakta följande linjära ekvationssystem i variabelvektorn x (x 1,, x n ) T IR n : Ax b (35) Eftersom (35) bara är ett alternativt sätt att skriva (34) på, så kan ovanstående definition ekvivalent uttryckas så här: Kolonnerna till matrisen A spänner upp IR m om (och endast om) det för varje val av högerledsvektor b IR m gäller att ekvationssystemet (35) har minst en lösning Om kolonnerna a 1,, a n i m n matrisen A spänner upp IR m så måste n m, ty om n < m så har ekvationssystemet (35) fler ekvationer än obekanta, och sådana stående ekvationssystem saknar lösning för vissa högerledsvektorer b (Se exempelvis avsnitt 14 i Petermanns bok Linjär geometri och algebra) 33 Baser till IR m Låt som ovan a 1,, a n vara n st givna vektorer i IR m Dessa vektorer säges utgöra en bas till IR m om de är linjärt oberoende och spänner upp IR m Man kan direkt konstatera att om a 1,, a n utgör en bas till IR m så är n m, ty enligt ovan gäller att om a 1,, a n spänner upp IR m så måste n m, och om a 1,, a n är linjärt oberoende så måste n m Varje bas till IR m består alltså av exakt m st basvektorer Fortsättningsvis i detta avsnitt förutsätter vi därför att n m Låt A vara en m m matris med de givna vektorerna a 1,, a m till kolonner, dvs A a 1 a m, låt b IR m vara en given högerledsvektor och betrakta följande ekvationssystem i variabelvektorn x (x 1,, x m ) T IR m : Ax b (36) Antag att kolonnerna i A utgör en bas till IR m Då spänner de upp IR m, vilket innebär att systemet (36) har minst en lösning x Vidare är de linjärt oberoende, vilket innebär att systemet (36) har högst en lösning Slutsatsen blir att om kolonnerna i A utgör en bas till IR m så gäller, för varje val av högerledsvektor b IR m, att ekvationssystemet (36) har exakt en lösning x IR m Detta är i sin tur ekvivalent med att varje vektor b IR m på ett unikt sätt kan skrivas som en linjärkombination av basvektorerna a 1,, a m, dvs a 1 x 1 + + a m x m b, 17

där de reella talen x 1,, x m är unikt bestämda av a 1,, a m och b Dessa tal x 1,, x m brukar kallas koordinaterna för b i basen a 1,, a m Omvänt gäller att om det kvadratiska systemet (36) för varje val av högerledsvektor b IR m har exakt en lösning x IR m så utgör kolonnerna i A en bas till IR m, ty att kolonnerna spänner upp IR m följer av att (36) har lösning för varje b IR m, och att kolonnerna är linjärt oberoende följer av att lösningen är unik även för högerledsvektorn b 0, så att endast x 0 uppfyller Ax 0 34 Viktigt samband mellan kolonner och rader för en kvadratisk matris För en kvadratisk matris A IR m m är följande sex egenskaper ekvivalenta (om en av dem gäller så gäller alla): 1 Kolonnerna i A är linjärt oberoende 2 Kolonnerna i A spänner upp IR m 3 Kolonnerna i A utgör en bas till IR m 4 Kolonnerna i A T är linjärt oberoende 5 Kolonnerna i A T spänner upp IR m 6 Kolonnerna i A T utgör en bas till IR m Här ska bevisas att 1 2 4 5 1, vilket medför att 1 2 4 5 Därefter följer från definitionen av en bas att var och en av dessa fyra egenskaper är ekvivalent med var och en av de båda egenskaperna 3 och 6 1 2: Antag att kolonnerna a 1,, a m i A är linjärt oberoende, och tag en godtycklig vektor b IR m Vi ska visa att b är en linjärkombination av dessa kolonner Betrakta vektorerna a 1,, a m, b Eftersom detta är m + 1 st vektorer i IR m så är de linjärt beroende Alltså finns det m + 1 st tal x 1,, x m, z, som inte alla är 0, sådana att a 1 x 1 + + a n x n + bz 0 Om här z 0 så måste även alla x j 0 eftersom a 1,, a m är linjärt oberoende, och detta strider mot att minst ett av talen x 1,, x m, z är 0 Alltså är z 0, varvid division med z ger att b a 1 ( x 1 /z) + + a n ( x n /z), vilket visar att b är en linjärkombination av kolonnerna a 1,, a m 2 4: Antag att kolonnerna i A spänner upp IR m, och tag en godtycklig vektor u IR m som uppfyller att u 0 Vi ska visa att A T u 0 (Detta visar att den enda lösningen till A T y 0 är y 0, vilket är just definitionen av att kolonnerna i A T är linjärt oberoende) Eftersom kolonnerna i A spänner upp IR m finns ett x IR m sådant att Ax u Men då uppfyller detta x även u T Ax u T u (som erhållits genom att multiplicera båda leden från vänster med u T ), dvs x T A T u u 2 > 0, vilket visar att A T u 0 4 5 bevisas genom att helt enkelt byta plats på A och A T i beviset av 1 2 ovan 5 1 bevisas genom att helt enkelt byta plats på A och A T i beviset av 2 4 ovan 18

35 Inversa matrisen A 1 Låt A IR m m vara en kvadratisk matris och låt I beteckna m m enhetsmatrisen Om det finns en matris G IR m m sådan att AG I och GA I så säges G vara den inversa matrisen (eller kortare bara inversen) till A Beteckningen för detta är G A 1 Man har alltså att AA 1 I och A 1 A I (37) Det är lätt att visa att om A har en invers A 1 så är denna unik Om nämligen AG I, GA I, AH I och HA I, så måste G H, ty AG I H(AG) H I (HA)G H I G H G H Här ska nu visas att A har en invers matris om och endast om A har någon (och därmed samtliga!) av de sex egenskaperna i föregående avsnitt Antag först att A IR m m har de sex egenskaperna i föregående avsnitt Låt e 1,, e m beteckna de m st kolonnerna i enhetsmatrisen, så att I e 1 e m Eftersom kolonnerna i A utgör en bas till IR m så finns det, för varje i, en unik vektor y i IR m sådan att Ay i e i Låt Y vara en m m matris med dessa vektorer y i till kolonner, dvs Y y 1 y m Då är alltså AY I Eftersom även kolonnerna i A T utgör en bas till IR m så finns det, för varje i, en unik vektor z i IR m sådan att A T z i e i Låt Z vara en m m matris med dessa vektorer z i till kolonner, dvs Z z 1 z m Då är alltså A T Z I, vilket är ekvivalent med att Z T A I Det visar sig nu att Z T Y, vilket kan visas på följande sätt: Utgå från AY I och multiplicera bägge leden från vänster med Z T Då erhålls att Z T AY Z T Men eftersom Z T A I så erhålls därmed att Y Z T Matrisen Y uppfyller alltså både AY I och YA I, vilket per definition innebär att Y A 1 Antag nu omvänt att A IR m m har en invers A 1 som alltså uppfyller (37) Låt b IR m vara en godtycklig högerledsvektor och betrakta ekvationssystemet Ax b (38) Om vektorn x IR m är en lösning till detta ekvationssystem så måste x även uppfylla A 1 Ax A 1 b, dvs x A 1 b (eftersom A 1 A I) Men å andra sidan uppfyller detta unika x verkligen ekvationssystemet (38), ty Ax AA 1 b b (eftersom AA 1 I) Alltså har systemet (38), för varje högerledsvektor b IR m, en unik lösning x Detta innebär att kolonnerna i matrisen A utgör en bas till IR m Därmed har A en (och därmed samtliga) av de sex egenskaperna i föregående avsnitt Avslutningsvis kan man notera att matrisen Z ovan uppfyller både A T Z I och ZA T I (ty Y T A T I och Y T Z), vilket innebär att Z är inversen till A T, dvs Z (A T ) 1 Men Z Y T (A 1 ) T, så vi får den viktiga räkneregeln (A T ) 1 (A 1 ) T (39) 19

36 För kvadratiska matriser gäller ekvivalensen AG I GA I Låt A IR m m vara en given kvadratisk matris Enligt ovan är den kvadratiska matrisen G IR m m inversen till A om både AG I och GA I Det visar sig dock att man bara behöver kräva ett av dessa bägge samband, ty om ett av dem är uppfyllt så är även det andra det! Antag till att börja med att GA I Då har A linjärt oberoende kolonner, ty vi har att Ax 0 GAx G0 I x 0 x 0, vilket visar att den enda lösningen till Ax 0 är x 0 Därmed har A en av de sex egenskaperna ovan, vilket medför att A har en invers A 1 Multiplikation från höger med denna invers ger att GA I GAA 1 IA 1 G A 1, vilket visar att G är inversen till A Därmed gäller även AG I Antag nu i stället att AG I, vilket är ekvivalent med att G T A T I Då har A T linjärt oberoende kolonner, ty vi har att A T u 0 G T A T u G T 0 I u 0 u 0, vilket visar att den enda lösningen till A T u 0 är u 0 Därmed har A en av de sex egenskaperna ovan, vilket medför att A har en invers A 1 Multiplikation från vänster med denna invers ger att AG I A 1 AG A 1 I G A 1, vilket visar att G är inversen till A Därmed gäller även GA I Vi kan nu komplettera listan av ekvivalenta egenskaper för en kvadratisk matris enligt följande: För en kvadratisk matris A IR m m är följande nio egenskaper ekvivalenta (om en av dem gäller så gäller alla): 1 Kolonnerna i A är linjärt oberoende 2 Kolonnerna i A spänner upp IR m 3 Kolonnerna i A utgör en bas till IR m 4 Kolonnerna i A T är linjärt oberoende 5 Kolonnerna i A T spänner upp IR m 6 Kolonnerna i A T utgör en bas till IR m 7 Det finns en matris G IR m m sådan att AG I 8 Det finns en matris G IR m m sådan att GA I 9 A är inverterbar, dvs har en invers A 1 Det finns en tionde egenskap som också är ekvivalent med var och en av ovanstående nio Vi har ännu inte tagit upp den, men nämner den här för fullständighets skull 10 Determinanten för matrisen A är 0 En kvadratisk matris A som har en av dessa egenskaper (och därmed samtliga) säges vara icke-singulär 20