Norm och QR-faktorisering Skalärprodukten på C n (R n ) hänger ihop med några viktiga klasser av matriser. För en komplex matris A betecknar vi med A H det Hermitiska konjugatet till A, dvs A H = A T. Vi observerar egenskapen (A H X, Y ) = (X, AY ). Definition 1 U kallas unitär om U 1 = U H. I fallet med R n och reella matriser reduceras denna definition till Definition 2 Q kallas ortogonal om Q 1 =Q T. Sambandet med skalärprodukten är enkelt: Sats 1 En matris är unitär om och endast om den bevarar längden av alla vektorer. UX 2 =(UX, UX)=(U H UX, X)=(X, X)= X 2.
Det finns även andra normer som unitära matriser bevarar, t ex Frobenius-normen: A F = i,j a 2 ij 1/2, och operator-normen A 2 = max X 0 AX X. Sats 2 Om U är unitär och A är kvadratisk (av samma format) så är UA F = AU F = A F och UA 2 = AU 2 = A 2. Ett annat sätt att se unitära (ortogonala) matriser är att säga att kolonnerna U 1,..., U n utgör en ON-bas. Ty om vi skriver ut alla element i U H U = I så får vi nämligen en multiplikationstabell som säger att skalärprodukten av två olika kolonner alltid är 0 och skalärprodukten av en kolonn med sig själv är 1. Observera att detta, enligt vad vi vet om matris-inverser, ( höger-invers = vänster-invers ) medför att UU H = I, dvs även raderna utgör en ON-bas.
Vi kommer nu till en av de viktigaste satserna om matris-faktorisering: Sats 3 Varje (komplex) inverterbar matris A har en unik faktorisering på formen A = UR, där U är unitär och R är övertriangulär med positiva element på diagonalen. Om A är en reell matris så skrivs i stället faktoriseringen som A = QR, där Q är ortogonal och R nu är reell. Man kan säga att QR-faktorisering egentligen är en omformulering av Gram-Schmidt-algoritmen i matrisspråk. För att förstå sammanhanget tittar vi på det reella fallet. Vi skriver matrisen A som A = (A 1,..., A n ). Eftersom A är inverterbar är A 1,..., A n linjärt oberoende kolonnvektorer. Vi kan nu köra Gram- Schmidt och få fram en ON-bas E 1,..., E n så
att [E 1,..., E k ] = [A 1,..., A k ] för alla k = 1,... n. Vi definierar Q = (E 1,..., E n ) och R = Vi observerar sedan att QR=(E 1,..., E n ) E T 1. E T n E T 1. E T n (A 1,..., A n ) (A 1,..., A n )=QQ T A=A, eftersom Q är ortogonal. För att slutföra beviset måste vi nu visa att R är övertriangulär med positiva element på diagonalen. Men R = (Ei T A j). Att r ij = 0 om i > j följer av att E i är ortogonal mot [E 1,..., E i 1 ] = [A 1,..., A i 1 ]. Att diagonal-elementen r ii = Ei T A i > 0 beror på hur Gram-Schmidt-algoritmen är uppbyggd: A i skiljer sig från E i bara med en linjärkombination av E 1,..., E i 1 (som inte påverkar skalärprodukten) och en multiplikativ faktor ( f i ) som är positiv. Att faktoriseringen är unik inses så här: antag att Q 1 R 1 = Q 2 R 2. Då följer att Q 1 2 Q 1 = R 2 R1 1. Denna matris måste både vara ortogonal och övertriangulär med positiva diagonal-element, och det är lätt att se att en sådan matris måste vara enhetsmatrisen.
QR-faktorisering fungerar även för icke-inverterbara, icke-kvadratiska matriser, men är då inte unik. I det allmänna fallet blir R en trappmatris med positiva pivot-element. EX. 1 0 1 1 1 0 0 1 1 = 1 1 3 1 2 6 1 6 1 1 2 3 23 3 1 0 2 1 0 0 0 2 2 1 32 6 1 2 3 Definition 3 A kallas Hermitisk om A H = A. I det reella fallet säger vi i stället att A är symmetrisk om A T = A. Egenvärden till Hermitiska matriser är reella: λ(x, X)=(X, λx)= (X, AX)=(A H X, X)=(λX, X)=λ(X, X) λ = λ. Sats 4 (Spektralsatsen) Varje Hermitisk matris A kan diagonaliseras med en unitär matris, dvs det finns en unitär U så att U H AU är diagonal. I fallet med en reell matris A kan vi i stället diagonalisera med en (reell) ortogonalmatris Q, dvs det finns Q sä att Q T AQ är diagonal. Beviset är inte alls trivialt och vi ska återkomma till detta senare.