DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL Objective:: Linjärt beroende och oberoende version. Definitionen av linjärt beroende med exempel Vi börjar med ett inledande exempel för att motivera definitionen som kommer sedan. Exempel.. Vi börjar med att titta på följande exempel: Gasselimination av matrisen + + + Om vi kallar raderna i den första matrisen för R, R och R och rad två och tre i den andra matrisen för R 4 och R 5 så ger våra radoperationer att R 4 = R R R 5 = R R = R 5 R 4 = R R (R R ) = R R + R Att vi får en nollrad beror på att det finns ett samband mellan den första matrisens rader: som kan skrivas på formen R R + R = R = R + R R + ( ) R + R = vilket betyder att det homogena ekvationssystemet t R + t R + t R = har den icke triviala lösningen t = = t = t. Beroendet kan ses i figur som att de tre radvektorerna ligger i samma plan. Detta gör en av dem kan skrivas som summan av de två övriga. Med detta exempel som vägledning så ställer vi upp följande Definition.. Vektorerna v,..., v n sägs vara linjärt beroende om den homogena ekvationen t v + + t n v n = har icke-triviala lösningar. Om bara den triviala lösningen t = = t n = finns så är vektorerna linjärt oberoende. Låt oss titta på vårt första exempel i termer av denna definition Exempel.. I vårt första exempel. studerade vi raderna och kom då fram till att de uppfyllde en ekvation som vi sedan använde för att motivera definitionen av linjärt beroende. Låt oss nu använda definitionen för att se hur vi kan använda denna för att komma fram till att de är beroende. Definitionen för linjärt beroende ger oss att vi ska lösa vektorekvationen = t R + t R + t R = t + t + t
DEFINITIONEN AV LINJA RT BEROENDE MED EXEMPEL - - Figur : Radvektorerna R (ro d vektor), R (svart vektor) och R (bla vektor) pekar tillsammans med origo ut ho rnen av den bla rektangeln. Att det a r en rektangel beror pa att vektorerna ligger i samma plan Denna vektor ekvation blir fo ljande ekvation pa matrisform Fra n den reducerade matrisen till ho ger fa r vi att tredje kolonnen saknar ledande element och att t = t a r en fri variabel. Rad ger da t = t = t och rad ger t = t = t sa lo sningarna till va r ekvation blir t t = t t sa om vi sa tter t = sa fa r vi sambandet R R + R =, vilket ju var vad vi fick fram fra n exempel.. Fo rsta exemplet visar att en ma ngd vektorer som inneha ller nollvektorn a r automatiskt linja rt beroende. Exempel.4. La t v =, vi, i =,... n vara vektorer i Rm. Da a r dessa vektorer automatiskt beroende eftersom vektorekvationen t v + + tn v n =
DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL har den icketriviala lösningen t =, t = t = = t n =. Exempel.5. Om vi har linjärt beroende vektorer v,... v n där ingen av vektorerna är nollvektorn så måste det finnas en kombination t v + + t n v n = där minst två av variablerna t i vara nollskillda. Eftersom vektorerna är linjärt beroende så finns det en nollskild uppsättning av värden på t i så att ekvationen uppfylls. Om alla variablerna är noll utom, säg t så blir ekvationen i så fall t v = vilket ger att v = vilket motsäger antagandet om att ingen av våra vektorer av nollvektorn. Detta gör därför att minst två av variablerna t i måste vara nollskilda. Proposition.6. Om man har fler vektorer än dimensionen på rummet de ligger i så är denna mängd automatiskt linjärt beroende. Motivation för propositionen:: Låt oss ha n stycken vektorer v,... v n i R m där n > m. Då blir ekvationen från definitionen av beroende t v + + t n v n = och när vi skriver om den på matrisform har vi en matrisekvation av typen At = där A är m n matrisen som har våra vektorer som kolonner. Eftersom m < n så har vi en matris med färre rader än kolonner. När vi Gausseliminerar denna matris så kan vi maximalt få m stycken ledande element, en för varje rad och således m stycken ledande variabler. Eftersom n > m så finns det flera kolonner som inte har något ledande element i sig. Dessa kolonner svarar mot fria variabler vilket betyder att n m av variablerna t i kommer att vara fria och dessa fria variabler tillåts anta värden som är skilda från noll vilket betyder att ekvationen At = har icketriviala lösningar vilket alltså betyder att kolonnerna, dvs våra vektorer är linjärt beroende. Exempel.7. Vi visar ett exempel på att när man har fler vektorer än dimensionen på det rum som vektorerna ligger i så är vektorerna automatiskt linjärt beroende. Betrakta därför kolonnvektorerna i följande matris som vi direkt Gauss-Jordan eliminerar till reducerad trappstegsform A = 9 5 4 Från den reducerade matrisen får vi att det finns tre stycken ledande variabler och två stycken fria. Om vi kallar variablerna för t,... t 5 så ser vi att t 4 och t 5 är fria och att vi har t = 9t 4 + 5t 5 t = 4t 4 t 5 t = t 4 + t 5 vilket gör att när de fria variablerna antar nollskillda värden så har systemet At = icketriviala lösningar, vilket alltså betyder att kolonnvektorerna är linjärt beroende. Innan vi tar nästa exempel så definierar vi vad det betyder att två vektorer är parallella. Definition.8. Två vektorer v, w R n är parallella om v = Kw, K R, dvs de är parallella om de skiljer sig på en konstant. Observera att konstanten tillåts vara negativ vilket då betyder att vektorerna pekar åt precis motsatta håll, se figur
GAUSSMASKINEN v w=v u b=-u Figur : Två par av vektorer där v är parallell med w och u är parallell med b. Notera att u och b pekar åt motsatt håll och att b = u och vi har K = i definitionen. Exempel.9. Vi ska visa att Två vektorer är linjärt beroende om och bara om de är parallella. För att se detta tar vi två godtyckliga nollskillda vektorer u och v. Att dessa två vektorer är linjärt beroende betyder enligt definitionen att det finns två nollskillda tal t och t så att t u + t v = Vi kan i denna likhet addera t v till båda led och sedan dividera båda led med det nollskillda talet t och då får vi u = t t v Genom att sätt K = t t så har vi alltså visat att u = Kv vilket innebär att vektorerna är parallella. Om man startar med två parallella vektorer u = Kv så ger denna likhet att u Kv = vilket betyder att vi kan sätta t = och t = K och därför uppfyller två parallella vektorer automatiskt definitionen för linjärt beroende. Gaussmaskinen Om vi jämför Exempel. och Exempel. så ser vi att vi väsentligen har två sätt att undersöka om en uppsättning vektorer är linjärt beroende eller inte. Definitionen av linjärt beroende leder till en vektorekvation och när vi översätter denna till en vanlig matrisekvation så hamnar vektorerna som kolonner i matrisen. Vi ser så småning om beroendet som att denna matrisekvation har fria variabler. Vi ska nu se hur man kan upptäcka ett linjärt beroende genom att sätta våra vektorer som rader i en matris. Precis som i Exempel. så har vi ett beroende om vi får en nollrad när vi Gausseliminerar. Detta leder till idéen om att Gausseliminationen kan upptäcka ett beroende. Vi har faktiskt Theorem.. Gausselimination är en maskin som upptäcker linjärt beroende om ett sådant finns. Man ställer upp vektorerna som rader i en matris. Om det uppstår nollrader när vi Gausseliminerar så är raderna linjärt beroende och om inga nollrader uppstår så är raderna linjär oberoende. Motivation för satsen: Låt oss börja med att tänka på vad vi gör när vi Gausseliminerar. Man försöker att stegvis få nollor nedanför matrisens huvuddiagonal. Gausseliminationen gör detta genom radoperationer som innebär att man multiplicerar en rad med ett tal och adderar detta till en annan rad. Radeliminationerna är med andra ord ett sätt att linjärkombinera radvektorerna. I 4
GAUSSMASKINEN varje steg får vi fler nollor i raderna nedanför och ibland händer det att vi får en rad som består enbart av nollor. Vi har då fått en nollrad. Denna nollrad har vi då fått genom radoperationerna och därför kan vi säga att nollraden kommer av att vi hittat en linjärkombination av våra rader som blir nollraden. Linjärkombinationen vi i slutändan får uppfyller, precis som i exempel. en linjär relation t R + t n R n =, där inte alla t i är noll. Enligt definition. så har vi alltså en icketrivial lösning och våra radvektorer är således beroende. Exempel.. Är vektorerna v = linjärt oberoende eller linjärt beroende?, v =, och v = Lösning mha definitionen :: Om vi vill använda definitionen av linjärt beroende så ställer vi upp vektorekvationen och försöker hitta icketriviala lösningar till den. Sådan finns precis när vektorekvationens motsvarande matrisekvation har fri variabel. Lösning med Gaussmaskinen :: Vi ska istället använda Gaussmaskinen och då ska vi ställa upp vektorerna som rader i en matris och Gausseliminera. Vi får då Eftersom vi inte får en nollrad så ger Gaussmaskinen den slutsatsen att våra tre vektorer faktiskt är oberoende. Exempel.. Visa att vektorerna v = (,,, ), v = (,,, ) och v = (,,, ) är linjärt oberoende. Lösning med Gaussmaskinen :: Om vi ställer upp vektorerna som rader i en matris så kan vi använda Gaussmaskinen: Vi får alltså en nollrad och satsen om Gaussmaskinen säger då att våra vektorer är linjärt beroende. Lösningen mha definitionen :: Man naturligtvis också visa det linjära beroendet genom att använda definitionenen.. Då ställer man upp vektorerna som kolonner i en matris och eliminerar: Här ser vi att vi har två ledande variabler och en fri variabel. Den fria variabeln får ju anta vilka värden som helst, t.ex sådana som är skilda från noll och därför har vi gott om icketriviala lösningar. Och eftersom vi har icketriviala lösningar så är vektorerna linjärt beroende. 5