Föreläsning 8: Linjär regression del I

Storlek: px
Starta visningen från sidan:

Download "Föreläsning 8: Linjär regression del I"

Transkript

1 Föreläsning 8: Linjär regression del I Johan Thim (johanthim@liuse) 29 september 2018 Your suffering will be legendar, even in hell Pinhead Vi återgår nu till ett exempel vi stött på redan vid ett flertal tillfällen (föregående föreläsning och föreläsning 2 för att inte tala om tidigare kurser som linjär algebra), nämligen att anpassa en rät linje = β 0 + β 1 x efter mätdata (x i, i ), i = 1, 2,, n Grafiskt illustrerat enligt nedan r 3 r 1 r 2 r 4 x Målsättningen är att givet en mätserie hitta den linje som approximerar denna serie på lämpligt sätt Det resulterar i ett par naturliga funderingar (i) Hur hittar man en approximativ linje sstematiskt? (ii) Om man upprepar försöket, får man samma linje? (iii) I vilken mening är linjen optimal? På vilket sätt mäter vi avvikelserna mellan linjen och mätserien? Vi ska försöka svara på dessa frågor och för att göra det behöver vi ställa upp en modell Enkel linjär regression Definition Vi kommer betrakta följande modell: givet (x j, j ), j = 1, 2,, n, där vi betraktar x j som fixerade och j som observationer av stokastiska variabler Y i = β 0 + β 1 x j + ɛ j, j = 1, 2,, n, där ɛ j N(0, σ 2 ) antas oberoende (och likafördelade) Den räta linjen = β 0 + β 1 x kallas regressionslinjen Vi använder beteckningen µ j = β 0 + β 1 x j = E(Y j ) 1

2 Är det givet att denna modell är sann? Nej, det är inte självklart utan hänger på vilka förutsättningar datan kommer från Däremot tenderar modellen att fungera bra i de flesta fall om vi har en rimlig mängd observationer Med notationen från figuren ser vi att r j = j µ j om vi tar hänsn till tecknet (positivt tecken om j ligger ovanför regressionslinjen) Ett mått på hur väl linjen approximerar mätserien ges av kvadratsumman rj 2 = ( j µ j ) 2 Vi skulle kunna minimera denna summa med avseende på (β 0, β 1 ), vilket ger MK-skattningar för β 0 och β 1 Detta var det som hände i exemplet från föreläsning 2 Istället för att upprepa argumentet går vi över till den generella modellen för linjär regression Linjär regression Definition Givet (x j1, x j2,, x jk, j ), j = 1, 2,, n, för något positivt heltal k, där vi betraktar x ji som fixerade och j som observationer av stokastiska variabler Y j = β 0 + β 1 x j1 + β 2 x j2 + + β k x jk + ɛ j, j = 1, 2,, n, där ɛ j N(0, σ 2 ) antas oberoende (och likafördelade) och β 0, β 1,, β k är okända parameterar Den räta linjen = β 0 + β 1 x 1 + β 2 x β k x k kallas regressionslinjen Vi låter µ j = E(Y j ) = β 0 + β 1 x j1 + β 2 x j2 + + β k x jk Dubbelindexeringen är lite jobbig att arbeta med, så låt oss gå över till matrisnotation: Y 1 β 0 β 1 x 11 β k x 1k ɛ 1 Y 2 = β 0 β 1 x 21 β k x 2k + ɛ 2 Y n β 0 β 1 x n1 β k x nk ɛ n 1 x 11 x 1k β 0 ɛ 1 1 x 21 x 2k β 1 = + ɛ 2 1 x n1 x nk β k ɛ n Vi låter Y = Y 1 Y 2 Y n, X = 1 x 11 x 1k 1 x 21 x 2k 1 x n1 x nk, β = β 0 β 1 β k, samt ɛ = ɛ 1 ɛ 2 ɛ n, 2

3 vilket leder till sambandet Således gäller att Y = Xβ + ɛ E(Y ) = Xβ och C Y = σ 2 I n, där I n är den n-dimensionella enhetsmatrisen Vi söker MK-skattningen β för β, vilket vi kan erhålla genom att minimera den kvadratiska formen Q(β 0,, β k ) = ( j µ j ) 2 = ( Xβ) T ( Xβ), där = ( 1 2 n ) T En variant är att sätta igång och derivera, men lite mer elegant gäller följande sats Normalekvationerna Sats Om det X T X 0 så ges MK-skattningen av β enligt β = (X T X) 1 X T Bevis Vi kan skriva vektorn Y av uppmätta värden som Y = β 0 x 0 + β 1 x β k x k + ɛ, där x i, i = 1, 2,, k, är kolonn i + 1 i matrisen X Från linjär algebra vet vi att avståndet mellan observationen och linjärkombinationer av vektorerna x j, dvs ( β0 x 0 + β 1 x 1 + β k x k ), blir minimalt precis då X β = k β j x j är projektionen av på det linjära höljet span{x 0, x 1,, x k } Således måste X β vara vinkelrät mot x j för alla j = 0, 1,, k Detta medför att X T ( X β) = 0 X T X β = X T β = (X T X) 1 X T, vilket är precis vad vi ville visa! När det gäller β och dess komponenter kommer vi använda samma beteckningar för observationer av punktskattningen och den stokastiska variabeln Skulle vi vara konsekventa borde den stokastiska variabeln betecknas B, men av tradition görs inte så Var observant! 3

4 Sats Med förutsättningarna ovan gäller att β N k+1 ( β, σ 2 (X T X) 1) Bevis Det faktum att β är normalfördelad följer direkt från faktumet att elementen i β är linjärkombinationer av normalfördelade variabler Återstår att visa väntevärde och kovarians: och E( β) = (X T X) 1 X T E(Y ) = (X T X) 1 X T Xβ = β C β = (X T X) 1 X T C Y ((X T X) 1 X T ) T = (X T X) 1 X T σ 2 I n ((X T X) 1 X T ) T = (X T X) 1 X T σ 2 I n (X T ) T ((X T X) 1 ) T = σ 2 (X T X) 1 X T X((X T X) T ) 1 = σ 2 (X T X) 1 Således blir fördelningen precis som beskriven i satsen 2 Variansanals Vi låter µ j = β 0 + β 1 x j1 + β 2 x j2 + + β k x jk, j = 1, 2,, n Ibland betecknas vektorn µ som ŷ eftersom det i någon mening är en skattningen av, men det blir lite olckligt för det är inte vi skattar Vi ska nu studera hur bra den skattning vi tagit fram är Regressionsanalsens kvadratsummor Definition Vi definierar tre kvadratsummor som beskriver variationen hos -värdena: (i) Den totala variationen definieras enligt SS TOT = ( j ) 2 (ii) Variationen som förklaras av x 1, x 2,, x k, definieras enligt SS R = ( µ j ) 2 (iii) Variationen som inte förklaras av regressionsmodellen är SS E = ( j µ j ) 2 Ibland används beteckningarna Q TOT för SS TOT, Q REGR för SS R och Q RES för SS E Hur hänger dessa summor ihop? Som tur är finns ett enkelt svar Sats Den totala variationen SS TOT kan delas upp enligt SS TOT = SS R + SS E 4

5 Bevis Vi vill uttrcka SS TOT i termer av SS R och SS E, så SS TOT = = ( j ) 2 = ( j µ j + µ j ) 2 ( j µ j ) = SS R + 2 ( j µ j )( µ j ) + ( j µ j ) µ j 2 ( µ j ) 2 ( j µ j ) + SS E Vi visar att de båda summorna i mitten summerar till noll Eftersom µ = X β gäller det att ( j µ j ) µ j = µ T ( µ) = (X β) T ( X β) = β T X T ( X β) = β T (X T X T X(X T X) 1 X T ) = β T (X T X T ) = 0 Med andra ord är µ vinkelrät mot µ Vidare vet vi att β minimerar Q(β) = ( j µ j ) 2, så 0 = Q(β) β0 = 2 β= β ( j µ j ) j = µ j, vilket var precis det vi behövde 21 SS TOT Storheten SS TOT mäter den totala variation av mätvärden jämfört med mätvärdenas medelvärde I fallet då vi använder modellen Y = β 0 + ɛ ger således SS TOT hela felet i regressionen r 1 r 2 r 3 r 7 r 8 x Vi ser att SS TOT = rj 2 = ( j ) 2 5

6 22 SS R och SS E Om vi istället använder modellen = β 0 +β 1 x+ɛ blir summorna SS E och SS R relevanta (SS TOT ser fortfarande ut som ovan) Låt oss först illustrera SS R = β 0 + β 1 x r 1 r 2 r 3 r 8 r 9 x Vi ser att SS R = rj 2 = ( β 0 + β 1 x j ) 2 och SS R mäter alltså hur mcket den skattade regressionslinjen (i mätpunkterna x j ) skiljer sig från medelvärdet av -värdena När det gäller SS E är det istället skillnaden mellan den skattade regressionslinjen och mätvärdena vi betraktar = β 0 + β 1 x r 3 r 1 r 2 r 4 x Kvadratsumman av dessa avvikelser blir SS E = rj 2 = ( j ( β 0 + β 1 x j )) 2 6

7 3 Projektionsmatriser Eftersom vi arbetar med matriser och MK-lösningen i princip är projektionen på ett underrum av R n så är följande resultat inte allt för förvånande Hatt-matrisen Definition Vi definierar H = X(X T X) 1 X T Vi definierar även J som en matris vars samtliga element är 1 Vi skriver J nm om vi vill markera dimensionen Varför kallar vi H för hatt-matrisen? Ganska enkelt: Avbildningen sätter alltså hatten på! H = X(X T X) 1 X T = X β = µ = ŷ Sats Matriserna H, I H och H 1 n J är projektionsmatriser P som uppfller P 2 = P T = P Bevis Direkt från definitionen av H blir och H 2 = (X(X T X) 1 X T )(X(X T X) 1 X T ) = X(X T X) 1 X T = H H T = (X(X T X) 1 X T ) T = X(X T X) T X T = X((X T X) T ) 1 X T = H Därav följer det att (I H) 2 = I 2 2H + H 2 = I H och att (I H) T = I T H T = I H För den sista operatorn skriver vi ( H 1 n J ) 2 = H 2 1 n HJ 1 n JH + 1 n 2 J 2 = H 1 n HJ 1 n JH + 1 n J t J 2 är matrisen med samtliga element lika med n Vidare gäller att J kommuterar med alla kvadratiska matriser, så JH = HJ Här kan vi se att H1 = 1 (där 1 är en vektor med samtliga element lika med 1) eftersom lösningen till regressionsproblemet om är konstant är just den konstanten (lösningen är exakt) Alltså blir ( H 1 n J ) 2 = H 1 n J Givetvis gäller även att ( H 1 n J ) T = H 1 n J En följdsats av detta är att vi kan skriva kvadratsummorna som kvadratiska former Sats SS TOT = T ( I 1 n J ), SS R = T ( H 1 n J ), samt SS E = T (I H) 7

8 4 Förklaringsgrad När vi utför regressionsanals vill vi ofta ha ett mått som preciserar hur bra modellen passar de uppmätta värdena Ett sådant mått är förklaringsgraden Definition Förklaringsgraden R 2 definieras som R 2 = SS R SS TOT = SS TOT SS E SS TOT = 1 SS E SS TOT Ibland använder man lite andra varianter av R 2 och en mcket vanlig är den så kallade justerade förkaringsgraden R 2 adj = 1 SS E/(n k 1) SS TOT /(n 1) Om inte n är förhållandevis stor i jämförelse med k (vilket är nödvändigt för att regressionen ska vara vettig) så blir den justerade graden sämre 5 Regressionsanalsens huvudsats Innan vi ger oss in på huvudsatsen visar vi en hjälpsats från linjär algebra Sats Låt x = (x 1 x 2 x n ) vara sådan att x T x = x 2 j = x T Ax + x T Bx för A, B R n n positivt semi-definita och smmetriska med rank(a) = r och rank(b) = n r för något heltal r så att 0 < r < n Då finns en ON-matris C så att med x = C gäller att x T Ax = r j 2 och x T Bx = j 2 j=r+1 Bevis Eftersom A är positivt semi-definit har A endast icke-negativa egenvärden som vi ordnar enligt λ 1 λ 2 λ n Vi vet även att rank(a) = r, så λ r+1 = = λ n = 0 Vidare är A diagonaliserbar eftersom A är smmetrisk, så det finns en ON-matris C så att λ λ C T AC = D = λ r

9 Med x = C gäller då att x T x = (C) T (C) = T C T C = T och Vi har även och då blir x T Ax = (C) T AC = T C T AC = T D = x T Bx = (C) T BC = T C T BC r λ j j 2 r j 2 = T = x T x = x T Ax + x T Bx = λ j j 2 + T C T BC så r T C T BC = (1 λ j )j 2 + j 2 j=r+1 Det faktum att rank(b) = n r visar att λ 1 = λ 2 = λ r = 1 och vi erhåller identiteten T C T BC = j 2 j=r Alla beteckningar är nu ur vägen och vi är framme vid huvudresultatet Sats Med förutsättningarna ovan gäller följande för SS E och SS R sedda som stokastiska variabler (i) SS E = 1 (Y σ 2 σ 2 j µ j ) 2 χ 2 (n k 1) Regressionsanalsens huvudsats (ii) Givet att β 1 = β 2 = = β k = 0 är SS R σ 2 = 1 σ 2 (iii) Både SS R och β = (X T X) 1 X T Y är oberoende av SS E ( µ j Y ) 2 χ 2 (k) Bevis Eftersom H är en projektionsmatris har H endast egenvärdena λ = 0 och λ = 1 Således gäller det finurliga att matrisens rang är lika med summan av egenvärdena, vilka kan beräknas genom att ta spåret 1 av matrisen: rank(h) = tr(h) = tr(x(x T X) 1 X T ) = tr(x T X(X T X) 1 ) = tr(i k+1 ) = k + 1, Det följer sedan att rank(i H) = n k 1 1 se sista (bonus)avsnittet för lite detaljer kring spår av matriser 9

10 Eftersom HX = X så gäller att Y T (I H)Y = ɛ T (I H)ɛ Detta är användbart eftersom E(ɛ) = 0 Enligt föregående hjälpsats gäller att sambandet ɛ T ɛ = ɛ T (I H)ɛ + ɛ T Hɛ medför att det finns en ON-matris C så att Z = Cɛ reducerar likheten till där ɛ T ɛ = n k 1 Z 2 j + j=n k Z 2 j ɛ T (I H)ɛ = Y T (I H)Y = SS E = n k 1 Eftersom komponenterna i ɛ är oberoende och ɛ N(0, σ 2 I) följer det att Z 2 j E(Z) = C0 = 0 och C Z = C Cɛ = σ 2 C T IC = σ 2 I så Z N ( 0, σ 2 I ) Komponenterna i Z är alltså oberoende och Z j N(0, σ 2 ) Detta medför att SS E = 1 n k 1 Z 2 σ 2 σ 2 j χ 2 (n k 1) Vi erhåller även att SS E och Hɛ är oberoende (de delar inga variabler Z j ) Detta medför att SS E och β är oberoende Det faktum att SS E och SS R är oberoende följer av att kovariansen C ((H 1n ) ) J Y, (I H)Y = (H 1n ) J C(Y, Y )(I H) T = σ (H 2 1n ) J (I H) ( = σ 2 H H 2 1 n J + 1 ) ( n JH = σ 2 1 n J + 1 ) n HJ = σ 2 ( 1 n J + 1 n J ) = 0, så dessa vektorer är okorrelerade och normalfördelade, så oberoende Det följer direkt att SS E och SS R är oberoende (som funktioner av oberoende variabler) Om vi fokuserar på fördelningen för SS R så kan vi på samma sätt som ovan utnttja att ( H 1 J) n är en projektionsmatris, så rank (H 1n ) J = tr (H 1n ) ( ) 1 J = tr (H) tr n J = k = k Matrisen J är snnerligen rangdefekt med rank(j) = 1 (eftersom alla kolonner är lika spänner vi bara upp ett en-dimensionellt rum) Nu stöter vi på lite problem Vi ser att (H 1n ) J Y = (I 1n ) J Xβ + (H 1n ) J ɛ 10

11 där den första termen inte försvinner såvida inte β 1 = β 2 = = β k = 0 Men under detta antagande har vi åter igen en situation där vi kan bta ut Y mot ɛ Föregående hjälpsats visar analogt med föregående argument att Y T ( H 1 n J ) Y = k Zj 2, där Z j är oberoende och Z j N(0, σ 2 ), vilket medför att 1 σ 2 SS R χ 2 (k), under förutsättningen att β 1 = β 2 = = β k = 0 Kommentar: utan villkoret β 1 = β 2 = = β k = 0 kan man fortfarande genomföra argumentet, men resultatet blir en icke-centrerad χ 2 (k)-fördelning (något som inte ingår i kursen) 6 Hpotestester och kofidensintervall Vi har nu samlat på oss en ordentlig verktgslåda, så det kanske är dags att se hur vi använder de olika delarna 61 Skattning av σ 2 Variansen σ 2 skattar vi med Denna skattning är väntevärdesriktig: E(S 2 ) = s 2 = σ 2 n k 1 E SS E n k 1 ( ) SSE σ 2 = σ 2 n k 1 n k 1 = 1 t 1 σ 2 SS E χ 2 (n k 1) 62 Finns det något vettigt i modellen? En rimlig fråga efter utförd regression är om modellen faktiskt säger något Vi brukar testa denna hpotes enligt följande Vi testar nollhpotesen H 0 : β 1 = β 2 = = β k = 0 mot H 1 : minst något β i 0 En naturlig testvariabel ges av v = SS R /k SS E /(n k 1) Huvudsatsen medför att V F (k, n k 1) (om H 0 är sann) och vi förkastar H 0 om v är stor Hur stor avgörs av signifikansnivån och lite slagning i F -tabeller 11

12 α b x Rimliga utfall om H 0 gäller C Vi hittar gränsen b ur tabell (eller med finv(1-alpha, k, n-k-1) i Matlab) så att P (V > b) = α 63 Enskilda koefficienter Eftersom β N ( β, σ 2 (X T X) 1) introducerar vi beteckningen h 00 h 01 h 0k (X T X) 1 h 10 h 11 h 1k = h k0 h k1 h kk Då är β i N(β i, σ 2 h ii ) Om vi känner σ 2 kan vi använda att Z = β i β i σ h ii N(0, 1) för att testa hpotesen H 0 : β i = 0 eller för att ställa upp konfidensintervall I βi Nu är det extremt sällan vi känner σ 2 exakt, men vi vet att β är oberoende av SS E enligt huvudsatsen, så β i är oberoende av SS E Vidare är s 2 = SS E /(n k 1) en skattning av σ 2 vi känner väl, så enligt Gossets sats ( β i β i )/(σ h ii ) ((n k 1)S2 /σ 2 )/(n k 1) = β i β i S h ii t(n k 1) 64 Hpotestest: H 0 : β i = 0 Vi kan även utföra hpotestester för en ensklid koefficient β i för att se om den förklaringsvariabeln tillför något signifikant (givetvis går det att ställa upp konfidensintervall också för mer kvantitativt innehåll) Låt H 0 : β i = 0 och H 1 : β i 0 Vi vet enligt ovan att T = β i β i S h ii t(n k 1), 12

13 så det kritiska området finner vi enligt C = {t R : t > c} för lämpligt tal c > 0 beroende på signifikansnivån och antalet frihetsgrader α 2 α 2 c 0 c x C 1 Rimliga utfall C 2 om H 0 gäller Gränsen hittar vi i tabell genom att leta reda på ett tal c = F 1 T (1 α/2) (sitter du med Matlab kan du använda c = -tinv(alpha/2)) 7 Exempel: enkel linjär regression Vi diskuterade enkel linjär regression tidigare i samband med MK-skattningar (föreläsning 2) Låt oss visa att vi får samma resultat med den metod vi nu tagit fram (och fördelningar för ingående storheter på ett enkelt sätt) Vi låter x 1, x 2,, x n vara fixerade tal och 1, 2,, n vara observationer från Y i = β 0 + β 1 x i + ɛ i, där ɛ i N(0, σ 2 ) är oberoende Alltså precis den modell vi använt tidigare Sntesmatrisen X ges av 1 x 1 1 x 2 X = 1 x n så ( n nx X T X = X = nx i=1 x2 i om det(x T X) 0 Således blir ( ) β0 β = = (X β T X) 1 X T 1 ( 1 n ) ( = n i=1 x2 i nx n i=1 x2 i (nx)2 nx n 1 = n i=1 x2 i (nx)2 ) ( (X T X) 1 1 n ) = n i=1 x2 i nx n i=1 x2 i (nx)2 nx n ) n n i=1 x i i ( n i=1 x2 i nx i=1 x i i n 2 x + n i=1 x i i 13 ),

14 vilket ger att β 1 = x j j nx x2 j nx2 = j(x j x) (x j x) 2 = ( j )(x j x) (x j x) 2 och β0 = β 1 x Det följer nu att β 0 N ( β 0, σ 2 n ) i=1 x2 i n i=1 (x i x) 2 och β1 N ( β 1, ) σ 2 n i=1 (x i x) 2 Någonstans nu inser vi vilket kraftig sntaktiskt verktg matriser och linjär algebra är Eftersom σ är okänd skattar vi σ 2 med s 2 = SS E n 2 = ( j β 0 β 1 x j ) 2 n 2 där S 2 χ 2 (n 2) Vi kan skriva om SS E genom att utnttja att så SS R = ( µ j ) 2 = β 2 1 = r 2 ( i ) 2 ( n (x j x) 2 = ( ) 2 j )(x j x) (x (x j x) 2 j x) 2 SS E = SS TOT SS R = (1 r 2 ) ( i ) 2 Vi kan här se att r = 1 ger perfekt matching så alla (x j, j ) ligger på en rät linje 8 Bonus: determinanter och spår För en kvadratisk matris A med dimension n n definierar vi som bekant det karakteristiska polnomet enligt p(λ) = det(a λi) Bekant från linjär algebra är att p(λ) kan representeras enligt p(λ) = ( 1) n (λ λ 1 )(λ λ 2 ) (λ λ n ) = ( 1) n( λ n λ n 1 (λ 1 + λ λ n ) + + ( 1) n λ 1 λ 2 λ n ), (1) där λ i, i = 1, 2,, n, är matrisens egenvärden Spåret för A betecknar tr A och definieras som summan av diagonalelementen: tr A = a ii i=1 Spåret är linjär och uppfller alltså att tr(ca) = c tr A och tr(a + B) = tr A + tr B 14

15 Dessutom gäller att tr(ab) = m a ij b ji = i=1 m b ji a ij = tr(ba) i=1 om A är n m och B är m n Denna likhet leder direkt till att tr(p AP 1 ) = tr(p 1 (P A)) = tr A, vilket innebär att spåret (likt determinanten) är en invariant Vi vet även att det A = λ 1 λ 2 λ n, dvs determinanten ges av produkten av alla egenvärden Finns något liknande för spåret? Svaret är vad man kanske skulle kunna gissa, nämligen att tr A = λ 1 + λ λ n Enklaste beviset är att uttnttja att alla matriser A kan skrivas på Jordans normalform, dvs att det finns en basbtesmatris så att J = P AP 1, där J har λ 1, λ 2,, λ n på diagonalen och är nästan en diagonalmatris Uttnttjar vi att spåret är ivariant är vi klara Kanske ligger detta argument lite utanför grundkursen i linjär algebra, så låt oss studera det karakteristiska polnomet lite närmare som alternativ Genom att utveckla efter exempelvis rad 1 kan determinanten skrivas a 22 λ a 23 a 2n a 32 a 33 λ a 3n p(λ) = (a 11 λ) + p 1 (t), a n2 a n3 a nn λ där grad p 1 (λ) n 2 eftersom vi tagit bort en λ-term Om vi utför samma operation på denna determinant ser vi att a 33 λ a 34 a 3n a 43 a 44 λ a 4n p(λ) = (a 11 λ)(a 22 λ) + p 2 (t), a n3 a n4 a nn λ där grad p 2 (λ) n 2 med något (ntt) polnom p 2 (λ) Upprepa proceduren n gånger och vi erhållet att p(λ) = (a 11 λ)(a 22 λ) (a nn λ) + p n (λ) = ( 1) n λ n + ( 1) n 1 λ n 1 (a 11 + a a nn ) + p n+1 (λ) = ( 1) n( λ n λ n 1 tr A ) + p n+1 (λ), (2) där p n+1 (λ) är något polnom med grad högst n 2 Om vi jämför (1) med (2) ser vi att tr A = λ 1 + λ λ n 15

Enkel och multipel linjär regression

Enkel och multipel linjär regression TNG006 F3 25-05-206 Enkel och multipel linjär regression 3.. Enkel linjär regression I det här avsnittet kommer vi att anpassa en rät linje till mätdata. Betrakta följande värden från ett försök x 4.0

Läs mer

Föreläsning 7: Stokastiska vektorer

Föreläsning 7: Stokastiska vektorer Föreläsning 7: Stokastiska vektorer Johan Thim johanthim@liuse oktober 8 Repetition Definition Låt X och Y vara stokastiska variabler med EX = µ X, V X = σx, EY = µ Y samt V Y = σy Kovariansen CX, Y definieras

Läs mer

Stokastiska vektorer och multivariat normalfördelning

Stokastiska vektorer och multivariat normalfördelning Stokastiska vektorer och multivariat normalfördelning Johan Thim johanthim@liuse 3 november 08 Repetition Definition Låt X och Y vara stokastiska variabler med EX µ X, V X σx, EY µ Y samt V Y σy Kovariansen

Läs mer

Föreläsning 9: Linjär regression del II

Föreläsning 9: Linjär regression del II Föreläsning 9: Linjär regression del II Johan Thim (johan.thim@liu.se) 29 september 2018 No tears, please. It s a waste of good suffering. Pinhead Vi fixerar en vektor u T = (1 u 1 u 2 u k ), där u i kommer

Läs mer

Föreläsning 6: Hypotestester (forts.)

Föreläsning 6: Hypotestester (forts.) Föreläsning 6: Hpotestester (forts.) Johan Thim (johan.thim@liu.se) 4 november 018 Vi fortsätter nu ekursionen i hpotesernas förlovade land. Fokus kommer vara på den vanligaste tpen av hpotestester, nämligen

Läs mer

Föreläsning 12: Linjär regression

Föreläsning 12: Linjär regression Föreläsning 12: Linjär regression Matematisk statistik Chalmers University of Technology Oktober 4, 2017 Exempel Vi vill undersöka hur ett ämnes specifika värmeskapacitet (ämnets förmåga att magasinera

Läs mer

Stokastiska vektorer

Stokastiska vektorer TNG006 F2 9-05-206 Stokastiska vektorer 2 Kovarians och korrelation Definition 2 Antag att de sv X och Y har väntevärde och standardavvikelse µ X och σ X resp µ Y och σ Y Då kallas för kovariansen mellan

Läs mer

Föreläsning 12: Regression

Föreläsning 12: Regression Föreläsning 12: Regression Matematisk statistik David Bolin Chalmers University of Technology Maj 15, 2014 Binomialfördelningen Låt X Bin(n, p). Vi observerar x och vill ha information om p. p = x/n är

Läs mer

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

TAMS65 - Föreläsning 11 Regressionsanalys fortsättning Modellval

TAMS65 - Föreläsning 11 Regressionsanalys fortsättning Modellval TAMS65 - Föreläsning 11 Regressionsanalys fortsättning Modellval Martin Singull Matematisk statistik Matematiska institutionen Innehåll Repetition (t-test för H 0 : β i = 0) Residualanalys Modellval Framåtvalsprincipen

Läs mer

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6

. (2p) 2x + 2y + z = 4 y + 2z = 2 4x + 3y = 6 Kursen bedöms med betyg, 4, 5 eller underkänd, där 5 är högsta betyg För godkänt betyg krävs minst 4 poäng från uppgifterna -7 Var och en av dessa sju uppgifter kan ge maximalt poäng För var och en av

Läs mer

Lösningar till tentamensskrivning för kursen Linjära statistiska modeller. 14 januari

Lösningar till tentamensskrivning för kursen Linjära statistiska modeller. 14 januari STOCKHOLMS UNIVERSITET MATEMATISK STATISTIK Lösningar till tentamensskrivning för kursen Linjära statistiska modeller 14 januari 2010 9 14 Examinator: Anders Björkström, tel. 16 45 54, bjorks@math.su.se

Läs mer

Tentamen för kursen. Linjära statistiska modeller. 17 februari

Tentamen för kursen. Linjära statistiska modeller. 17 februari STOCKHOLMS UNIVERSITET MATEMATISK STATISTIK Tentamen för kursen Linjära statistiska modeller 17 februari 2010 9 14 Examinator: Anders Björkström, tel. 16 45 54, bjorks@math.su.se Återlämning: Rum 312,

Läs mer

Föreläsning 4: Konfidensintervall (forts.)

Föreläsning 4: Konfidensintervall (forts.) Föreläsning 4: Konfidensintervall forts. Johan Thim johan.thim@liu.se 3 september 8 Skillnad mellan parametrar Vi kommer nu fortsätta med att konstruera konfidensintervall och vi kommer betrakta lite olika

Läs mer

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u =

1. (Dugga 1.1) (a) Bestäm v (3v 2u) om v = . (1p) and u = Kursen bedöms med betyg,, 5 eller underkänd, där 5 är högsta betyg. För godkänt betyg krävs minst poäng från uppgifterna -7. Var och en av dessa sju uppgifter kan ge maximalt poäng. För var och en av uppgifterna

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker Matematisk statistik för D, I, Π och Fysiker Föreläsning 15 Johan Lindström 4 december 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F15 1/28 Repetition Linjär regression Modell Parameterskattningar

Läs mer

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02 Sannolikhetsteori Följande gäller för sannolikheter:

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF64 Algebra och geometri Lösningsförslag till tentamen 04-05-0 DEL A. Planet P innehåller punkterna (,, 0), (0, 3, ) och (,, ). (a) Bestäm en ekvation, på formen ax + by + cz + d = 0, för planet P. (

Läs mer

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik Matematisk statistik KTH Formel- och tabellsamling i matematisk statistik Varterminen 2005 . Kombinatorik n = k n! k!n k!. Tolkning: n k mängd med n element. 2. Stokastiska variabler V X = EX 2 EX 2 =

Läs mer

SF1624 Algebra och geometri Tentamen Onsdag, 13 januari 2016

SF1624 Algebra och geometri Tentamen Onsdag, 13 januari 2016 SF624 Algebra och geometri Tentamen Onsdag, 3 januari 206 Skrivtid: 08:00 3:00 Tillåtna hjälpmedel: inga Examinator: Tilman Bauer Tentamen består av nio uppgifter som vardera ger maximalt fyra poäng. Del

Läs mer

Matematisk statistik KTH. Formelsamling i matematisk statistik

Matematisk statistik KTH. Formelsamling i matematisk statistik Matematisk statistik KTH Formelsamling i matematisk statistik Vårterminen 2017 1 Kombinatorik ) n n! = k k! n k)!. Tolkning: mängd med n element. ) n = antalet delmängder av storlek k ur en k 2 Stokastiska

Läs mer

Tentamen för kursen. Linjära statistiska modeller. 22 augusti

Tentamen för kursen. Linjära statistiska modeller. 22 augusti STOCKHOLMS UNIVERSITET MATEMATISK STATISTIK Tentamen för kursen Linjära statistiska modeller 22 augusti 2008 9 14 Examinator: Anders Björkström, tel. 16 45 54, bjorks@math.su.se Återlämning: Rum 312, hus

Läs mer

LÖSNINGAR LINJÄR ALGEBRA LUNDS TEKNISKA HÖGSKOLA MATEMATIK

LÖSNINGAR LINJÄR ALGEBRA LUNDS TEKNISKA HÖGSKOLA MATEMATIK LUNDS TEKNISKA HÖGSKOLA MATEMATIK LÖSNINGAR LINJÄR ALGEBRA 2017-10-2 1 Om vi skriver ekvationssystemet på matrisform AX = Y, så vet vi att systemet har en entydig lösning X = A 1 Y då det A 0 Om det A

Läs mer

732G71 Statistik B. Föreläsning 1, kap Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 20

732G71 Statistik B. Föreläsning 1, kap Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 20 732G71 Statistik B Föreläsning 1, kap. 3.1-3.7 Bertil Wegmann IDA, Linköpings universitet Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 20 Exempel, enkel linjär regressionsanalys Ett företag vill veta

Läs mer

SF1624 Algebra och geometri Lösningsförsag till modelltentamen

SF1624 Algebra och geometri Lösningsförsag till modelltentamen SF1624 Algebra och geometri Lösningsförsag till modelltentamen DEL A (1) a) Definiera begreppen rektangulär form och polär form för komplexa tal och ange sambandet mellan dem. (2) b) Ange rötterna till

Läs mer

TAMS79: Föreläsning 6. Normalfördelning

TAMS79: Föreläsning 6. Normalfördelning TAMS79: Föreläsning 6 Normalfördelningen Johan Thim (johan.thim@liu.se 3 november 018 Normalfördelning Definition. Låt µ R och > 0. Om X är en stokastisk variabel med täthetsfunktion f X ( = 1 ( ep ( µ,

Läs mer

Lycka till!

Lycka till! Avd. Matematisk statistik TENTAMEN I 5B1503 STATISTIK MED FÖRSÖKSPLANERING FÖR K OCH B MÅNDAGEN DEN 25 AUGUSTI 2003 KL 14.00 19.00. Examinator: Gunnar Englund, 790 7416. Tillåtna hjälpmedel: Formel- och

Läs mer

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08 LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK Laboration 5: Regressionsanalys DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08 Syftet med den här laborationen är att du skall

Läs mer

Föreläsning 8. NDAB02 Statistik; teori och tillämpning i biologi

Föreläsning 8. NDAB02 Statistik; teori och tillämpning i biologi Föreläsning 8 Statistik; teori och tillämpning i biologi 1 Dagens föreläsning o Enkel linjär regression (kap 17.1 17.5) o Skatta regressionslinje (kap 17.2) o Signifikant lutning? (kap 17.3, 17.5a) o Förklaringsgrad

Läs mer

Egenvärden och egenvektorer. Linjär Algebra F15. Pelle

Egenvärden och egenvektorer. Linjär Algebra F15. Pelle Egenvärden och egenvektorer Linjär Algebra F1 Egenvärden och egenvektorer Pelle 2016-03-07 Egenvärde och egenvektor Om A är en n n matris så kallas ett tal λ egenvärde och en kolonnvektor v 0 egenvektor

Läs mer

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18 LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA241/9MA341, STN2) 213-1-11 kl 14 18 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF1624 Algebra och geometri Lösningsförslag till tentamen 14129 DEL A 1 (a) Bestäm linjen genom punkterna A = (,, 1) och B = (2, 4, 1) (1 p) (b) Med hjälp av projektion kan man bestämma det kortaste avståndet

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A SF1624 Algebra och geometri Lösningsförslag till tentamen Fredagen den 23 oktober, 2009 DEL A (1) (a) Bestäm de övriga rötterna till ekvationen z 3 11z 2 + 43z 65 = 0 när det är känt att en av rötterna

Läs mer

Basbyten och linjära avbildningar

Basbyten och linjära avbildningar Föreläsning 11, Linjär algebra IT VT2008 1 Basbyten och linjära avbildningar Innan vi fortsätter med egenvärden så ska vi titta på hur matrisen för en linjär avbildning beror på vilken bas vi använder.

Läs mer

Matematisk statistik, Föreläsning 5

Matematisk statistik, Föreläsning 5 Matematisk statistik, Föreläsning 5 Ove Edlund LTU 2011-12-09 Ove Edlund (LTU) Matematisk statistik, Föreläsning 5 2011-12-09 1 / 25 Laboration 4 Jobba i grupper med storlek 2 Ove Edlund (LTU) Matematisk

Läs mer

9. Konfidensintervall vid normalfördelning

9. Konfidensintervall vid normalfördelning TNG006 F9 09-05-016 Konfidensintervall 9. Konfidensintervall vid normalfördelning Låt x 1, x,..., x n vara ett observerat stickprov av oberoende s.v. X 1, X,..., X n var och en med fördelning F. Antag

Läs mer

SF1624 Algebra och geometri

SF1624 Algebra och geometri SF1624 Algebra och geometri Tjugofemte föreläsningen Mats Boij Institutionen för matematik KTH 10 december, 2009 Tentamens struktur Tentamen består av tio uppgifter uppdelade på två delar, Del A och Del

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer

Läs mer

Föreläsning 3: Konfidensintervall

Föreläsning 3: Konfidensintervall Föreläsning 3: Konfidensintervall Johan Thim (johan.thim@liu.se) 5 september 8 [we are] Eplorers in the further regions of eperience. Demons to some. Angels to others. Pinhead Intervallskattningar Vi har

Läs mer

Lösningar till utvalda uppgifter i kapitel 8

Lösningar till utvalda uppgifter i kapitel 8 Lösningar till utvalda uppgifter i kapitel 8 8. Alla vektorer som är normaler till planet, d v s vektorer på formen (0 0 z) t, avbildas på nollvektorn. Dessa kommer därför att vara egenvektorer med egenvärdet

Läs mer

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n.

Övningar. c) Om någon vektor i R n kan skrivas som linjär kombination av v 1,..., v m på precis ett sätt så. m = n. Övningar Linjära rum 1 Låt v 1,, v m vara vektorer i R n Ge bevis eller motexempel till följande påståenden Satser ur boken får användas a) Om varje vektor i R n kan skrivas som linjär kombination av v

Läs mer

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 17 april 2010 kl

DEL I. Matematiska Institutionen KTH. Lösning till tentamensskrivning på kursen Linjär algebra II, SF1604, den 17 april 2010 kl Matematiska Institutionen KTH Lösning till tentamensskrivning på kursen Linjär algebra II, SF604, den 7 april 200 kl 09.00-4.00. DEL I. En triangel i den tredimensionella rymden har sina hörn i punkterna

Läs mer

Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper

Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper Tobias Abenius February 21, 2012 Envägs variansanalys (ANOVA) I envägs variansanalys utnyttjas att

Läs mer

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad: MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik Linjär algebra 2 Senast korrigerad: 2006-02-10 Övningar Linjära rum 1. Låt v 1,..., v m vara vektorer i R n. Ge bevis eller motexempel till

Läs mer

Betingning och LOTS/LOTV

Betingning och LOTS/LOTV Betingning och LOTS/LOTV Johan Thim (johan.thim@liu.se 4 december 018 Det uppstod lite problem kring ett par uppgifter som hanterade betingning. Jag tror problemen är av lite olika karaktär, men det jag

Läs mer

AMatematiska institutionen avd matematisk statistik

AMatematiska institutionen avd matematisk statistik Kungl Tekniska Högskolan AMatematiska institutionen avd matematisk statistik TENTAMEN I 5B1503 STATISTIK MED FÖRSÖKSPLANERING FÖR B OCH K FREDAGEN DEN 11 JANUARI 2002 KL 14.00 19.00. Examinator: Gunnar

Läs mer

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016

SF1624 Algebra och geometri Tentamen Torsdag, 17 mars 2016 SF4 Algebra och geometri Tentamen Torsdag, 7 mars Skrivtid: 8:-: Tillåtna hjälpmedel: inga Examinator: Tilman Bauer Tentamen består av nio uppgifter som vardera ger maximalt fyra poäng. Del A på tentamen

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Linjär Regression Uwe Menzel, 2018 uwe.menzel@slu.se; uwe.menzel@matstat.de www.matstat.de Linjär Regression y i y 5 y 3 mätvärden x i, y i y 1 x 1 x 2 x 3 x 4 x 6 x

Läs mer

MVE022 Urval av bevis (på svenska)

MVE022 Urval av bevis (på svenska) MVE22 Urval av bevis (på svenska) J A S, VT 218 Sats 1 (Lay: Theorem 7, Section 2.2.) 1. En n n-matris A är inverterbar precis när den är radekvivalent med indentitesmatrisen I n. 2. När så är fallet gäller

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l.

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A. (1 p) (c) Bestäm avståndet mellan A och linjen l. SF64 Algebra och geometri Lösningsförslag till tentamen 5.6. DEL A. Betrakta följande punkter i rummet: A = (,, ), B = (,, ) och C = (,, ). (a) Ange en parametrisk ekvation för linjen l som går genom B

Läs mer

Föreläsning 11: Mer om jämförelser och inferens

Föreläsning 11: Mer om jämförelser och inferens Föreläsning 11: Mer om jämförelser och inferens Matematisk statistik David Bolin Chalmers University of Technology Maj 12, 2014 Oberoende stickprov Vi antar att vi har två oberoende stickprov n 1 observationer

Läs mer

LÖSNINGAR TILL LINJÄR ALGEBRA kl 8 13 LUNDS TEKNISKA HÖGSKOLA MATEMATIK. 1. Volymen med tecken ges av determinanten.

LÖSNINGAR TILL LINJÄR ALGEBRA kl 8 13 LUNDS TEKNISKA HÖGSKOLA MATEMATIK. 1. Volymen med tecken ges av determinanten. LUNDS TEKNISKA HÖGSKOLA MATEMATIK LÖSNINGAR TILL LINJÄR ALGEBRA 2018-08-29 kl 8 1 1 Volymen med tecken ges av determinanten a 2 2 2 4 2 1 2a 1 = a 2 2 2 0 4 2 = 4(a 2)(1 a) 0 2a 1 Parallellepipedens volym

Läs mer

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Per Alexandersson Repetera hur man nner bas för rum som spänns upp av några vektorer Reptetera hur man nner bas för summa och snitt av delrum. Reptetera

Läs mer

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet

Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Föreläsningsanteckningar Linjär Algebra II Lärarlyftet Per Alexandersson Föreläsning I Timme I: Repetition av matriser, linjära ekvationssystem Linjärt ekvationssystem: x + y + z 3w = 3 2x + y + z 4w =

Läs mer

Residualanalys. Finansiell statistik, vt-05. Normalfördelade? Normalfördelade? För modellen

Residualanalys. Finansiell statistik, vt-05. Normalfördelade? Normalfördelade? För modellen Residualanalys För modellen Johan Koskinen, Statistiska institutionen, Stockholms universitet Finansiell statistik, vt-5 F7 regressionsanalys antog vi att ε, ε,..., ε är oberoende likafördelade N(,σ Då

Läs mer

Avsnitt 6, Egenvärden och egenvektorer. Redan första produktelementet avslöjar att matrisen inte är en ortogonal matris. En matris 1 0.

Avsnitt 6, Egenvärden och egenvektorer. Redan första produktelementet avslöjar att matrisen inte är en ortogonal matris. En matris 1 0. Avsnitt Egenvärden och egenvektorer W Vilka av följande matriser är ortogonala? b d En matris A a a a n a a a n a a a n a m a m a mn är en ortogonal matris om dess kolumner bildar en ON-bas för rummet

Läs mer

Egenvärden, egenvektorer

Egenvärden, egenvektorer Egenvärden, egenvektorer Om en matris är kvadratisk (dvs n n) kan vi beräkna egenvärden och egenvektorer till matrisen. Polynomet p(λ) = det(a λi) kallas det karakterisktiska polynomet för A. Ett nollställe

Läs mer

MVE051/MSG Föreläsning 14

MVE051/MSG Föreläsning 14 MVE051/MSG810 2016 Föreläsning 14 Petter Mostad Chalmers December 14, 2016 Beroende och oberoende variabler Hittills i kursen har vi tittat på modeller där alla observationer representeras av stokastiska

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF64 Algebra och geometri Lösningsförslag till tentamen 0-0-0 DEL A De tre totalmatriserna 0 3 3 4 0 3 0 0 0 0, 0 3 0 4 4 0 3 0 3 0 0 0 0 och 0 3 0 4 0 3 3 0 0 0 0 0 svarar mot linjära ekvationssystem

Läs mer

FACIT för Förberedelseuppgifter: SF1911 STATISTIK FÖR BI0TEKNIK inför tentan MÅDAGEN DEN 9 DECEMBER 2016 KL Examinator: Timo Koski

FACIT för Förberedelseuppgifter: SF1911 STATISTIK FÖR BI0TEKNIK inför tentan MÅDAGEN DEN 9 DECEMBER 2016 KL Examinator: Timo Koski FACIT för Förberedelseuppgifter: SF9 STATISTIK FÖR BI0TEKNIK inför tentan MÅDAGEN DEN 9 DECEMBER 206 KL 4.00 9.00. Examinator: Timo Koski - - - - - - - - - - - - - - - - - - - - - - - - 0. FACIT Problem

Läs mer

Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner. 2? Det är komplicerat att

Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner. 2? Det är komplicerat att Egensystem Vi skalla främst utnyttja omskrivning av en matris för att löas ett system av differentialekvaioner Potens av matris 2 6 Ex Givet matrisen A =, vad är A 2? Det är komplicerat att beräkna högre

Läs mer

REGRESSIONSANALYS. Martin Singull

REGRESSIONSANALYS. Martin Singull REGRESSIONSANALYS Martin Singull 16 april 2018 Innehåll 1 Beroendemått och stokastiska vektorer 4 1.1 Beroendemått........................................... 4 1.2 Stokastiska vektorer.......................................

Läs mer

Lektionsanteckningar 11-12: Normalfördelningen

Lektionsanteckningar 11-12: Normalfördelningen Lektionsanteckningar 11-12: Normalfördelningen När utfallsrummet för en slumpvariabel kan anta vilket värde som helst i ett givet intervall är variabeln kontinuerlig. Det är väsentligt att utfallsrummet

Läs mer

SF1922/SF1923: SANNOLIKHETSTEORI OCH INTERVALLSKATTNING. STATISTIK. Tatjana Pavlenko. 24 april 2018

SF1922/SF1923: SANNOLIKHETSTEORI OCH INTERVALLSKATTNING. STATISTIK. Tatjana Pavlenko. 24 april 2018 SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 11 INTERVALLSKATTNING. Tatjana Pavlenko 24 april 2018 PLAN FÖR DAGENS FÖRELÄSNING Vad är en intervallskattning? (rep.) Den allmänna metoden för

Läs mer

Inledning till statistikteorin. Skattningar och konfidensintervall för μ och σ

Inledning till statistikteorin. Skattningar och konfidensintervall för μ och σ Inledning till statistikteorin Skattningar och konfidensintervall för μ och σ Punktskattningar Stickprov från en population - - - Vi vill undersöka bollhavet men får bara göra det genom att ta en boll

Läs mer

1 Linjära ekvationssystem. 2 Vektorer

1 Linjära ekvationssystem. 2 Vektorer För. 1 1 Linjära ekvationssystem Gaußelimination - sriv om systemet för att få ett trappformat system genom att: byta ordningen mellan ekvationer eller obekanta; multiplicera en ekvation med en konstant

Läs mer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag Jörgen Säve-Söderbergh Väntevärde för en funktion av en stokastisk variabel Om

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF1624 Algebra och geometri Lösningsförslag till tentamen 2010-10-22 DEL A (1) Uttrycket (x, y, z) (1, 1, 1) + s(1, 3, 0) + t(0, 5, 1) definierar ett plan W i rummet där s och t är reella parametrar. (a)

Läs mer

1 De fyra fundamentala underrummen till en matris

1 De fyra fundamentala underrummen till en matris Krister Svanberg, mars 2012 1 De fyra fundamentala underrummen till en matris 1.1 Definition av underrum En given delmängd M av IR n säges vara ett underrum i IR n om följande gäller: För varje v 1 M,

Läs mer

Vektorgeometri för gymnasister

Vektorgeometri för gymnasister Vektorgeometri för gymnasister Per-Anders Svensson http://homepage.lnu.se/staff/psvmsi/vektorgeometri/gymnasiet.html Fakulteten för teknik Linnéuniversitetet Diagonalisering av linjära avbildningar III

Läs mer

Dagens program. Linjära ekvationssystem och matriser

Dagens program. Linjära ekvationssystem och matriser Dagens program Matriser Räkneoperationer och räknelagar Linjära ekvationssystem och matriser Matrisform av ekvationssystem Elementära radoperationer Trappstegsmatriser, rang och lösningsstruktur Matrisinvers,

Läs mer

Preliminärt lösningsförslag

Preliminärt lösningsförslag Preliminärt lösningsförslag v4, 9 april 5 Högskolan i Skövde (SK) Tentamen i matematik Kurs: MA4G Linjär algebra MAG Linjär algebra för ingenjörer Tentamensdag: 5--7 kl 8- Hjälpmedel : Inga hjälpmedel

Läs mer

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD 208-08-26 Sannolikhetsteori Följande gäller för sannolikheter: 0 P(A P(Ω = P(A

Läs mer

2.1 Mikromodul: stokastiska processer

2.1 Mikromodul: stokastiska processer 2. Mikromodul: stokastiska processer 9 2. Mikromodul: stokastiska processer 2.. Stokastiska variabler En stokastiskt variabel X beskrivs av dess täthetsfunktion p X (x), vars viktigaste egenskaper sammanfattas

Läs mer

Regressions- och Tidsserieanalys - F1

Regressions- och Tidsserieanalys - F1 Regressions- och Tidsserieanalys - F1 Kap 3: Enkel linjär regression Linda Wänström Linköpings universitet November 4, 2013 Wänström (Linköpings universitet) F1 November 4, 2013 1 / 25 Statistik B, 8 hp

Läs mer

Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar

Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORLABORATION 4 MATEMATISK STATISTIK, FÖR I/PI, FMS 121/2, HT-3 Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar

Läs mer

Matematisk statistik 9 hp, HT-16 Föreläsning 15: Multipel linjär regression

Matematisk statistik 9 hp, HT-16 Föreläsning 15: Multipel linjär regression Matematisk statistik 9 hp, HT-16 Föreläsning 15: Multipel linjär regression Anna Lindgren 28+29 november, 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F15: multipel regression 1/22 Linjär regression

Läs mer

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna

Uppsala Universitet Matematiska Institutionen Bo Styf. Sammanfattning av föreläsningarna Uppsala Universitet Matematiska Institutionen Bo Styf LAoG I, 5 hp ES, KandMa, MatemA -9-6 Sammanfattning av föreläsningarna 3-7 Föreläsningarna 3 7, 8/ 5/ : Det viktigaste är här att du lär dig att reducera

Läs mer

Uppgift 1. f(x) = 2x om 0 x 1

Uppgift 1. f(x) = 2x om 0 x 1 Avd. Matematisk statistik TENTAMEN I Matematisk statistik SF1907, SF1908 OCH SF1913 TORSDAGEN DEN 30 MAJ 2013 KL 14.00 19.00. Examinator: Gunnar Englund, 073 321 3745 Tillåtna hjälpmedel: Formel- och tabellsamling

Läs mer

Föreläsning 15, FMSF45 Multipel linjär regression

Föreläsning 15, FMSF45 Multipel linjär regression Föreläsning 15, FMSF45 Multipel linjär regression Stas Volkov 2017-11-28 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F15 1/23 Linjär regression Vi har n st par av mätvärden (x i, y i ), i = 1,..., n

Läs mer

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till modelltentamen DEL A SF624 Algebra och geometri Lösningsförslag till modelltentamen DEL A () (a) Använd Gauss-Jordans metod för att bestämma lösningsmängden till ekvationssystemet 2x + 4x 2 + 2x 3 + 2x 4 = 2, 3x + 6x 2 x 3

Läs mer

1. För tiden mellan två besök gäller. V(X i ) = 1 λ 2 = 25. X i Exp (λ) E(X i ) = 1 λ = 5s λ = 1 5

1. För tiden mellan två besök gäller. V(X i ) = 1 λ 2 = 25. X i Exp (λ) E(X i ) = 1 λ = 5s λ = 1 5 LÖSNINGAR TILL Matematisk statistik Tentamen: 29 7 kl 8 3 Matematikcentrum FMSF45 Matematisk statistik AK för D,I,Pi,F, 9 h Lunds universitet MASB3 Matematisk statistik AK för fysiker, 9 h. För tiden mellan

Läs mer

Matematisk statistik för B, K, N, BME och Kemister

Matematisk statistik för B, K, N, BME och Kemister Matematisk statistik för B, K, N, BME och Kemister Föreläsning 9 Joakim Lübeck (Johan Lindström 25 september 217 Johan Lindström - johanl@maths.lth.se FMSF7/MASB2 F9 1/23 Repetition Inferens för diskret

Läs mer

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016

SF1624 Algebra och geometri Tentamen Torsdag, 9 juni 2016 SF624 Algebra och geometri Tentamen Torsdag, 9 juni 26 Skrivtid: 8: 3: Tillåtna hjälpmedel: inga Examinator: Tilman Bauer Tentamen består av nio uppgifter som vardera ger maximalt fyra poäng. Del A på

Läs mer

Övningstenta 001. Alla Linjär Algebra. TM-Matematik Sören Hector Mikael Forsberg. 1. x 2y z + v = 0 z + u + v = 3 x + 2y + 2u + 2v = 4 z + 2u + 5v = 0

Övningstenta 001. Alla Linjär Algebra. TM-Matematik Sören Hector Mikael Forsberg. 1. x 2y z + v = 0 z + u + v = 3 x + 2y + 2u + 2v = 4 z + 2u + 5v = 0 TM-Matematik Sören Hector Mikael Forsberg Alla Linjär Algebra Övningstenta. x z + v z + u + v 3 x + + u + v 4 z + u + 5v. (a) Bestäm storleken (absolutbeloppet) och argumentet till z i. (b) Uttrck på formen

Läs mer

Regressions- och Tidsserieanalys - F1

Regressions- och Tidsserieanalys - F1 Regressions- och Tidsserieanalys - F1 Kap 3: Enkel linjär regression Linda Wänström Linköpings universitet May 4, 2015 Wänström (Linköpings universitet) F1 May 4, 2015 1 / 25 Regressions- och tidsserieanalys,

Läs mer

Moment 6.1, 6.2 Viktiga exempel Övningsuppgifter T6.1-T6.6

Moment 6.1, 6.2 Viktiga exempel Övningsuppgifter T6.1-T6.6 Moment 6., 6. Viktiga exempel 6.-6. Övningsuppgifter T6.-T6.6 Matriser Definition. En matris är ett schema med m rader och n kolonner eller kolumner, som vi kallar dem i datalogin innehållande m n element.

Läs mer

Determinanter, egenvectorer, egenvärden.

Determinanter, egenvectorer, egenvärden. Determinanter, egenvectorer, egenvärden. Determinanter av kvadratiska matriser de nieras recursivt: först för matriser, sedan för matriser som är mest användbara. a b det = ad bc c d det a a a a a a a

Läs mer

Diagonalisering och linjära system ODE med konstanta koe cienter.

Diagonalisering och linjära system ODE med konstanta koe cienter. Diagonalisering och linjära system ODE med konstanta koe cienter. Variabelbyte i linjära system di erentialekvationer. Målet med det kapitlet i kursen är att lösa linjära system di erentialekvationer på

Läs mer

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A

SF1624 Algebra och geometri Lösningsförslag till tentamen DEL A SF64 Algebra och geometri Lösningsförslag till tentamen 533 DEL A Planet H ges av ekvationen 3x y + 5z + a) Bestäm en linje N som är vinkelrät mot H ( p) b) Bestäm en linje L som inte skär planet H ( p)

Läs mer

DEL I 15 poäng totalt inklusive bonus poäng.

DEL I 15 poäng totalt inklusive bonus poäng. Matematiska Institutionen KTH TENTAMEN i Linjär algebra, SF604, den 5 december, 2009. Kursexaminator: Sandra Di Rocco Svaret skall motiveras och lösningen skrivas ordentligt och klart. Inga hjälpmedel

Läs mer

TMV166 Linjär Algebra för M. Tentamen

TMV166 Linjär Algebra för M. Tentamen MATEMATISKA VETENSKAPER TMV66 6 Chalmers tekniska högskola 6 8 kl 8:3 :3 (SB Multisal) Examinator: Tony Stillfjord Hjälpmedel: ordlistan från kurshemsidan, ej räknedosa Telefonvakt: Olof Giselsson, ankn

Läs mer

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK. SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 6 MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. Tatjana Pavlenko 12 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition

Läs mer

Föreläsning 15: Faktorförsök

Föreläsning 15: Faktorförsök Föreläsning 15: Faktorförsök Matematisk statistik Chalmers University of Technology Oktober 17, 2016 Ensidig variansanalys Vi vill studera om en faktor A påverkar en responsvariabel. Vi gör totalt N =

Läs mer

F13 Regression och problemlösning

F13 Regression och problemlösning 1/18 F13 Regression och problemlösning Måns Thulin Uppsala universitet thulin@math.uu.se Statistik för ingenjörer 4/3 2013 2/18 Regression Vi studerar hur en variabel y beror på en variabel x. Vår modell

Läs mer

Lite Linjär Algebra 2017

Lite Linjär Algebra 2017 Lite Linjär Algebra 2017 Lektionsanteckningar och sammanfattning Johan Thim, MAI (johan.thim@liu.se) ū ū O z y ū // L : OP + t v x Ortogonalprojektion: ū // = ū v v v v, ū = ū ū //. Innehåll 1 Bakgrund

Läs mer

Föreläsning 13: Multipel Regression

Föreläsning 13: Multipel Regression Föreläsning 13: Multipel Regression Matematisk statistik Chalmers University of Technology Oktober 9, 2017 Enkel linjär regression Vi har gjort mätningar av en responsvariabel Y för fixerade värden på

Läs mer

(d) Mängden av alla x som uppfyller x = s u + t v + (1, 0, 0), där s, t R. (e) Mängden av alla x som uppfyller x = s u där s är ickenegativ, s 0.

(d) Mängden av alla x som uppfyller x = s u + t v + (1, 0, 0), där s, t R. (e) Mängden av alla x som uppfyller x = s u där s är ickenegativ, s 0. TM-Matematik Mikael Forsberg, 734-4 3 3 Rolf Källström, 7-6 93 9 För Campus och Distans Linjär algebra mag4 och ma4a 6 5 Skrivtid: 9:-4:. Inga hjälpmedel. Lösningarna skall vara fullständiga och lätta

Läs mer

4x az = 0 2ax + y = 0 ax + y + z = 0

4x az = 0 2ax + y = 0 ax + y + z = 0 LUNDS TEKNISKA HÖGSKOLA MATEMATIK TENTAMENSSKRIVNING LINJÄR ALGEBRA 206-03-4 kl 8 3 INGA HJÄLPMEDEL Lösningarna skall vara försedda med ordentliga motiveringar Alla koordinatsystem får antas vara ortonormerade

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology April 27, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två numeriska

Läs mer