SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag Jörgen Säve-Söderbergh
Väntevärde för en funktion av en stokastisk variabel Om Y = g (X ) gäller att { E (Y ) = k g (k) p X (k) g (x) f X (x) dx Vi kan generalisera till era stokastiska variabler diskreta s.v. Kontinuerliga s.v. Om Z = g (X, Y ) gäller att { k E (Z) = g (j, k) p X,Y (j, k) g (x, y) f X,Y (x, y) dx dy j diskreta s.v. kontinuerliga s.v. Intressanta fall av funktionen g ( ) är g (X, Y ) = X + Y, g (X, Y ) = X samt g (X, Y ) = XY
Väntevärdet av en summa av två stokastiska variabler E (X + Y ) = E (X ) + E (Y ) Bevis. Antag X och Y är kontinuerliga stokastiska variabler. E (X + Y ) = (x + y) f X,Y (x, y) dx dy = x f X,Y (x, y) dx dy + + y f X,Y (x, y) dx dy = E (X ) + E (Y ) I boken nns ett bevis för diskreta stokastiska variabler. Vi behöver inte anta att X och Y är oberoende. Gäller för era s.v....
Väntevärde för en lineärkombination av stokastiska variabler E (ax + by + c) = ae (X ) + be (Y ) + c (Inget oberoende!) Bevis. (Skiss) Antag att X och Y är kontinuerliga. E (ax + by + c) = (ax + by + c) f X,Y (x, y) dx dy
Väntevärdet av en produkt av två stokastiska variabler Om X och Y är oberoende, gäller att E (XY ) = E (X ) E (Y ) Bevis. Antag att X och Y är kontinuerliga. E (XY ) = = ( = x f X (x) dx = E (X ) E (Y ) xy f X,Y (x, y) dx dy xy f X (x) f Y (y) dx dy ) ( y f Y (y) dy ) Kan generaliseras till era stokastiska variabler.
Mått på beroendet mellan två stokastiska variabler i en tvådimensionell stokastisk variabel (X, Y ) Vi önskar uttrycka beroendet mellan de två variablerna X och Y i en tvådimensionell stokastisk variabel (X, Y ) med ett tal. Det är motsvarigheten till läges- och spridningsmått som vi söker. Betrakta en bivariat täthetsfunktion över R 2. Vi har sett ovan att variansen är väntevärdet av funktionen g (X ) = (X µ) 2. Vilken funktion g (X, Y ) ska vi använda i väntevärdet för att fånga beroendet mellan X och Y? Vi studerar funktionen g (X, Y ) = (X µ X ) (Y µ Y ).
Eekten av produkten (X µ X )(Y µ Y ) De stokastiska variablerna X och Y har respektive väntevärde µ X och µ Y. Y (Y µ Y ) > 0 (Y µ Y ) > 0 (X µ X ) < 0 (X µ X ) > 0 (X µ X ) (Y µ Y ) < 0 (X µ X ) (Y µ Y ) > 0 µ Y (Y µ Y ) < 0 (Y µ Y ) < 0 (X µ X ) < 0 (X µ X ) > 0 (X µ X ) (Y µ Y ) > 0 (X µ X ) (Y µ Y ) < 0 µ X X
Positivt och negativt beroende mellan X och Y
Kovariansen mellan X och Y Denition Kovariansen Cov (X, Y ) mellan X och Y denieras som Cov (X, Y ) = E [(X µ X )(Y µ Y )]. Vi ser att Cov (X, X ) = E [ (X µ X ) 2] = Var (X ) Om X och Y har en simultan täthet f X,Y (x, y) gäller att Cov(X, Y ) = (x µ X )(y µ Y )f X,Y (x, y)dxdy. Om X och Y är diskreta s.v. Cov(X, Y ) = (i µ X )(j µ Y )p X,Y (x, y). i k
Beräkningsformel för kovariansen Om vi använder räknereglerna för E ( ) ovan Cov(X, Y ) = E [(X µ X )(Y µ Y )] = E [XY X µ Y µ X Y + µ X µ Y ] = E [XY ] E [X ] µ Y µ X E [Y ] + µ X µ Y = E [XY ] µ X µ Y µ X µ Y + µ X µ Y = E [XY ] µ X µ Y, d.v.s. Cov(X, Y ) = E [XY ] µ X µ Y.
Räkneregler för Cov ( ) Cov (X, X ) = Var (X ) Cov (X, Y ) = Cov (Y, X ) Cov (ax + b, cy + d) = accov (Y, X ) Cov (X + Y, Z) = Cov (X, Z) + Cov (Y, Z) Bevis. Cov (X, Y ) = E [(X µ X ) (Y µ Y )] = E [(Y µ Y ) (X µ X )] = Cov (Y, X )
Kovariansen är en bilineär funktion Detta betyder att kovariansen är lineär i båda sina argument. Cov (X + Y, Z + W ) = Cov (X, Z) + Cov (X, W ) + Cov (Y, Z) + Cov (Y, W ) En lineärkombination av stokastiska variabler X 1, X 2,..., X n är c 1 X 1 + c 2 X 2 + + c n X n = n c j X j, j=1 där c 1, c 2,..., c n är godtyckliga reella tal. ( n Cov a j=1 ix i, ) n b j=1 jx j = n n a i=1 j=1 ib j Cov (X i, X j )
Korrelationskoecienten Standardavvikelsen för en stokastisk variabel X betecknas D (X ). Denition Korrelationskoecienten för X och Y denieras som ρ (X, Y ) = Cov (X, Y ) D (X ) D (Y ). ρ är ett mått på det lineära beroendet mellan X och Y. ρ saknar dimension. Varför delar vi Cov(X, Y ) med produkten av D (X ) och D (Y )? Det gör att 1 ρ 1.
Korrelationskoecienten Denition Om Cov (X, Y ) = 0 säges X och Y vara okorrelerade. Då Cov (X, Y ) = E (XY ) E (X ) E (Y ) är två s.v. okorrelerade om och endast om E (XY ) = E (X ) E (Y ). Om X och Y är oberoende så är de också okorrelerade. Bevis. Om X och Y är oberoende E (XY ) = E (X ) E (Y ). Alltså är X och Y okorrelerade. Motsatsen är inte sann; Beroende variabler kan vara okorrelerade. Exempel 5.13
Lineärkombination av stokastiska variabler X 1, X 2,..., X n En lineärkombination av stokastiska variabler X 1, X 2,..., X n är c 1 X 1 + c 2 X 2 + + c n X n = n c j X j, j=1 där c 1, c 2,..., c n är godtyckliga reella tal. ( n ) E c j=1 ix i = n c i=1 ie (X i ) ( n ) Var c j=1 ix i = n c 2 i=1 i Var (X i) + 2 i<j c ic j Cov (X i, X j ) Om ( X 1, X 2,..., X n är oberoende n ) Var c j=1 ix i = n c 2 i=1 i Var (X i)
En speciell lineärkombination aritmetiska medelvärdet Välj c i = 1 n, vilket ger c 1 X 1 + + c n X n = 1 n X 1 + + 1 n X n = X 1 + + X n n = X. Om X 1, X 2,..., X n är oberoende s.v. med samma väntevärde µ och standardavvikelsen σ E ( X ) = 1 n n µ = n µ n = µ i=1 Var ( X ) = n ( 1 ) 2 i=1 n σ 2 = n σ2 n 2 D ( X ) = σ n = σ2 n
Stora talens lag
Stora talens lag Låt X 1, X 2,... vara oberoende och likafördelade stokastiska variabler, var och en med väntevärdet µ, och sätt Då gäller, för alla ɛ > 0, att X n = X 1 + X 2 + + X n. n P ( µ ɛ < X n < µ + ɛ ) 1 då n.