TNG6 F5 19-4-216 Väntevärde och varians Exempel 5.1. En grupp teknologer vid ITN slår sig ihop för att starta ett företag som utvecklar datorspel. Man vet att det är 8% chans för ett felfritt spel som kan säljas för fullt pris 595 kr. Dock finns det 15% chans att fel uppstår som gör att spelet säljs till det reducerade priset 44 kr. Dessutom finns det 5% chans att spelet pga fel kasseras till kostnad av 18 kr. För att kunna säga något om vinsten per spel resonerar gruppen som man gjorde i kursen TNG6. Lösning: Antag att man tillverkar N spel, där N 1 av dem säljes till ett fullt pris, N 2 säljes till ett reducerat pris och N 3 kasseras, så att N = N 1 + N 2 + N 3. Den totala vinsten blir Vinsten per spel blir 595N 1 + 44N 2 18N 3. 595N 1 + 44N 2 18N 3 N För ett stort antal tillverkade spel bör = 595 N 1 N + 44N 2 N 18N 3 N. Då blir vinsten per spel approximativt N 1 N.8, N 2 N.15, N 3 N.5. 595.8 + 44.15 18.5 = 533. Vi har räknat ut en förväntad vinst per spel. Vi kan också resonera så här. Låt X = vinsten per spel. Då är X en diskret s.v. som antar värdena x = 18, 44, 595 och har sannolikhetsfunktionen P (X = 18) =.5, P (X = 44) =.15, P (X = 595) =.8. Den förväntade vinsten per spel är då E(X) = 18 P (X = 18) + 44 P (X = 44) + 595 P (X = 595) = 533. Vi kallar E(X) för väntevärdet för den s.v. X och gör följande definition. 1
5.1. Väntevärde Definition 5.2. Väntevärdet för den s.v. X definieras av x p X (x) diskret s.v., x E(X) = x f X (x) dx kontinuerlig. s.v. Andra beteckningar är µ eller µ X. Tolkning: Väntevärdet är ett lägesmått som anger var sannolikhetsmassan ligger i genomsnitt. T.ex har vi i envariabelanalysen visat att E(X) är x-koordinaten för tyngdpunkten för den plana ytan under grafen till y = f(x). Exempel 5.3. Bestäm väntevärdet till den diskreta s.v. X som har sannolikhetsfunktionen p X (k) =.5, k = 1, 2,..., 8 p X (9) =.6 p X (k) = för övrigt Lösning: Det följer att E(X) = 9 kp X (k) = (1 + 2 + 3 + 4 + 5 + 6 + 7 + 8).5 + 9.6 = 7.2 k=1 I det exemplet ser vi att väntevärdet 7.2 är ett bättre lägesmått på sannolikhetsmassan än medianen 5. (Medianen är 5 eftersom det finns lika många tal till höger som till vänster om just talet 5.) 2
Exempel 5.4. Bestäm väntevärdet till en exponentialfördelad s.v. X med täthetsfunktionen f X (x) = 1 µ e x/µ, x. Beräkna också medianen för X. I figuren nedan är µ = 2 och medianen 1.38. 3
Nästa sats visar hur man beräknar väntevärdet för funktioner av s.v. Sats 5.5. Låt Y = g(x). Då är g(x) p X (x) x E(Y ) = g(x)f X (x) dx diskret s.v., kontinuerlig. s.v. Låt Z = g(x, Y ). Då är E(Z) = g(x, y) p XY (x, y) x y g(x, y)f XY (x, y) dxdy diskret s.v., kontinuerlig. s.v. Exempel 5.6. Antag att f X,Y (x, y) = 2, då < y < x < 1. Bestäm E(X 2 Y ). Lösning: 5.2. Varians Vi använder Sats 5.5 till att definiera ett spridningsmått. Definition 5.7. Låt X vara en s.v. 1. Variansen, V (X), är ett mått på hur utspridd sannolikhetsmassan är för den s.v. X och definieras via V (X) = E((X µ) 2 ). 2. Standardavvikelsen definieras via D(X) = V (X). Standardavvikelsen betecknas också σ eller σ X. 4
I figuren ser vi hur sannolikhetsmassan är utspridd för olika värden på variansen. Grafen med högsta toppen har σ =.25, grafen med näst högsta topp har σ = 1 och grafen med lägsta topp har σ = 2. Ofta är det enklast att beräkna variansen enligt nästa sats. Sats 5.8. Steiners sats. V (X) = E(X 2 ) (E(X)) 2. Bevis: Enligt Definition 5.7, så är V (X) = E((X µ) 2 )) = Eftersom E(X 2 ) = så följer att = x 2 f X (x) dx 2µ (x µ) 2 f X (x) dx x 2 f X (x) dx, µ = E(X) = xf X (x) dx + µ 2 f X (x) dx xf X (x) dx och V (X) = E(X 2 ) 2µ 2 + µ 2 = E(X 2 ) µ 2 = E(X 2 ) (E(X)) 2. x 2 f X (x) dx = 1, Exempel 5.9. Experiment visar att en kontinuerlig s.v. X kan ha en linjär täthetsfunktion f X (x). Man vet också att X har väntevärdet E(X) = 7/12. 1. Bestäm konstanterna a och b så att f X (x) = { ax + b, < x < 1 annars blir en täthetsfunktion. 2. Bestäm variansen V (X). 3. Bestäm sannolikheten för att X >.1 givet att X <.5, dvs P (X >.1 X <.5). Lösning: : 5
1. f X måste uppfylla samt 1 = 7 12 = E(X) = f X (x) dx = Detta ger att a = 1 och b = 1/2. 2. Variansen ges av xf X (x) dx = V (X) = E(X 2 ) (E(X)) 2 = (ax + b) dx = a/2 + b x 2( x + 1 2 x(ax + b) dx = a 3 + b 2. ) ( 7 ) 2 11 dx = 12 144. 3. P (X >.1 X <.5) = P (.1 < x <.5) P (X <.5) =.5.1 (x + 1/2) dx.5 (x + 1/2) dx =.85. Exempel 5.1. Beräkna variansen för 1. s.v. X Exp(µ). 2. s.v. Y 2 då Y Re(, 1) 6
5.3. Räknelagar för väntevärde Följande räknelagar för väntevärde gäller. Sats 5.11. Låt X och Y vara s.v. Då är 1. E(aX + b) = ae(x) + b (E är linjär!) 2. E(aX + by ) = ae(x) + be(y ) 3. Om X och Y är oberoende så E(XY ) = E(X) E(Y ). Bevis: 1. Vi har att E(aX + b) = 2. Eftersom f X (x) = E(aX + by ) = (ax + b)f X (x) dx = a = a = a f XY (x, y) dy och f Y (y) = xf X (x) dx + b f X (x) dx = ae(x) + b. (ax + by)f XY (x, y) dxdy ( ) x f XY (x, y) dy dx + b xf X (x) dx + b = ae(x) + be(y ) 3. Om X och Y är oberoende så E(XY ) = = xyf XY (x, y) dxdy = xf X (x) dx = E(X)E(Y ) yf X (x) dy yf Y (y) dy f XY (x, y) dx, så får vi att ( ) y f XY (x, y) dx dy xyf X (x)f Y (y) dxdy 7
5.4. Räknelagar för variansen Ett beroendemått mellan X och Y är kovariansen. Definition 5.12. Kovariansen C(X, Y ) definieras via C(X, Y ) = E(X Y ) E(X) E(Y ). Om C(X, Y ) = säger vi att X och Y är okorrelerade. Anmärkning 5.13. Av definitionen av kovariansen följer att om X och Y är oberoende, så är C(X, Y ) =. Följande räknelagar för variansen gäller. Sats 5.14. Det gäller att 1. V (ax + b) = a 2 V (X) 2. V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ). 3. Om X och Y är oberoende, så är (a) V (ax + by ) = a 2 V (X) + b 2 V (Y ). (b) σ ax+by = a 2 σx 2 + b2 σy 2. Bevis: 1. Steiners sats V (X) = E(X 2 ) (E(X)) 2 ger att V (ax + b) = E((aX + b) 2 ) (E(aX + b)) 2 = E(a 2 X 2 + 2abX + b 2 ) (E(aX + b)) 2 Eftersom E är linjär och E(b) = b (ty b ej s.v.), så fås V (ax + b) = a 2 E(X 2 ) + 2abE(X) + E(b 2 ) (ae(x) + b) 2 = a 2 E(X 2 ) + 2abE(X) + b 2 a 2 (E(X)) 2 2abE(X) b 2 = a 2 (E(X 2 ) E(X)) 2 ) = a 2 V (X). 2. Enligt 1) ovan så V (ax + by ) = E((aX + by ) 2 ) (E(aX + by )) 2 = a 2 E(X 2 ) + 2abE(XY ) + b 2 E(Y 2 ) (ae(x) + be(y )) 2 = a 2 E(X 2 ) + 2abE(XY ) + b 2 E(Y 2 ) a 2 (E(X)) 2 2abE(X)E(Y ) b 2 (E(Y )) 2 = a 2 [E(X 2 ) (E(X)) 2 ] + b 2 [E(Y 2 ) (E(Y )) 2 ] + 2ab[E(XY ) E(X)E(Y )] = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ). 3a. Om X och Y är oberoende, så är C(X, Y ) = och därmed följer ur 2) att V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ) = a 2 V (X) + b 2 V (Y ). 8
3b. Eftersom D 2 (X) = V (X), D 2 (Y ) = V (Y ) och D 2 (ax + by ) = V (ax + by ), så följer ur 3a) att D 2 (ax + by ) = V (ax + by ) = a 2 V (X) + b 2 V (Y ) = a 2 D 2 (X) + b 2 D 2 (Y ). Exempel 5.15. Antag att E(X) = 2, E(X 2 ) = 5, E(Y ) = 1 och V (Y ) = 3, där X och Y är oberoende s.v. Beräkna E(XY ), E(X 2 Y 2 ) samt D(6X 7Y ). Lösning: Eftersom X och Y är oberoende s.v., så E(XY ) = E(X)E(Y ) = 2 1 = 2. Vidare, eftersom V (Y ) = E(Y 2 ) (E(Y )) 2, dvs E(Y 2 ) = V (Y ) + (E(Y )) 2 = 3 + 1 = 4, så följer att E(X 2 Y 2 ) = E(X 2 )E(Y 2 ) = 2 4 = 8. Eftersom V (X) = E(X 2 ) (E(X)) 2 = 5 2 2 = 1, så D 2 (6X 7Y ) = V (6X 7Y ) = V (6X +( 7)Y ) = 6 2 V (X)+( 7) 2 V (Y ) = 36+49 3 = 183. Alltså så är D(6X 7Y ) = 13.5. Exempel 5.16. Låt X 1 och X 2 vara oberoende s.v. med samma sannolikhetsfunktion p X () = 1 4, p X(1) = 1 2 och p X(2) = 1. Bestäm sannolikhetsfunktion, väntevärde och 4 varians för summan Y = X 1 + X 2. Lösning: Den s.v. Y antar värdena k =, 1, 2, 3, 4. 1. Eftersom X 1 och X 2 är oberoende s.v., så ges sannolikhetsfunktionen för Y av p Y (y) = P (Y = k) = Detta ger för i+j=k p X1 X 2 (i, j) = k = : P (Y = ) = p X1 () p X2 () = 1 16 i+j=k p X1 (i)p X2 (j) = k p X1 (n)p X2 (n k) n= k = 1: P (Y = 1) = p X1 () p X2 (1) + p X1 (1) p X2 () = 1 4 k = 2: P (Y = 2) = p X1 () p X2 (2) + p X1 (1) p X2 (1) + p X1 (2) p X2 () = 3 8 k = 3: P (Y = 3) = p X1 (1) p X2 (2) + p X1 (2) p X2 (1) = 1 4 k = 4: P (Y = 4) = p X1 (2) p X2 (2) = 1 4 16 En kontroll visar att p Y (k) = 1. 2. Väntevärdet för Y blir E(Y ) = k= k= 4 1 kp Y (k) = 16 + 1 1 4 + 2 3 8 + 3 1 4 + 4 1 16 = 2. 9
3. Väntevärdet för X 1 är E(X 1 ) = 2 n= På samma sätt så är E(X 2 ) = 1. Detta ger att n p X1 (n) = 1 4 + 1 1 2 + 2 1 4 = 1. E(Y ) = E(X 1 + X 2 ) = E(X 1 ) + E(X 2 ) = 2. 4. Eftersom så är E(X 2 1) = 2 n= n 2 p X1 (n) = 2 1 4 + 12 1 2 + 22 1 4 = 3 2 V (X 1 ) = E(X 2 1) (E(X 1 )) 2 = 1 2 På samma sätt följer att V (X 2 ) = 1. Därmed har vi att 2 V (Y ) = V (X 1 + X 2 ) = V (1 X 1 + 1 X 2 ) = 1 2 V (X 1 ) + 1 2 V (X 2 ) = 1 2 + 1 2 = 1. Exempel 5.17. Låt (X, Y ) vara en kontinuerlig tvådimensionell s.v. Sätt { 8xy, < x < 1, < y < x, f XY (x, y) = annars. 1. Bestäm de marginella täthetsfunktionerna f X (x) resp. f Y (y). 2. Beräkna beroendemåttet kovariansen C(X, Y ) = E(XY ) E(X)E(Y ). Lösning: Verifiera först att f XY f X (x) = f y (y) = Vidare gäller att är en täthetsfunktion. Det följer att f XY (x, y) dy = 8 f XY (x, y) dx = 8 y x xy dy = 4x 3, < x < 1, xy dx = 4y(1 y 2 ), < y < 1. och Dessutom är E(X) = E(Y ) = E(XY ) = xf XY (x, y) dydx = yf XY (x, y) dydx = xyf XY (x, y) dydx = 8 xf X (x) dx = 4 5 yf Y (y) dy = 8 15. x x 2 y 2 dy = 4 9. 1
så att kovariansen är C(X, Y ) = E(XY ) E(X)E(Y ) = 4 225. Exempel 5.18. Den simultana täthetsfunktionen för den s.v. (X, Y ) ges av { 2(x + y), < x < 1, < y < x f XY (x, y) = annars. 1. Bestäm V (X). 2. Bestäm täthetsfunktionen för s.v. Z = Y X. Lösning: a) Eftersom den marginella täthetsfunktionen ges av så är f X (x) = f XY (x, y) dxdy = 2 x V (X) = E(X 2 ) (E(X)) 2 =.1. (x + y) dxdy = 3x 2, < x < 1, b) Fördelningsfunktionen ges av F Z (z) = P (Z < z) = 2 Därmed är täthetsfunktionen zx (x + y) dydx = 1 3 (2z + z2 ), < z < 1. f Z (z) = F Z(z) = 2 (1 + z), < z < 1. 3 Exempel 5.19. Ett system utgörs av en parallellkoppling av n komponenter och fungerar så länge som minst en av komponenterna fungerar. Antag att komponenternas livslängder X j Exp(µ), j = 1, 2,..., n är oberoende s.v. 1. Låt X vara systemets livslängd. Bestäm täthetsfunktionen f X (x) för X. 2. Bestäm systemets förväntade livslängd då n = 2. Lösning: a) Om X j Exp(µ), så är täthetsfunktionen f Xj (x) = 1 µ e x/µ, x > och fördelningsfunktionen F Xj (x) = x f Xj (t) dt = 1 e x/µ x >. 11
Eftersom systemet fungerar så länge en komponent fungerar så är X = max{x 1, X 2..., X n }. Då X j är oberoende följer att X har fördelningsfunktionen F X (x) = P (X x) = P (X 1, X 2..., X n < x) = P (X 1 < x, X 2..., X n < x) = P (X 1 < x) P (X 2 < x) P (X n < x) = (1 e x/µ ) n. Därmed har X täthetsfunktionen f X (x) = F X(x) = n µ e x/µ (1 e x/µ ) n 1, x >. b) Om n = 2, så är E(X) = xf X (x) dx = 2 µ x(e x/µ e 2x/µ ) dx = 3 2 µ. Exempel 5.2. Den kontinuerliga s.v. X har täthetsfunktionen f X (x) = { 2xe x 2, x annars. Låt Y = X 4 och beräkna E(Y ); dels direkt och dels genom att först beräkna och använda täthetsfunktionen för Y. Exempel 5.21. Bestäm väntevärdet för livslängden hos det seriekopplade systemet i Exempel 3.1 i FÖ3. (Jämför med Exempel 5.19 ovan). Exempel 5.22. Den s.v. X är likformigt fördelad på ( 1, 1). Låt Y = e X och beräkna E(Y ); dels direkt och dels genom att först beräkna och använda täthetsfunktionen för Y. 12
5.5. Stora talens lag Nedan formulerar vi en viktig lag inom teorin för sannolikhetsläran. Lagen säger att det aritmetiska medelvärdet av flera oberoende s.v. med samma väntevärde µ liggar nära µ, bara antalet är tillräckligt stort. Sats 5.23. Antag att X j, j = 1, 2,..., är oberoende s.v. sådana att E(X j ) = µ, j = 1, 2,.... Låt X n = 1 X k. n k=1 Då gäller för alla ε > att P (µ ε < X n < µ + ε) 1, n. För att bevisa satsen behöver man följande kända olikheter. Sats 5.24. Antag X vara en s.v. med väntevärde µ och standardavvikelse σ >. Låt k >. Då gäller 1. Markovs olikhet: 2. Chebyshevs olikhet: P (X k) µ k. P ( X µ kσ) 1 k 2. 13