Väntevärde och varians

Relevanta dokument
SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

SF1901 Sannolikhetsteori och statistik I

Föreläsning 6, Matematisk statistik Π + E

SF1901: Sannolikhetslära och statistik

Föreläsning 5, Matematisk statistik Π + E

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

Stokastiska vektorer

Föreläsning 5, FMSF45 Summor och väntevärden

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

Kap 2. Sannolikhetsteorins grunder

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Stokastiska vektorer och multivariat normalfördelning

Övning 1 Sannolikhetsteorins grunder

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Föreläsning 6, FMSF45 Linjärkombinationer

SF1901: Sannolikhetslära och statistik

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Föreläsning 7: Punktskattningar

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

Sannolikhet och statistik XI

Föreläsning 7: Punktskattningar

2 x dx = [ x ] 1 = 1 ( 1 (1 0.9) ) 100 = /

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Matematisk statistik för D, I, Π och Fysiker

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 7: Stokastiska vektorer

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

Föreläsning 7: Punktskattningar

Summor av slumpvariabler

SF1911: Statistik för bioteknik

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

Stokastiska signaler. Mediesignaler

TMS136. Föreläsning 4

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

9. Konfidensintervall vid normalfördelning

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Oberoende stokastiska variabler

TAMS79: Matematisk statistik vt 2013

FINGERÖVNINGAR I SANNOLIKHETSTEORI MATEMATISK STATISTIK AK FÖR I. Oktober Matematikcentrum Matematisk statistik

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

Kurssammanfattning MVE055

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

F7 forts. Kap 6. Statistikens grunder, 15p dagtid. Stokastiska variabler. Stokastiska variabler. Lite repetition + lite utveckling av HT 2012.

FACIT: Tentamen L9MA30, LGMA30

FACIT: Tentamen L9MA30, LGMA30

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Grundläggande matematisk statistik

Introduktion till statistik för statsvetare

SF1901: Sannolikhetslära och statistik

Bengt Ringnér. September 20, Detta är föreläsningsmanus på lantmätarprogrammet LTH vecka 5 HT07.

Matematisk statistik för B, K, N, BME och Kemister

Bengt Ringnér. October 30, 2006

Statistiska metoder för säkerhetsanalys

Formel- och tabellsamling i matematisk statistik

TENTAMEN I STATISTIKENS GRUNDER 1

Föreläsning 8 för TNIU23 Integraler och statistik

TENTAMEN MÅNDAGEN DEN 22 OKTOBER 2012 KL a) Bestäm P(ingen av händelserna inträffar). b) Bestäm P(exakt två av händelserna inträffar).

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

SF1901: Övningshäfte

Centrala gränsvärdessatsen (CGS). Approximationer

Matematisk statistik 9 hp Föreläsning 4: Flerdim

Några extra övningsuppgifter i Statistisk teori

Matematisk statistik TMS063 Tentamen

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Sannolikheter och kombinatorik

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

TMS136. Föreläsning 5

SF1901: Sannolikhetslära och statistik

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

TMS136. Föreläsning 5

TAMS79: Föreläsning 6. Normalfördelning

Tentamen i Matematisk Statistik, 7.5 hp

Uppgift 1. P (A) och P (B) samt avgör om A och B är oberoende. (5 p)

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

TAMS65 - Föreläsning 1 Introduktion till Statistisk Teori och Repetition av Sannolikhetslära

Statistiska metoder för säkerhetsanalys

19.1 Funktioner av stokastiska variabler

Enkel och multipel linjär regression

Simulering av elmarknader. EG2205 Föreläsning 11, vårterminen 2016 Mikael Amelin

histogram över 1000 observerade väntetider minuter 0.06 f(x) täthetsfkn x väntetid

Formler och tabeller till kursen MSG830

Föresläsningsanteckningar Sanno II

Föreläsning 15: Försöksplanering och repetition

Antal ögon Vinst (kr) Detta leder till följande uttryck E(x) = x x p X(x) x f X(x)dx

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

Mer om slumpvariabler

BIOSTATISTISK GRUNDKURS, MASB11, VT-16, VT2 ÖVNING 3, OCH INFÖR ÖVNING 4

Transkript:

TNG6 F5 19-4-216 Väntevärde och varians Exempel 5.1. En grupp teknologer vid ITN slår sig ihop för att starta ett företag som utvecklar datorspel. Man vet att det är 8% chans för ett felfritt spel som kan säljas för fullt pris 595 kr. Dock finns det 15% chans att fel uppstår som gör att spelet säljs till det reducerade priset 44 kr. Dessutom finns det 5% chans att spelet pga fel kasseras till kostnad av 18 kr. För att kunna säga något om vinsten per spel resonerar gruppen som man gjorde i kursen TNG6. Lösning: Antag att man tillverkar N spel, där N 1 av dem säljes till ett fullt pris, N 2 säljes till ett reducerat pris och N 3 kasseras, så att N = N 1 + N 2 + N 3. Den totala vinsten blir Vinsten per spel blir 595N 1 + 44N 2 18N 3. 595N 1 + 44N 2 18N 3 N För ett stort antal tillverkade spel bör = 595 N 1 N + 44N 2 N 18N 3 N. Då blir vinsten per spel approximativt N 1 N.8, N 2 N.15, N 3 N.5. 595.8 + 44.15 18.5 = 533. Vi har räknat ut en förväntad vinst per spel. Vi kan också resonera så här. Låt X = vinsten per spel. Då är X en diskret s.v. som antar värdena x = 18, 44, 595 och har sannolikhetsfunktionen P (X = 18) =.5, P (X = 44) =.15, P (X = 595) =.8. Den förväntade vinsten per spel är då E(X) = 18 P (X = 18) + 44 P (X = 44) + 595 P (X = 595) = 533. Vi kallar E(X) för väntevärdet för den s.v. X och gör följande definition. 1

5.1. Väntevärde Definition 5.2. Väntevärdet för den s.v. X definieras av x p X (x) diskret s.v., x E(X) = x f X (x) dx kontinuerlig. s.v. Andra beteckningar är µ eller µ X. Tolkning: Väntevärdet är ett lägesmått som anger var sannolikhetsmassan ligger i genomsnitt. T.ex har vi i envariabelanalysen visat att E(X) är x-koordinaten för tyngdpunkten för den plana ytan under grafen till y = f(x). Exempel 5.3. Bestäm väntevärdet till den diskreta s.v. X som har sannolikhetsfunktionen p X (k) =.5, k = 1, 2,..., 8 p X (9) =.6 p X (k) = för övrigt Lösning: Det följer att E(X) = 9 kp X (k) = (1 + 2 + 3 + 4 + 5 + 6 + 7 + 8).5 + 9.6 = 7.2 k=1 I det exemplet ser vi att väntevärdet 7.2 är ett bättre lägesmått på sannolikhetsmassan än medianen 5. (Medianen är 5 eftersom det finns lika många tal till höger som till vänster om just talet 5.) 2

Exempel 5.4. Bestäm väntevärdet till en exponentialfördelad s.v. X med täthetsfunktionen f X (x) = 1 µ e x/µ, x. Beräkna också medianen för X. I figuren nedan är µ = 2 och medianen 1.38. 3

Nästa sats visar hur man beräknar väntevärdet för funktioner av s.v. Sats 5.5. Låt Y = g(x). Då är g(x) p X (x) x E(Y ) = g(x)f X (x) dx diskret s.v., kontinuerlig. s.v. Låt Z = g(x, Y ). Då är E(Z) = g(x, y) p XY (x, y) x y g(x, y)f XY (x, y) dxdy diskret s.v., kontinuerlig. s.v. Exempel 5.6. Antag att f X,Y (x, y) = 2, då < y < x < 1. Bestäm E(X 2 Y ). Lösning: 5.2. Varians Vi använder Sats 5.5 till att definiera ett spridningsmått. Definition 5.7. Låt X vara en s.v. 1. Variansen, V (X), är ett mått på hur utspridd sannolikhetsmassan är för den s.v. X och definieras via V (X) = E((X µ) 2 ). 2. Standardavvikelsen definieras via D(X) = V (X). Standardavvikelsen betecknas också σ eller σ X. 4

I figuren ser vi hur sannolikhetsmassan är utspridd för olika värden på variansen. Grafen med högsta toppen har σ =.25, grafen med näst högsta topp har σ = 1 och grafen med lägsta topp har σ = 2. Ofta är det enklast att beräkna variansen enligt nästa sats. Sats 5.8. Steiners sats. V (X) = E(X 2 ) (E(X)) 2. Bevis: Enligt Definition 5.7, så är V (X) = E((X µ) 2 )) = Eftersom E(X 2 ) = så följer att = x 2 f X (x) dx 2µ (x µ) 2 f X (x) dx x 2 f X (x) dx, µ = E(X) = xf X (x) dx + µ 2 f X (x) dx xf X (x) dx och V (X) = E(X 2 ) 2µ 2 + µ 2 = E(X 2 ) µ 2 = E(X 2 ) (E(X)) 2. x 2 f X (x) dx = 1, Exempel 5.9. Experiment visar att en kontinuerlig s.v. X kan ha en linjär täthetsfunktion f X (x). Man vet också att X har väntevärdet E(X) = 7/12. 1. Bestäm konstanterna a och b så att f X (x) = { ax + b, < x < 1 annars blir en täthetsfunktion. 2. Bestäm variansen V (X). 3. Bestäm sannolikheten för att X >.1 givet att X <.5, dvs P (X >.1 X <.5). Lösning: : 5

1. f X måste uppfylla samt 1 = 7 12 = E(X) = f X (x) dx = Detta ger att a = 1 och b = 1/2. 2. Variansen ges av xf X (x) dx = V (X) = E(X 2 ) (E(X)) 2 = (ax + b) dx = a/2 + b x 2( x + 1 2 x(ax + b) dx = a 3 + b 2. ) ( 7 ) 2 11 dx = 12 144. 3. P (X >.1 X <.5) = P (.1 < x <.5) P (X <.5) =.5.1 (x + 1/2) dx.5 (x + 1/2) dx =.85. Exempel 5.1. Beräkna variansen för 1. s.v. X Exp(µ). 2. s.v. Y 2 då Y Re(, 1) 6

5.3. Räknelagar för väntevärde Följande räknelagar för väntevärde gäller. Sats 5.11. Låt X och Y vara s.v. Då är 1. E(aX + b) = ae(x) + b (E är linjär!) 2. E(aX + by ) = ae(x) + be(y ) 3. Om X och Y är oberoende så E(XY ) = E(X) E(Y ). Bevis: 1. Vi har att E(aX + b) = 2. Eftersom f X (x) = E(aX + by ) = (ax + b)f X (x) dx = a = a = a f XY (x, y) dy och f Y (y) = xf X (x) dx + b f X (x) dx = ae(x) + b. (ax + by)f XY (x, y) dxdy ( ) x f XY (x, y) dy dx + b xf X (x) dx + b = ae(x) + be(y ) 3. Om X och Y är oberoende så E(XY ) = = xyf XY (x, y) dxdy = xf X (x) dx = E(X)E(Y ) yf X (x) dy yf Y (y) dy f XY (x, y) dx, så får vi att ( ) y f XY (x, y) dx dy xyf X (x)f Y (y) dxdy 7

5.4. Räknelagar för variansen Ett beroendemått mellan X och Y är kovariansen. Definition 5.12. Kovariansen C(X, Y ) definieras via C(X, Y ) = E(X Y ) E(X) E(Y ). Om C(X, Y ) = säger vi att X och Y är okorrelerade. Anmärkning 5.13. Av definitionen av kovariansen följer att om X och Y är oberoende, så är C(X, Y ) =. Följande räknelagar för variansen gäller. Sats 5.14. Det gäller att 1. V (ax + b) = a 2 V (X) 2. V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ). 3. Om X och Y är oberoende, så är (a) V (ax + by ) = a 2 V (X) + b 2 V (Y ). (b) σ ax+by = a 2 σx 2 + b2 σy 2. Bevis: 1. Steiners sats V (X) = E(X 2 ) (E(X)) 2 ger att V (ax + b) = E((aX + b) 2 ) (E(aX + b)) 2 = E(a 2 X 2 + 2abX + b 2 ) (E(aX + b)) 2 Eftersom E är linjär och E(b) = b (ty b ej s.v.), så fås V (ax + b) = a 2 E(X 2 ) + 2abE(X) + E(b 2 ) (ae(x) + b) 2 = a 2 E(X 2 ) + 2abE(X) + b 2 a 2 (E(X)) 2 2abE(X) b 2 = a 2 (E(X 2 ) E(X)) 2 ) = a 2 V (X). 2. Enligt 1) ovan så V (ax + by ) = E((aX + by ) 2 ) (E(aX + by )) 2 = a 2 E(X 2 ) + 2abE(XY ) + b 2 E(Y 2 ) (ae(x) + be(y )) 2 = a 2 E(X 2 ) + 2abE(XY ) + b 2 E(Y 2 ) a 2 (E(X)) 2 2abE(X)E(Y ) b 2 (E(Y )) 2 = a 2 [E(X 2 ) (E(X)) 2 ] + b 2 [E(Y 2 ) (E(Y )) 2 ] + 2ab[E(XY ) E(X)E(Y )] = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ). 3a. Om X och Y är oberoende, så är C(X, Y ) = och därmed följer ur 2) att V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2abC(X, Y ) = a 2 V (X) + b 2 V (Y ). 8

3b. Eftersom D 2 (X) = V (X), D 2 (Y ) = V (Y ) och D 2 (ax + by ) = V (ax + by ), så följer ur 3a) att D 2 (ax + by ) = V (ax + by ) = a 2 V (X) + b 2 V (Y ) = a 2 D 2 (X) + b 2 D 2 (Y ). Exempel 5.15. Antag att E(X) = 2, E(X 2 ) = 5, E(Y ) = 1 och V (Y ) = 3, där X och Y är oberoende s.v. Beräkna E(XY ), E(X 2 Y 2 ) samt D(6X 7Y ). Lösning: Eftersom X och Y är oberoende s.v., så E(XY ) = E(X)E(Y ) = 2 1 = 2. Vidare, eftersom V (Y ) = E(Y 2 ) (E(Y )) 2, dvs E(Y 2 ) = V (Y ) + (E(Y )) 2 = 3 + 1 = 4, så följer att E(X 2 Y 2 ) = E(X 2 )E(Y 2 ) = 2 4 = 8. Eftersom V (X) = E(X 2 ) (E(X)) 2 = 5 2 2 = 1, så D 2 (6X 7Y ) = V (6X 7Y ) = V (6X +( 7)Y ) = 6 2 V (X)+( 7) 2 V (Y ) = 36+49 3 = 183. Alltså så är D(6X 7Y ) = 13.5. Exempel 5.16. Låt X 1 och X 2 vara oberoende s.v. med samma sannolikhetsfunktion p X () = 1 4, p X(1) = 1 2 och p X(2) = 1. Bestäm sannolikhetsfunktion, väntevärde och 4 varians för summan Y = X 1 + X 2. Lösning: Den s.v. Y antar värdena k =, 1, 2, 3, 4. 1. Eftersom X 1 och X 2 är oberoende s.v., så ges sannolikhetsfunktionen för Y av p Y (y) = P (Y = k) = Detta ger för i+j=k p X1 X 2 (i, j) = k = : P (Y = ) = p X1 () p X2 () = 1 16 i+j=k p X1 (i)p X2 (j) = k p X1 (n)p X2 (n k) n= k = 1: P (Y = 1) = p X1 () p X2 (1) + p X1 (1) p X2 () = 1 4 k = 2: P (Y = 2) = p X1 () p X2 (2) + p X1 (1) p X2 (1) + p X1 (2) p X2 () = 3 8 k = 3: P (Y = 3) = p X1 (1) p X2 (2) + p X1 (2) p X2 (1) = 1 4 k = 4: P (Y = 4) = p X1 (2) p X2 (2) = 1 4 16 En kontroll visar att p Y (k) = 1. 2. Väntevärdet för Y blir E(Y ) = k= k= 4 1 kp Y (k) = 16 + 1 1 4 + 2 3 8 + 3 1 4 + 4 1 16 = 2. 9

3. Väntevärdet för X 1 är E(X 1 ) = 2 n= På samma sätt så är E(X 2 ) = 1. Detta ger att n p X1 (n) = 1 4 + 1 1 2 + 2 1 4 = 1. E(Y ) = E(X 1 + X 2 ) = E(X 1 ) + E(X 2 ) = 2. 4. Eftersom så är E(X 2 1) = 2 n= n 2 p X1 (n) = 2 1 4 + 12 1 2 + 22 1 4 = 3 2 V (X 1 ) = E(X 2 1) (E(X 1 )) 2 = 1 2 På samma sätt följer att V (X 2 ) = 1. Därmed har vi att 2 V (Y ) = V (X 1 + X 2 ) = V (1 X 1 + 1 X 2 ) = 1 2 V (X 1 ) + 1 2 V (X 2 ) = 1 2 + 1 2 = 1. Exempel 5.17. Låt (X, Y ) vara en kontinuerlig tvådimensionell s.v. Sätt { 8xy, < x < 1, < y < x, f XY (x, y) = annars. 1. Bestäm de marginella täthetsfunktionerna f X (x) resp. f Y (y). 2. Beräkna beroendemåttet kovariansen C(X, Y ) = E(XY ) E(X)E(Y ). Lösning: Verifiera först att f XY f X (x) = f y (y) = Vidare gäller att är en täthetsfunktion. Det följer att f XY (x, y) dy = 8 f XY (x, y) dx = 8 y x xy dy = 4x 3, < x < 1, xy dx = 4y(1 y 2 ), < y < 1. och Dessutom är E(X) = E(Y ) = E(XY ) = xf XY (x, y) dydx = yf XY (x, y) dydx = xyf XY (x, y) dydx = 8 xf X (x) dx = 4 5 yf Y (y) dy = 8 15. x x 2 y 2 dy = 4 9. 1

så att kovariansen är C(X, Y ) = E(XY ) E(X)E(Y ) = 4 225. Exempel 5.18. Den simultana täthetsfunktionen för den s.v. (X, Y ) ges av { 2(x + y), < x < 1, < y < x f XY (x, y) = annars. 1. Bestäm V (X). 2. Bestäm täthetsfunktionen för s.v. Z = Y X. Lösning: a) Eftersom den marginella täthetsfunktionen ges av så är f X (x) = f XY (x, y) dxdy = 2 x V (X) = E(X 2 ) (E(X)) 2 =.1. (x + y) dxdy = 3x 2, < x < 1, b) Fördelningsfunktionen ges av F Z (z) = P (Z < z) = 2 Därmed är täthetsfunktionen zx (x + y) dydx = 1 3 (2z + z2 ), < z < 1. f Z (z) = F Z(z) = 2 (1 + z), < z < 1. 3 Exempel 5.19. Ett system utgörs av en parallellkoppling av n komponenter och fungerar så länge som minst en av komponenterna fungerar. Antag att komponenternas livslängder X j Exp(µ), j = 1, 2,..., n är oberoende s.v. 1. Låt X vara systemets livslängd. Bestäm täthetsfunktionen f X (x) för X. 2. Bestäm systemets förväntade livslängd då n = 2. Lösning: a) Om X j Exp(µ), så är täthetsfunktionen f Xj (x) = 1 µ e x/µ, x > och fördelningsfunktionen F Xj (x) = x f Xj (t) dt = 1 e x/µ x >. 11

Eftersom systemet fungerar så länge en komponent fungerar så är X = max{x 1, X 2..., X n }. Då X j är oberoende följer att X har fördelningsfunktionen F X (x) = P (X x) = P (X 1, X 2..., X n < x) = P (X 1 < x, X 2..., X n < x) = P (X 1 < x) P (X 2 < x) P (X n < x) = (1 e x/µ ) n. Därmed har X täthetsfunktionen f X (x) = F X(x) = n µ e x/µ (1 e x/µ ) n 1, x >. b) Om n = 2, så är E(X) = xf X (x) dx = 2 µ x(e x/µ e 2x/µ ) dx = 3 2 µ. Exempel 5.2. Den kontinuerliga s.v. X har täthetsfunktionen f X (x) = { 2xe x 2, x annars. Låt Y = X 4 och beräkna E(Y ); dels direkt och dels genom att först beräkna och använda täthetsfunktionen för Y. Exempel 5.21. Bestäm väntevärdet för livslängden hos det seriekopplade systemet i Exempel 3.1 i FÖ3. (Jämför med Exempel 5.19 ovan). Exempel 5.22. Den s.v. X är likformigt fördelad på ( 1, 1). Låt Y = e X och beräkna E(Y ); dels direkt och dels genom att först beräkna och använda täthetsfunktionen för Y. 12

5.5. Stora talens lag Nedan formulerar vi en viktig lag inom teorin för sannolikhetsläran. Lagen säger att det aritmetiska medelvärdet av flera oberoende s.v. med samma väntevärde µ liggar nära µ, bara antalet är tillräckligt stort. Sats 5.23. Antag att X j, j = 1, 2,..., är oberoende s.v. sådana att E(X j ) = µ, j = 1, 2,.... Låt X n = 1 X k. n k=1 Då gäller för alla ε > att P (µ ε < X n < µ + ε) 1, n. För att bevisa satsen behöver man följande kända olikheter. Sats 5.24. Antag X vara en s.v. med väntevärde µ och standardavvikelse σ >. Låt k >. Då gäller 1. Markovs olikhet: 2. Chebyshevs olikhet: P (X k) µ k. P ( X µ kσ) 1 k 2. 13