SF1901: Sannolikhetslära och statistik

Relevanta dokument
SF1901: Sannolikhetslära och statistik. Mer om Approximationer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

Jörgen Säve-Söderbergh

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Föreläsning 8, Matematisk statistik Π + E

Kap 2. Sannolikhetsteorins grunder

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Kap 3: Diskreta fördelningar

SF1901: Sannolikhetslära och statistik

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

Formel- och tabellsamling i matematisk statistik

Föreläsning 5. Funktioner av slumpvariabler. Ett centralt resultat.

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Föreläsning 6, Repetition Sannolikhetslära

4.1 Grundläggande sannolikhetslära

Matematisk statistik KTH. Formelsamling i matematisk statistik

Centrala gränsvärdessatsen (CGS). Approximationer

SF1901: Sannolikhetslära och statistik

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

Våra vanligaste fördelningar

Matematisk statistik för D, I, Π och Fysiker

4 Diskret stokastisk variabel

SF1901: Sannolikhetslära och statistik

Lektionsanteckningar 11-12: Normalfördelningen

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

bli bekant med summor av stokastiska variabler.

Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2

Matematisk statistik för B, K, N, BME och Kemister

SF1901 Sannolikhetsteori och statistik I

Datorövning 2 Betingad fördelning och Centrala gränsvärdessatsen

Problemdel 1: Uppgift 1

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

0 om x < 0, F X (x) = c x. 1 om x 2.

Grundläggande matematisk statistik

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall) Jan Grandell & Timo Koski

Avd. Matematisk statistik

Föreläsning 3. Sannolikhetsfördelningar

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

TMS136. Föreläsning 7

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

SF1901 Sannolikhetsteori och statistik I

SF1911: Statistik för bioteknik

TMS136. Föreläsning 4

F6 STOKASTISKA VARIABLER (NCT ) Används som modell i situation av följande slag: Slh för A är densamma varje gång, P(A) = P.

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall)

Betingning och LOTS/LOTV

Föreläsningsanteckningar i Matematisk Statistik. Jan Grandell

1.1 Diskret (Sannolikhets-)fördelning

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

SF1901 Sannolikhetsteori och statistik I

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Föreläsning G70 Statistik A

4.2.1 Binomialfördelning

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

SF1901 Sannolikhetsteori och statistik I

4. Stokastiska variabler

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Grundläggande matematisk statistik

Föreläsning 7: Punktskattningar

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

(a) Avgör om A och B är beroende händelser. (5 p) (b) Bestäm sannolikheten att A inträffat givet att någon av händelserna A och B inträffat.

modell Finansiell statistik, vt-05 Modeller F5 Diskreta variabler beskriva/analysera data Kursens mål verktyg strukturera omvärlden formellt

a) Beräkna sannolikheten att en följd avkodas fel, det vill säga en ursprungliga 1:a tolkas som en 0:a eller omvänt, i fallet N = 3.

Tentamen i Tillämpad Matematik och statistik för IT-forensik. Del 2: Statistik 7.5 hp

F9 SAMPLINGFÖRDELNINGAR (NCT

Föreläsning G60 Statistiska metoder

Föreläsning 4: Konfidensintervall (forts.)

Föreläsning 7: Punktskattningar

SF1901: SANNOLIKHETSLÄRA OCH STATISTIK. MER HYPOTESPRÖVNING. χ 2 -TEST. Jan Grandell & Timo Koski

Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar

Statistik 1 för biologer, logopeder och psykologer

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

Tentamen LMA 200 Matematisk statistik,

Matematisk statistik, LMA 200, för DAI och EI den 25 aug 2011

Veckoblad 3. Kapitel 3 i Matematisk statistik, Dahlbom, U.

Avd. Matematisk statistik

Detta formelblad får användas under både KS2T och KS2D, samt ordinarie tentamen. x = 1 n. x i. with(stats): describe[mean]([3,5]); 4.

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

Tentamen i Matematisk Statistik, 7.5 hp

7. NÅGRA SPECIELLA DISKRETA SANNOLIKHETSFÖRDELNINGAR

Föreläsning 12: Regression

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar

Samplingfördelningar 1

Föreläsning 2, FMSF45 Slumpvariabel

Repetition och förberedelse. Sannolikhet och sta.s.k (1MS005)

Tentamen i matematisk statistik (92MA31, STN2) kl 08 12

Transkript:

SF1901: Sannolikhetslära och statistik Föreläsning 8. Approximationer av sannolikhetsfördelningar Jan Grandell & Timo Koski 11.02.2016 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 1 / 40

Centrala gränsvärdessatsen Vi har sett några exempel på att normalfördelningen har trevliga statistiska egenskaper. Detta skulle vi inte ha så stor glädje av, om normalfördelningen inte dessutom var vanligt förekommande. Centrala gränsvärdessatsen CGS, som är den huvudsakliga motiveringen för normalfördelningen, kan utan vidare sägas vara ett av sannolikhetsteorins och statistikens allra viktigaste resultat. Sats (CGS) Låt X 1,X 2,... vara oberoende och lika fördelade s.v. med väntevärde µ och standardavvikelse σ. Då gäller att ( n ) P i=1 X i nµ σ x Φ(x) då n. n Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 2 / 40

CGS Ofta uttrycker man slutsatsen i CGS som att n i=1x i nµ σ n är approximativt N(0, 1)-fördelad eller att n X i är approximativt N ( nµ, σ n ) -fördelad. i=1 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 3 / 40

Diskreta st. v:er: Binomialfördelningen Definition En diskret s.v. X säges vara binomialfördelad med parametrarna n och p, Bin(n, p)-fördelad, om ( ) n p X (k) = p k (1 p) n k, för k = 0,1,...,n. k Vi skriver detta med X Bin(n,p). Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 4 / 40

Diskreta st. v:er: Binomialfördelningen De generella villkoren för detta: n oberoende upprepningar av ett försök. varje försök har två utfall, 0 och 1. sannolikheten för lyckat försök (=1) är densamma = p vid varje försök. X = antalet lyckade försök. ( ) n p X (k) = p k (1 p) n k, för k = 0,1,...,n. k Vi skriver detta med X Bin(n,p). Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 5 / 40

Binomialfördelningen Antag att vi gör ett försök där en händelse A, med sannolikheten p = P(A), kan inträffa. Vi upprepar försöken n gånger, där försöken är oberoende. Sätt X = antalet gånger som A inträffar i de n försöken. Vi säger då att X är binomialfördelad med parametrarna n och p, eller kortare att X är Bin(n, p)-fördelad. Vi har ( ) n p X (k) = p k q n k, för k = 0,...,n, k där q = 1 p. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 6 / 40

X Bin(n,p), X = U 1 +...+U n Låt U 1,...,U n vara s.v. definierade av { 0 om A inträffar i försök nummer i, U i = 1 om A inträffar i försök nummer i. Lite eftertanke ger att U 1,...,U n är oberoende och att X = U 1 +...+U n. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 7 / 40

X Bin(n,p), X = U 1 +...+U n Då och E(U i ) = 0 (1 p)+1 p = p V(U 1 ) = E(U 2 i ) E(U i ) 2 = E(U i ) E(U i ) 2 = p p 2 = p(1 p) så följer E(X) = ne(u i ) = np och V(X) = nv(u i ) = npq. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 8 / 40

Bin(n,p) approximativt N(np, npq)-fördelad Av Xs representation som en summa följer att CGS kan tillämpas. Sats Om X är Bin(n,p)-fördelad med npq 10 så är X approximativt N(np, npq)-fördelad. Detta innebär att } P(X k) P(X < k) ( ) k np Φ. npq Med halvkorrektion menas att vi använder följande approximation: ( k + 1 2 P(X k) Φ np ), npq ( k 1 2 P(X < k) Φ np ). npq Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 9 / 40

Binomial distribution: approximation For p = 0.5 and n = 15 the Binomial distribution with mean 15 0.5 = 7.5, and variance 15 0.5 0.5 = 3.75. The curve in the right hand figure µ = 7.5 and σ 2 = 3.75. 1 σ 2π e (x µ)2 /2σ 2 0.2 0.25 0.18 0.16 0.2 0.14 0.12 0.15 0.1 0.08 0.1 0.06 0.04 0.05 0.02 0 0 5 10 15 0 0 5 10 15 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 10 / 40

The Galton Board Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 11 / 40

The Galton Board Experiment The Galton board experiment consists of performing n trials with probability of success p. The trial outcome are represented graphically as a path in the Galton board: success corresponds to a bounce to the right and failure to a bounce to the left. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 12 / 40

The Galton Board Experiment: Bell Shape Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 13 / 40

The Galton Board Experiment An applet for the Galton board experiment http://www.math.uah.edu/stat/applets/galtonboardexperiment.html Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 14 / 40

Galtons Quincunx Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 15 / 40

CGS: en tillämpning på multiplikativa processer Sats Låt X 1,X 2,...,X n vara oberoende och likafördelade s.v. och positiva dvs. för all i har vi P (X i > 0) = 1. Om n är tillräckligt stort, så har Y = X 1 X 2 X n approximativt en lognormalfördelning. Bevis. lny = lnx 1 +lnx 2 +...+lnx n Således är lny en summa av oberoende likafördelade s.v. er (dvs. lnx i na) och därmed enligt CGS approximativt normalfördelad om n är tillräckligt stort, och därför är Y approximativt lognormalfördelad, om n är tillräckligt stort. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 16 / 40

Extra: Lognormalfördelning Antag att Z är en positiv stokastisk variabel, dvs. P (Z > 0) = 1. Vi sätter Y = lnz och ANTAR att Y N(µ, σ). Vad är fördelningen för Z? Tag z > 0. Derivering ger F Z (z) = P (Z z) = P(lnZ lnz) ( Y µ = P (Y lnz) = P lnz µ ) σ σ ( ) lnz µ = Φ σ f Z (z) = d ( lnz µ dz F Z(z) = ϕ σ ) 1 σz = = 1 σz 2π e (lnz µ)2 /2σ2 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 17 / 40

Nytt: Lognormalfördelning Z är en positiv stokastisk variabel, d.v.s. P (Z > 0) = 1 och Y = lnz N(µ, σ) f Z (z) = { 1 σz 2π e (lnz µ)2 /2σ 2 för z 0, 0 för z < 0. Vi säger att Z är lognormalfördelad, Z LN(µ, σ). Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 18 / 40

Lognormalfördelning Z LN(µ, σ). Observera att µ och σ INTE är väntevärde och standardavvikelse för Z. Man kan i själva verket härleda att ( ) E (Z) = e µ+σ2 /2,V (Z) = e 2µ+σ2 e σ2 1 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 19 / 40

Lognormalfördelning Z LN(1,1) E (Z) = 4.48, V (Z) = 34.5 Z LN(2,1) E (Z) = 12.18, V (Z) = 255.0 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 20 / 40

Poissonfördelningen Definition En diskret s.v. X säges vara Poissonfördelad med parameter µ, Po(µ)-fördelad, om p X (k) = µk k! e µ, för k = 0,1.... Vi påminner om att om X är Po(µ)-fördelad, så gäller E(X) = µ och V(X) = µ. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 21 / 40

Summan av två oberoende diskreta: faltningsformeln Ett hjälpresultat: X och Y vara oberoende diskreta variabler. k är ett icke-negativt heltal, ( ) P(X +Y = k) = P k i=0{x = i Y = k i} = k P ({X = i Y = k i}), i=0 ty händelserna i unionen är diskjunkta. Oberoendet ger = och vi har den s.k. faltningsformeln P(X +Y = k) = k P ({X = i})p ({Y = k i}), i=0 k k p X (i)p Y (k i) = p X (k i)p Y (i). i=0 i=0 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 22 / 40

Summan av två oberoende Poissonfördelade Poissonfördelningen är den viktigaste diskreta fördelningen, och har t.ex. följande trevliga egenskap. Sats Om X och Y vara oberoende Po(µ X )- resp. Po(µ Y )-fördelade s.v. Då gäller att X +Y är Po(µ X + µ Y )-fördelad. Bevis. Hjälpresultatet (faltningsformeln) ovan ger P(X +Y = k) = k k µ P(X = i)p(y = k i) = i X i=0 i=0 i! k i=0 µ i X µ(k i) Y e µ µ(k i) X Y (k i)! e µ Y = e (µ X+µ Y ) i!(k i)! = e (µ X+µ Y ) (µ X + µ Y ) k k ( )( ) k i ( ) (k i) µx µy k!. i=0 i µ X + µ Y µ X + µ Y }{{} = 1, enl. Binomialsatsen. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 23 / 40

Approximation av Po(µ) Om bägge villkoren p 0.1 och npq 10 är uppfyllda kan vi välja om vi vill Poissonapproximera eller normalapproximera. Detta är ingen motsägelse, som följande sats visar. Sats Om X är Po(µ)-fördelad med µ 15 så är X approximativt N(µ, µ)-fördelad. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 24 / 40

Diskreta st. v:er: Poissonfördelningen Ofta när det är rimligt att anta att en s.v. X är Bin(n,p)-fördelad, så är det även rimligt att anta att p är liten och att n är stor. Låt oss anta att p = µ/n, där n är stor men µ är lagom. Då gäller ( ) n p X (k) = p k (1 p) n k n(n 1)...(n k +1) ( µ k ( = 1 k k! n) µ ) n k n = µk ( 1 µ k! n ) n n(n 1)...(n k +1) }{{} n k 1 µ }{{}}{{ n } e µ 1 1 ( ) k µk k! e µ. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 25 / 40

Approximation med Po(np) Vi kan alltså införa Poissonfördelningen som en approximation av binomialfördelningen. Detta kan vi formalisera till följande sats. Sats Om X är Bin(n,p)-fördelad med p 0.1 så är X approximativt Po(np)-fördelad. I vår approximation antog vi även att n var stor. Detta är inte nödvändigt, men vårt enkla resonemang fungerar inte utan denna extra förutsättning. Man kan visa att om X är Bin(n,p) och Y är Po(np) så gäller att P(X = k) P(Y = k) np 2. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 26 / 40

Ett exempel : approximation med Po(np), I en datalänk växlar de binära siffrorna eller bitarna (0 och 1) polaritet dvs. 0 övergår i 1 eller omvänt med sannolikheten 10 7. En viss bit i en bitgrupp växlar polaritet oberoende av alla de andra bitarna. Protokollet i datalänken kontrollerar en bitgrupp som omfattar 8000000 ( 1 Mbyte ) bitar. Felkontrollen upptäcker om fem eller flera bitar fått sina polariteter omkastade i bitgruppen. Om fem eller flera polaritetsväxlingar har upptäckts, begärs av protokollet en upprepad överföring av denna bitgrupp. Vi säger att en överföring lyckas om en upprepad överföring av bitgruppen inte kommer att begäras. De olika överföringarna av en och samma bitgrupp antas vara oberoende av varandra. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 27 / 40

Approximation med Po(np), ett exempel: forts. Betrakta den stokastiska variabeln X = antalet överföringar av en bitgrupp om 8000000 bitar som behövs för att överföringen skall lyckas för första gången, den lyckade överföringen medräknad. Sökt: väntevärdet för X. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 28 / 40

Exempel: forts. Låt p s beteckna sannolikheten för att en ny överföring av en bitgrupp om 8000000 bitar lyckas dvs. p s = sannolikheten för högst fyra växlingar av polaritet. Den stokastiska variabeln X har ffg (p s ) - fördelningen eller För-första-gången -fördelningen p.g.a. att de olika överföringarna är oberoende och p.g.a. att den lyckade överföringen medräknas. Dvs. P(X = k) = (1 p s ) k 1 p s, k = 1,2,3,..., En enkel kalkyl ger väntevärdet E (X) = 1 p s (se kursens formelsamling). Därmed behöver vi p s. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 29 / 40

Exempel: forts. Låt Z vara antalet bitar som får sin polaritet omkastad, när en bitgrupp om 8000000 bitar överförs. Då fås p s = P (Z 4). P.g.a. att bitarna i en bitgrupp växlar polaritet oberoende av varandra är vi ledda till den statiska modellen Z Bin(8000000,10 7 ), dvs. att Z är binomialfördelad med parametrarna n = 8000000 och p = 10 7. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 30 / 40

Exempel: forts. Vi beräknar p s med en approximation av binomialfördelningen Bin(8000000,10 7 ) med Poissonfördelningen med parametern n p = 0.8. Denna approximation är rimlig, ty p = 10 7 0.1. Vi har alltså att Z är approximativt Po(0.8)- fördelad. Tabellsamlingen ger med Poissonfördelningen Po(0.8) approximationen p s = P (Z 4) 0.99859. SVAR: E (X) 1 0.99859 1.0014. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 31 / 40

Exempel: uppskattningen ovan X Bin(8000000,10 7 ) och Y är Po(0.8) så gäller att P(X = k) P(Y = k) np 2. P(X = k) P(Y = k) 8000000 10 14 = 8.0000e 08 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 32 / 40

Exempel: check mot MATLAB Statistics Toolbox >> help binocdf BINOCDF Binomial cumulative distribution function. Y=BINOCDF(X,N,P) returns the binomial cumulative distribution function with parameters N and P at the values in X. The size of Y is the common size of the input arguments. A scalar input functions as a constant matrix of the same size as the other inputs. The algorithm uses the cumulative sums of the binomial masses. See also binofit, binoinv, binopdf, binornd, binostat, cdf. >> binocdf(4,8000000,10 ( 7)) ans = 0.9986 Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 33 / 40

Urnor igen Vi påminner om urnmodellerna. Vi hade en urna med kulor av två slag: v vita och s svarta. Vi drog n kulor ur urnan slumpmässigt. Sätt A = Man får k vita kulor i urvalet. Dragning utan återläggning: Dragning med återläggning: P(A) = P(A) = (v k )( s n k ) ( v+s n ). ( )( ) n v k ( ) s n k. k v +s v +s Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 34 / 40

Hypergeometrisk fördelning Antag att vi har N enheter, där proportionen p, dvs Np stycken, har egenskapen A. Drag ett slumpmässigt urval om n stycken enheter. Sätt X = antalet enheter i urvalet med egenskapen A. I termer av urnmodellen för dragning utan återläggning gäller Np = v och N(1 p) = s om A = vit kula. Således fås p X (k) = P(X = k) = (Np k )(N(1 p) n k ) ( N n ), för 0 k Np och 0 n k N(1 p). Man säger att X är Hyp(N,n,p)-fördelad. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 35 / 40

Hypergeometrisk fördelning X är Hyp(N,n,p)-fördelad, man kan visa att E(X) = np och V(X) = N n N 1 np(1 p). Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 36 / 40

Approximationer, Hyp(N, n, p) Om n/n är någolunda liten, så verkar det troligt att det inte spelar så stor roll om vi drar med återläggning eller ej. Vi har ( Np k )(N(1 p) n k ) ( N n ) = = Np! k!(np k)! n! k!(n k)! N(1 p)! n!(n n)! (n k)![n(1 p) (n k)]! N! Np!(N(1 p)!(n n)! (Np k)![n(1 p) (n k)]!n! ( ) n p k q n k. k n! (Np) k (N(1 p)) n k k!(n k)! N n = Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 37 / 40

Approximationer, Hyp(N, n, p) Sats Om X är Hyp(N,n,p)-fördelad med n/n 0.1 så är X approximativt Bin(n, p)-fördelad. Sats Om X är Bin(n,p)-fördelad med npq 10 så är X approximativt N(np, npq)-fördelad. Detta innebär att } P(X k) P(X < k) ( ) k np Φ. npq Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 38 / 40

Approximation av Hyp(N, n, p) Av detta följer att Hyp(N,n,p) N(np, npq) om n/n 0.1 och npq 10. Det räcker dock att kräva N n N 1np(1 p) 10. Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 39 / 40

Sammanfattning n/n 0.1 {}}{ Hyp(N,n,p) Bin(n, p) N n N 1 np(1 p) 10 {}}{ N(np, npq) npq 10 {}}{ N(np, npq) µ 15 p 0.1 {}}{{}}{ Po( np ) N(µ, µ) }{{} =µ Jan Grandell & Timo Koski Matematisk statistik 11.02.2016 40 / 40