SF1901: Sannolikhetslära och statistik. Mer om Approximationer

Relevanta dokument
SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

Jörgen Säve-Söderbergh

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

SF1901: Sannolikhetslära och statistik

Föreläsning 8, Matematisk statistik Π + E

Kap 3: Diskreta fördelningar

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

4 Diskret stokastisk variabel

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Kap 2. Sannolikhetsteorins grunder

4.1 Grundläggande sannolikhetslära

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

bli bekant med summor av stokastiska variabler.

Centrala gränsvärdessatsen (CGS). Approximationer

Våra vanligaste fördelningar

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

Föreläsning 6, Repetition Sannolikhetslära

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Grundläggande matematisk statistik

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

F6 STOKASTISKA VARIABLER (NCT ) Används som modell i situation av följande slag: Slh för A är densamma varje gång, P(A) = P.

Matematisk statistik KTH. Formelsamling i matematisk statistik

Föreläsning 5. Funktioner av slumpvariabler. Ett centralt resultat.

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall)

SF1901 Sannolikhetsteori och statistik I

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

Datorövning 2 Betingad fördelning och Centrala gränsvärdessatsen

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Matematisk statistik för D, I, Π och Fysiker

Problemdel 1: Uppgift 1

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall) Jan Grandell & Timo Koski

Formel- och tabellsamling i matematisk statistik

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

Föreläsningsanteckningar i Matematisk Statistik. Jan Grandell

Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

Tentamen i matematisk statistik (92MA31, STN2) kl 08 12

Repetition och förberedelse. Sannolikhet och sta.s.k (1MS005)

Avd. Matematisk statistik

Föreläsning 3. Sannolikhetsfördelningar

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Avd. Matematisk statistik

Tentamen LMA 200 Matematisk statistik,

modell Finansiell statistik, vt-05 Modeller F5 Diskreta variabler beskriva/analysera data Kursens mål verktyg strukturera omvärlden formellt

Matematisk statistik för B, K, N, BME och Kemister

SF1911: Statistik för bioteknik

Föreläsning G70 Statistik A

SF1901: SANNOLIKHETSLÄRA OCH STATISTIK. MER HYPOTESPRÖVNING. χ 2 -TEST. Jan Grandell & Timo Koski

4.2.1 Binomialfördelning

Betingning och LOTS/LOTV

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Lektionsanteckningar 11-12: Normalfördelningen

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

Repetition 2, inför tentamen

1.1 Diskret (Sannolikhets-)fördelning

SF1901 Sannolikhetsteori och statistik I

1.1 Diskret (Sannolikhets-)fördelning

(a) Avgör om A och B är beroende händelser. (5 p) (b) Bestäm sannolikheten att A inträffat givet att någon av händelserna A och B inträffat.

Veckoblad 3. Kapitel 3 i Matematisk statistik, Dahlbom, U.

TMS136. Föreläsning 7

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Matematisk statistik, LMA 200, för DAI och EI den 25 aug 2011

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

a) Beräkna sannolikheten att en följd avkodas fel, det vill säga en ursprungliga 1:a tolkas som en 0:a eller omvänt, i fallet N = 3.

Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar

Föreläsning 7: Punktskattningar

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

Föreläsning 4: Konfidensintervall (forts.)

4. Stokastiska variabler

Föreläsning 2, FMSF45 Slumpvariabel

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

TMS136. Föreläsning 4

0 om x < 0, F X (x) = c x. 1 om x 2.

LMA521: Statistisk kvalitetsstyrning

Tentamen i Statistik, STA A13 Deltentamen 1, 4p 27 mars 2004, kl

Kapitel 5 Multivariata sannolikhetsfördelningar

DATORÖVNING 4: DISKRETA

SF1901: Sannolikhetslära och statistik Föreläsning 2. Betingad sannolikhet & Oberoende

Avd. Matematisk statistik

Avd. Matematisk statistik

Matematisk statistik för D, I, Π och Fysiker

Tentamen i Tillämpad Matematik och statistik för IT-forensik. Del 2: Statistik 7.5 hp

SF1901: Sannolikhetslära och statistik

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

1 Föreläsning IV; Stokastisk variabel

MVE051/MSG Föreläsning 7

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Transkript:

SF1901: Sannolikhetslära och statistik Föreläsning 7.A Mer om Approximationer Jan Grandell & Timo Koski 10.02.2012 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 1 / 21

Repetition CGS Ofta uttrycker man slutsatsen i CGS som att n i=1 X i nµ σ n är approximativt N(0, 1)-fördelad eller att n X i är approximativt N ( nµ, σ n ) -fördelad. i=1 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 2 / 21

Poissonfördelningen Definition En diskret s.v. X säges vara Poissonfördelad med parameter µ, Po(µ)-fördelad, om p X (k) = µk k! e µ, för k = 0, 1.... Vi påminner om att om X är Po(µ)-fördelad, så gäller E(X) = µ och V (X) = µ. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 3 / 21

Summan av två oberoende diskreta: faltningsformeln Ett hjälpresultat: X och Y vara oberoende diskreta variabler. k är ett icke-negativt heltal, ( ) P(X + Y = k) = P k i=1{x = i Y = k i} = k P ({X = i Y = k i}), i=1 ty händelserna i unionen är diskjunkta. Oberoendet ger = och vi har den s.k. faltningsformeln k P ({X = i}) P ({Y = k i}), i=1 P(X + Y = k) = k p X (i)p Y (k i). i=1 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 4 / 21

Summan av två oberoende Poissonfördelade Poissonfördelningen är den viktigaste diskreta fördelningen, och har t.ex. följande trevliga egenskap. Sats Om X och Y vara oberoende Po(µ X )- resp. Po(µ Y )-fördelade s.v. Då gäller att X + Y är Po(µ X + µ Y )-fördelad. Bevis. Hjälpresultatet (faltningsformeln) ovan ger P(X + Y = k) = k k µ P(X = i)p(y = k i) = i X i=0 i=0 i! k i=0 µ i X µ(k i) Y e µ X µ(k i) Y (k i)! e µ Y = e (µ X+µ Y ) i!(k i)! = e (µ X+µ Y ) (µ X + µ Y ) k k ( ) ( ) k i ( ) (k i) µx µy k!. i=0 i µ X + µ Y µ X + µ Y }{{} = 1, enl. Binomialsatsen. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 5 / 21

Approximation av Po(µ) Om bägge villkoren p 0.1 och npq 10 är uppfyllda kan vi välja om vi vill Poissonapproximera eller normalapproximera. Detta är ingen motsägelse, som följande sats visar. Sats Om X är Po(µ)-fördelad med µ 15 så är X approximativt N(µ, µ)-fördelad. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 6 / 21

Approximation med Po(np) Vi införde ju Poissonfördelningen som en approximation av binomialfördelningen. Detta kan vi formalisera till följande sats. Sats Om X är Bin(n, p)-fördelad med p 0.1 så är X approximativt Po(np)-fördelad. I vår approximation antog vi även att n var stor. Detta är inte nödvändigt, men vårt enkla resonemang fungerar inte utan denna extra förutsättning. Man kan visa att om X är Bin(n, p) och Y är Po(np) så gäller att P(X = k) P(Y = k) np 2. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 7 / 21

Ett exempel : approximation med Po(np), I en datalänk växlar de binära siffrorna eller bitarna (0 och 1) polaritet dvs. 0 övergår i 1 eller omvänt med sannolikheten 10 7. En viss bit i en bitgrupp växlar polaritet oberoende av alla de andra bitarna. Protokollet i datalänken kontrollerar en bitgrupp som omfattar 8000000 ( 1 Mbyte ) bitar. Felkontrollen upptäcker om fem eller flera bitar fått sina polariteter omkastade i bitgruppen. Om fem eller flera polaritetsväxlingar har upptäckts, begärs av protokollet en upprepad överföring av denna bitgrupp. Vi säger att en överföring lyckas om en upprepad överföring av bitgruppen inte kommer att begäras. De olika överföringarna av en och samma bitgrupp antas vara oberoende av varandra. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 8 / 21

Approximation med Po(np), ett exempel: forts. Betrakta den stokastiska variabeln X = antalet överföringar av en bitgrupp om 8000000 bitar som behövs för att överföringen skall lyckas för första gången, den lyckade överföringen medräknad. Sökt: väntevärdet för X. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 9 / 21

Exempel: forts. Låt p s beteckna sannolikheten för att en ny överföring av en bitgrupp om 8000000 bitar lyckas dvs. p s = sannolikheten för högst fyra växlingar av polaritet. Den stokastiska variabeln X har ffg (p s ) - fördelningen eller För-första-gången -fördelningen p.g.a. att de olika överföringarna är oberoende och p.g.a. att den lyckade överföringen medräknas. Dvs. P(X = k) = (1 p s ) k 1 p s, k = 1, 2, 3,..., En enkel kalkyl ger väntevärdet E (X) = 1 p s (se kursens formelsamling). Därmed behöver vi p s. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 10 / 21

Exempel: forts. Låt Z vara antalet bitar som får sin polaritet omkastad, när en bitgrupp om 8000000 bitar överförs. Då fås p s = P (Z 4). P.g.a. att bitarna i en bitgrupp växlar polaritet oberoende av varandra är vi ledda till den statiska modellen Z Bin(8000000, 10 7 ), dvs. att Z är binomialfördelad med parametrarna n = 8000000 och p = 10 7. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 11 / 21

Exempel: forts. Vi beräknar p s med en approximation av binomialfördelningen Bin(8000000, 10 7 ) med Poissonfördelningen med parametern n p = 0.8. Denna approximation är rimlig, ty p = 10 7 0.1. Vi har alltså att Z är approximativt Po(0.8)- fördelad. Tabellsamlingen ger med Poissonfördelningen Po(0.8) approximationen p s = P (Z 4) 0.99859. SVAR: E (X) 1 0.99859 1.0014. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 12 / 21

Exempel: uppskattningen ovan X Bin(8000000, 10 7 ) och Y är Po(0.8) så gäller att P(X = k) P(Y = k) np 2. P(X = k) P(Y = k) 8000000 10 14 = 8.0000e 08 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 13 / 21

Exempel: check mot MATLAB Statistics Toolbox >> help binocdf BINOCDF Binomial cumulative distribution function. Y=BINOCDF(X,N,P) returns the binomial cumulative distribution function with parameters N and P at the values in X. The size of Y is the common size of the input arguments. A scalar input functions as a constant matrix of the same size as the other inputs. The algorithm uses the cumulative sums of the binomial masses. See also binofit, binoinv, binopdf, binornd, binostat, cdf. >> binocdf(4, 8000000, 10 ( 7)) ans = 0.9986 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 14 / 21

Urnor igen Vi påminner om urnmodellerna. Vi hade en urna med kulor av två slag: v vita och s svarta. Vi drog n kulor ur urnan slumpmässigt. Sätt A = Man får k vita kulor i urvalet. Dragning utan återläggning: ( v s ) k)( Dragning med återläggning: P(A) = P(A) = n k ( v+s n ). ( ) ( ) n v k ( ) s n k. k v + s v + s Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 15 / 21

Hypergeometrisk fördelning Antag att vi har N enheter, där proportionen p, dvs Np stycken, har egenskapen A. Drag ett slumpmässigt urval om n stycken enheter. Sätt X = antalet enheter i urvalet med egenskapen A. I termer av urnmodellen för dragning utan återläggning gäller Np = v och N(1 p) = s om A = vit kula. Således fås p X (k) = P(X = k) = ( Np k )( N(1 p) n k ) ( N n), för 0 k Np och 0 n k N(1 p). Man säger att X är Hyp(N, n, p)-fördelad. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 16 / 21

Hypergeometrisk fördelning X är Hyp(N, n, p)-fördelad, man kan visa att E(X) = np och V (X) = N n np(1 p). N 1 Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 17 / 21

Approximationer, Hyp(N, n, p) Om n/n är någolunda liten, så verkar det troligt att det inte spelar så stor roll om vi drar med återläggning eller ej. Vi har ( Np k )( N(1 p) n k ) ( N n) = = Np! N(1 p)! n!(n n)! k!(np k)! (n k)![n(1 p) (n k)]! N! n! k!(n k)! Np!(N(1 p)!(n n)! (Np k)![n(1 p) (n k)]!n! ( ) n p k q n k. k n! (Np) k (N(1 p)) n k k!(n k)! N n = Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 18 / 21

Approximationer, Hyp(N, n, p) Sats Om X är Hyp(N, n, p)-fördelad med n/n 0.1 så är X approximativt Bin(n, p)-fördelad. Sats Om X är Bin(n, p)-fördelad med npq 10 så är X approximativt N(np, npq)-fördelad. Detta innebär att } P(X k) P(X < k) ( ) k np Φ. npq Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 19 / 21

Approximation av Hyp(N, n, p) Av detta följer att Hyp(N, n, p) N(np, npq) om n/n 0.1 och npq 10. Det räcker dock att kräva N n N 1np(1 p) 10. Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 20 / 21

Sammanfattning n/n 0.1 {}}{ Hyp(N, n, p) Bin(n, p) N n N 1 np(1 p) 10 {}}{ N(np, npq) npq 10 {}}{ N(np, npq) µ 15 p 0.1 {}}{{}}{ Po( np ) N(µ, µ) }{{} =µ Jan Grandell & Timo Koski () Matematisk statistik 10.02.2012 21 / 21