Betingning och LOTS/LOTV

Relevanta dokument
SF1901 Sannolikhetsteori och statistik I

TAMS79: Föreläsning 6. Normalfördelning

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

4 Diskret stokastisk variabel

SF1901: Sannolikhetslära och statistik

Kap 2. Sannolikhetsteorins grunder

1.1 Diskret (Sannolikhets-)fördelning

Övning 1 Sannolikhetsteorins grunder

Föreläsning 5: Hypotesprövningar

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

SF1901 Sannolikhetsteori och statistik I

Föreläsning 7: Punktskattningar

1.1 Diskret (Sannolikhets-)fördelning

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

Statistik 1 för biologer, logopeder och psykologer

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Föreläsning 5, FMSF45 Summor och väntevärden

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

FACIT: Tentamen L9MA30, LGMA30

Teoretisk statistik. Gunnar Englund Matematisk statistik KTH. Vt 2005

SF1901: Sannolikhetslära och statistik

TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler

Föreläsning 4: Konfidensintervall (forts.)

4.1 Grundläggande sannolikhetslära

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

Föreläsning 5, Matematisk statistik Π + E

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

Föreläsning 7: Punktskattningar

Formler och tabeller till kursen MSG830

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

Föreläsning 6, Matematisk statistik Π + E

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2

Matematisk statistik för D, I, Π och Fysiker

Stokastiska vektorer och multivariat normalfördelning

Lärmål Sannolikhet, statistik och risk 2015

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Kurssammanfattning MVE055

Jörgen Säve-Söderbergh

4.2.1 Binomialfördelning

bli bekant med summor av stokastiska variabler.

Föreläsning 6: Hypotestester (forts.)

SF1901: Sannolikhetslära och statistik

Föreläsning 12: Repetition

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

SF1901 Sannolikhetsteori och statistik I

SF1901: Sannolikhetslära och statistik. Mer om Approximationer

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Föreläsning 2, FMSF45 Slumpvariabel

Lektionsanteckningar 11-12: Normalfördelningen

Våra vanligaste fördelningar

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Matematisk statistik för B, K, N, BME och Kemister

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

Föreläsning 11: Mer om jämförelser och inferens

Kap 3: Diskreta fördelningar

SF1901: Sannolikhetslära och statistik

Satsen om total sannolikhet och Bayes sats

SF1901: Sannolikhetslära och statistik

F9 SAMPLINGFÖRDELNINGAR (NCT

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

Föreläsning 5. Funktioner av slumpvariabler. Ett centralt resultat.

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

Matematisk statistik KTH. Formelsamling i matematisk statistik

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Centrala gränsvärdessatsen (CGS). Approximationer

FACIT: Tentamen L9MA30, LGMA30

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

Föreläsning 6, Repetition Sannolikhetslära

Sannolikheter och kombinatorik

9. Konfidensintervall vid normalfördelning

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Tentamen i Matematisk Statistik, 7.5 hp

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

FÖRELÄSNING 8:

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

TATA42: Föreläsning 2 Tillämpningar av Maclaurinutvecklingar

Avd. Matematisk statistik

Hur måttsätta osäkerheter?

Finansiell statistik, vt-05. Slumpvariabler, stokastiska variabler. Stokastiska variabler. F4 Diskreta variabler

Mer om slumpvariabler

Datorövning 2 Betingad fördelning och Centrala gränsvärdessatsen

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 12: Regression

SF1901: Sannolikhetslära och statistik

Tentamen MVE301 Sannolikhet, statistik och risk

Föreläsning 7: Punktskattningar

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Transkript:

Betingning och LOTS/LOTV Johan Thim (johan.thim@liu.se 4 december 018 Det uppstod lite problem kring ett par uppgifter som hanterade betingning. Jag tror problemen är av lite olika karaktär, men det jag verkligen vill att man tar med sig från denna lektion är följande tanke. Låt oss anta att man söker sannolikheten för en händelse, till exempel sannolikheten att en diskret stokastisk variabel Y antar ett värde Y k (vi söker alltså sannolikhetsfunktionen p Y (k. Om vi inte känner till fördelningen för Y så är problemet omöjligt. Men vi kanske vet hur Y beter sig om en annan stokastisk variabel X är känd? Tanken är nu följande. 1. Hitta en följd händelser, typiskt {X n} för en följd värden på n, så att dessa händelser täcker alla möjligheter för Y.. Härled hur sannolikheterna P (Y k X n eller väntevärdena E(Y X n ser ut. 3. Ta fram sannolikheterna P (X n för händelserna vi betingar på. 4. Använd lagen om total sannolikhet eller lagen om totalt väntevärde för att pussla ihop de betingade storheterna. Om någon variabel är kontinuerlig behöver ansatsen modifieras så att vi använder täthetsfunktionen istället. Dessutom kan vi få problem när vi betingar på saker som har sannolikhet noll. Viss försiktighet krävs. Det diskreta fallet är enklare att hantera, även om det blir summor och serier som brukar upplevas obehagliga. Men dessa kreatur är snälla! Likt en inhägnad hage med bräkande får, inte en hord med aggressivt sparkande strutsar (dvs de kontinuerliga fördelningarna 1. 4.8 Ifrån uppgiften så vet vi att X Po(µ är antalet partiklar som kommit till en partikelräknade under en timme. Partikelräknaren observerar varje partikel oberoende med sannolikheten p. Vi låter Y vara antalet partiklar som observerats. Lite slarvigt kan vi tänka oss att Y blir binomialfördelad men antalet upprepningar X är stokastiskt. Detta går inte att räkna på direkt utan vi behöver fixera X på något sätt. Vi söker fördelningen för Y och då Y är diskret med Y (Ω {0, 1,,...} så antar vi att k är något heltal k 0. Då gäller att P (Y k P (Y k X np (X n (1 1 Möjligen finns en bättre liknelse för kontinuerliga fördelningar och betingning än aggressivt sparkande strutsar. 1

enligt lagen om total sannolikhet. Detta eftersom händelserna {X n}, n k, k + 1,... är disjunkta och unionen av händelserna {X k}, {X k + 1},... täcker alla möjligheter när vi söker sannolikheten P (Y k (det kan inte hända att X < k. Detta var kraven för lagen om total sannolikhet. När jag kikar efter nu så ser jag att vi endast visade det för ett ändligt antal händelser, men generaliseringen till uppräkneligt många är fortfarande sann och samma argument fungerar då serien som uppstår är absolutkonvergent. Om vi fixerar att X n (vi betingar på den händelsen så det är ett faktum vi vet gäller, så kommer Y Bin(n, p, vilket leder till att den betingade sannolikheten för att Y k givet att X n ges av P (Y k X n Vi vet också att X Po(µ, så Vi pluggar in detta i (1 och erhåller då ( n k p k (1 p n k, k 0, 1,..., n. P (X n µn e µ, n 0, 1,,... P (Y k X np (X n ( n k p k n k µn (1 p e µ e µ (n pk (1 p e µ p k e µ p k e µ p k µ k n k µn 1 (n (1 pn k µ n µ n+k (1 p n (µ(1 p n. Här har vi endast använt definitionen för binomialkoefficienten och masserat uttrycket för summan en del. Vi indexerade i näst sista likheten om summan så den börjar på n 0 istället för n k. Om vi tänker tillbaka till envariabel :an nu så ser vi att serien vi har kvar är Maclaurinexpansionen av e µ(1 p, så vi har med andra ord att e µ p k µ k (µ(1 p n e µ p k µ k e µ(1 p e pµ (pµ k. Vi har nu alltså visat att P (Y k e pµ (pµ k, vilket är sannolikhetsfunktionen för en Po(pµ-fördelad variabel! Så vackert att det gör ont i själen (om man har någon. 5.38 Det inkommer N stycken partiklar till en fotomultiplikator. Antalet N är stokastiskt. Varje partikel genererar ett antal X k nya partiklar i fotomultiplikatorn, där även X k är stokastisk. Vi

vet att alla X k och N är oberoende av varandra och vi söker väntevärde och varians för det totala antalet partiklar som vi genererar. Denna uppgift är lite lik föregående, men vi är ute efter väntevärden istället för sannolikhet. Så hyfsat analogt med föregående exempel, men vi använder satsen om totalt väntevärde istället för lagen om total sannolikhet. Det pågår lite subtila saker i denna kalkyl så låt oss försöka vara noggranna trots risken att detta verkar betydligt mer komplicerat än det är. Det är viktigt att vi gör skillnad på N, som är den stokastiska storheten, och n som är något utfall av variabeln N. Låt oss kalla summan med N termer (dvs antalet termer är okänt och stokastiskt för Y N N X k. Vi söker ( N E(Y N E X k där både X k och N är stokastiska variabler. Hur hanterar man detta? Om vi bara visste värdet på N så skulle vi kunna beräkna väntevärdet för summan. Så varför inte betinga på det då? I det läget så är ju övre gränsen känd, men kan vi pussla ihop det obetingade väntevärdet? Vi definierar Y n X k för n 1,,... Då är E(Y n E(X k nµ X, eftersom E(X k µ X för alla k (variablerna X k är likafördelade. Notera här att vi arbetar med en okänd men icke-stokastisk storhet n, så summan har exakt n stycken termer. Okänt men fixerat. Ej stokastiskt! Men vi är ju intresserade av Y N där den övre gränsen är både okänd och stokastisk. Så låt oss betinga på händelsen att N n. Vad vi gör nu är att vi tänker oss att vi känner till utfallet på N. Vi vet att N n inträffar. Då kommer ( N ( E(Y N N n E X k N n E X k N n Notera att vi i sista steget ersatte N med n som gräns i summan. Detta är tillåtet eftersom vi betingar på att N n. Men nu finns inget N kvar, så uttrycket kan skrivas ( ( E X k N n E X k E(Y n nµ X. Enligt satsen om totalt väntevärde så måste E(Y N E(E(Y N N E(Y N N np (N n µ X np (N n, 3 nµ X P (N n

vilket är trevligt då den sista summan/serien är definitionen av väntevärdet E(N µ N. Alltså kommer E(Y N µ X µ N. ( Oväntat resultat? Jag tycker nog inte det. Vad skulle det annars bli? Givetvis är detta inget argument för att det är sant, men det känns ändå inte helt orimligt. Hur kommer vi då åt variansen? Genom en variant på samma argument. Vi observerar (enligt Steiners sats och ( att V (Y N E(Y N E(Y N E(Y N (µ X µ N. (3 Den första kvadrattermen är lite jävlig, men vi kan hantera den genom att helt enkelt skriva ut hur kvadraten av summan Y N ser ut när vi betingar på att N n. Detta kommer se lite otympligt ut, men argumentet är intressant att komma ihåg för framtida resultat (kom ihåg detta när ni stöter på stickprovsvariansen i TAMS65 i samband med väntevärdesriktighet. På samma sätt som tidigare ser vi att om vi betingar på att N n så blir övre gränsen på summan Y N fixerad, så ( N ( E(YN N n E X k N n E X k. Vi behöver nu hantera kvadraten på summan, vilket vi enklast gör genom att skriva ut vad som händer: ( X k (X 1 + X + + X n (X 1 + X + + X n X 1 (X 1 + X + + X n + X (X 1 + X + + X n + X 3 (X 1 + X + + X n + + X n (X 1 + X + + X n X 1 X j + X X j + X 3 X j + + X n j1 ( X k j1 X j j1 j1 j1 X k X j. Alternativt ser vi detta direkt genom att skriva j1 X j ( ( X k X j X k ( j1 Således, eftersom väntevärdet är linjärt, erhåller vi ( ( E X k E X k X j j1 X k X j. j1 E(X k X j. j1 Nu kommer vi till ett roligt steg (ha ha. Vi behöver hantera E(X k X j och gör detta genom att dela upp i två fall. Om k j så står det E(X V (X + E(X (enligt Steiners sats, där X är en variabel med samma fördelning som X k och X j. Om k j så kommer eftersom följden är oberoende E(X k X j E(X k E(X j µ X. 4

Vi måste alltså i dubbelsumman skilja de fall då j k från de fall där j k: j1 E(X k X j ( E(Xk X 1 + E(X k X + + E(Xk + E(X k X n 1 + E(X k X n E(Xk + ( E(Xk X 1 + + E(X k X k 1 + E(X k X k+1 + + E(X k X n ( V (X + µ X + (n 1µ X Mer kompakt skulle vi kunna skriva j1 n(v (X + µ X + n(n 1µ X nv (X + n µ X. E(X k X j E(Xk + E(X k X j j1 j k n(v (X + µ X + n(n 1µ X nv (X + n µ X. För att hitta E(YN använder vi lagen om totalt väntevärde: E(Y N E(YN N np (N n V (X np (N n + µ X (nv (X + n µ XP (N n n P (N n V (XE(N + µ XE(N. Nu är vi nästan framme. Med tanke på (3 så ser vi att V (Y N V (XE(N + µ XE(N µ Xµ N V (XE(N + µ XV (N. Totalt sett har vi alltså visat att E(Y N µ X µ N och att V (Y N V (Xµ N + V (Nµ X. 5