Betingning och LOTS/LOTV Johan Thim (johan.thim@liu.se 4 december 018 Det uppstod lite problem kring ett par uppgifter som hanterade betingning. Jag tror problemen är av lite olika karaktär, men det jag verkligen vill att man tar med sig från denna lektion är följande tanke. Låt oss anta att man söker sannolikheten för en händelse, till exempel sannolikheten att en diskret stokastisk variabel Y antar ett värde Y k (vi söker alltså sannolikhetsfunktionen p Y (k. Om vi inte känner till fördelningen för Y så är problemet omöjligt. Men vi kanske vet hur Y beter sig om en annan stokastisk variabel X är känd? Tanken är nu följande. 1. Hitta en följd händelser, typiskt {X n} för en följd värden på n, så att dessa händelser täcker alla möjligheter för Y.. Härled hur sannolikheterna P (Y k X n eller väntevärdena E(Y X n ser ut. 3. Ta fram sannolikheterna P (X n för händelserna vi betingar på. 4. Använd lagen om total sannolikhet eller lagen om totalt väntevärde för att pussla ihop de betingade storheterna. Om någon variabel är kontinuerlig behöver ansatsen modifieras så att vi använder täthetsfunktionen istället. Dessutom kan vi få problem när vi betingar på saker som har sannolikhet noll. Viss försiktighet krävs. Det diskreta fallet är enklare att hantera, även om det blir summor och serier som brukar upplevas obehagliga. Men dessa kreatur är snälla! Likt en inhägnad hage med bräkande får, inte en hord med aggressivt sparkande strutsar (dvs de kontinuerliga fördelningarna 1. 4.8 Ifrån uppgiften så vet vi att X Po(µ är antalet partiklar som kommit till en partikelräknade under en timme. Partikelräknaren observerar varje partikel oberoende med sannolikheten p. Vi låter Y vara antalet partiklar som observerats. Lite slarvigt kan vi tänka oss att Y blir binomialfördelad men antalet upprepningar X är stokastiskt. Detta går inte att räkna på direkt utan vi behöver fixera X på något sätt. Vi söker fördelningen för Y och då Y är diskret med Y (Ω {0, 1,,...} så antar vi att k är något heltal k 0. Då gäller att P (Y k P (Y k X np (X n (1 1 Möjligen finns en bättre liknelse för kontinuerliga fördelningar och betingning än aggressivt sparkande strutsar. 1
enligt lagen om total sannolikhet. Detta eftersom händelserna {X n}, n k, k + 1,... är disjunkta och unionen av händelserna {X k}, {X k + 1},... täcker alla möjligheter när vi söker sannolikheten P (Y k (det kan inte hända att X < k. Detta var kraven för lagen om total sannolikhet. När jag kikar efter nu så ser jag att vi endast visade det för ett ändligt antal händelser, men generaliseringen till uppräkneligt många är fortfarande sann och samma argument fungerar då serien som uppstår är absolutkonvergent. Om vi fixerar att X n (vi betingar på den händelsen så det är ett faktum vi vet gäller, så kommer Y Bin(n, p, vilket leder till att den betingade sannolikheten för att Y k givet att X n ges av P (Y k X n Vi vet också att X Po(µ, så Vi pluggar in detta i (1 och erhåller då ( n k p k (1 p n k, k 0, 1,..., n. P (X n µn e µ, n 0, 1,,... P (Y k X np (X n ( n k p k n k µn (1 p e µ e µ (n pk (1 p e µ p k e µ p k e µ p k µ k n k µn 1 (n (1 pn k µ n µ n+k (1 p n (µ(1 p n. Här har vi endast använt definitionen för binomialkoefficienten och masserat uttrycket för summan en del. Vi indexerade i näst sista likheten om summan så den börjar på n 0 istället för n k. Om vi tänker tillbaka till envariabel :an nu så ser vi att serien vi har kvar är Maclaurinexpansionen av e µ(1 p, så vi har med andra ord att e µ p k µ k (µ(1 p n e µ p k µ k e µ(1 p e pµ (pµ k. Vi har nu alltså visat att P (Y k e pµ (pµ k, vilket är sannolikhetsfunktionen för en Po(pµ-fördelad variabel! Så vackert att det gör ont i själen (om man har någon. 5.38 Det inkommer N stycken partiklar till en fotomultiplikator. Antalet N är stokastiskt. Varje partikel genererar ett antal X k nya partiklar i fotomultiplikatorn, där även X k är stokastisk. Vi
vet att alla X k och N är oberoende av varandra och vi söker väntevärde och varians för det totala antalet partiklar som vi genererar. Denna uppgift är lite lik föregående, men vi är ute efter väntevärden istället för sannolikhet. Så hyfsat analogt med föregående exempel, men vi använder satsen om totalt väntevärde istället för lagen om total sannolikhet. Det pågår lite subtila saker i denna kalkyl så låt oss försöka vara noggranna trots risken att detta verkar betydligt mer komplicerat än det är. Det är viktigt att vi gör skillnad på N, som är den stokastiska storheten, och n som är något utfall av variabeln N. Låt oss kalla summan med N termer (dvs antalet termer är okänt och stokastiskt för Y N N X k. Vi söker ( N E(Y N E X k där både X k och N är stokastiska variabler. Hur hanterar man detta? Om vi bara visste värdet på N så skulle vi kunna beräkna väntevärdet för summan. Så varför inte betinga på det då? I det läget så är ju övre gränsen känd, men kan vi pussla ihop det obetingade väntevärdet? Vi definierar Y n X k för n 1,,... Då är E(Y n E(X k nµ X, eftersom E(X k µ X för alla k (variablerna X k är likafördelade. Notera här att vi arbetar med en okänd men icke-stokastisk storhet n, så summan har exakt n stycken termer. Okänt men fixerat. Ej stokastiskt! Men vi är ju intresserade av Y N där den övre gränsen är både okänd och stokastisk. Så låt oss betinga på händelsen att N n. Vad vi gör nu är att vi tänker oss att vi känner till utfallet på N. Vi vet att N n inträffar. Då kommer ( N ( E(Y N N n E X k N n E X k N n Notera att vi i sista steget ersatte N med n som gräns i summan. Detta är tillåtet eftersom vi betingar på att N n. Men nu finns inget N kvar, så uttrycket kan skrivas ( ( E X k N n E X k E(Y n nµ X. Enligt satsen om totalt väntevärde så måste E(Y N E(E(Y N N E(Y N N np (N n µ X np (N n, 3 nµ X P (N n
vilket är trevligt då den sista summan/serien är definitionen av väntevärdet E(N µ N. Alltså kommer E(Y N µ X µ N. ( Oväntat resultat? Jag tycker nog inte det. Vad skulle det annars bli? Givetvis är detta inget argument för att det är sant, men det känns ändå inte helt orimligt. Hur kommer vi då åt variansen? Genom en variant på samma argument. Vi observerar (enligt Steiners sats och ( att V (Y N E(Y N E(Y N E(Y N (µ X µ N. (3 Den första kvadrattermen är lite jävlig, men vi kan hantera den genom att helt enkelt skriva ut hur kvadraten av summan Y N ser ut när vi betingar på att N n. Detta kommer se lite otympligt ut, men argumentet är intressant att komma ihåg för framtida resultat (kom ihåg detta när ni stöter på stickprovsvariansen i TAMS65 i samband med väntevärdesriktighet. På samma sätt som tidigare ser vi att om vi betingar på att N n så blir övre gränsen på summan Y N fixerad, så ( N ( E(YN N n E X k N n E X k. Vi behöver nu hantera kvadraten på summan, vilket vi enklast gör genom att skriva ut vad som händer: ( X k (X 1 + X + + X n (X 1 + X + + X n X 1 (X 1 + X + + X n + X (X 1 + X + + X n + X 3 (X 1 + X + + X n + + X n (X 1 + X + + X n X 1 X j + X X j + X 3 X j + + X n j1 ( X k j1 X j j1 j1 j1 X k X j. Alternativt ser vi detta direkt genom att skriva j1 X j ( ( X k X j X k ( j1 Således, eftersom väntevärdet är linjärt, erhåller vi ( ( E X k E X k X j j1 X k X j. j1 E(X k X j. j1 Nu kommer vi till ett roligt steg (ha ha. Vi behöver hantera E(X k X j och gör detta genom att dela upp i två fall. Om k j så står det E(X V (X + E(X (enligt Steiners sats, där X är en variabel med samma fördelning som X k och X j. Om k j så kommer eftersom följden är oberoende E(X k X j E(X k E(X j µ X. 4
Vi måste alltså i dubbelsumman skilja de fall då j k från de fall där j k: j1 E(X k X j ( E(Xk X 1 + E(X k X + + E(Xk + E(X k X n 1 + E(X k X n E(Xk + ( E(Xk X 1 + + E(X k X k 1 + E(X k X k+1 + + E(X k X n ( V (X + µ X + (n 1µ X Mer kompakt skulle vi kunna skriva j1 n(v (X + µ X + n(n 1µ X nv (X + n µ X. E(X k X j E(Xk + E(X k X j j1 j k n(v (X + µ X + n(n 1µ X nv (X + n µ X. För att hitta E(YN använder vi lagen om totalt väntevärde: E(Y N E(YN N np (N n V (X np (N n + µ X (nv (X + n µ XP (N n n P (N n V (XE(N + µ XE(N. Nu är vi nästan framme. Med tanke på (3 så ser vi att V (Y N V (XE(N + µ XE(N µ Xµ N V (XE(N + µ XV (N. Totalt sett har vi alltså visat att E(Y N µ X µ N och att V (Y N V (Xµ N + V (Nµ X. 5