MS-A Grundkurs i sannolikhetskalkyl och statistik Exempel, del I G Gripenberg Aalto-universitetet januari G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Dragning med och utan återläggning Antag att i en urna finns k kulor av vilka v vita och resten s = k v är svarta Om man (slumpmässigt) nu plockar m kulor ur urnan och låter X vara antalet vita kulor så blir sannolikhetsfördelningen av X (och resonemanget som leder till svaret) beroende på om på om (Å) varje kula läggs tillbaka i urnan efter att färgen noterats och före följande plockas, eller (!Å) ingen kula läggs tillbaka i urnan I fallat (Å) med återläggning är sannolikheten att man plockar en vit kula varje gång p = v k så vi kan behandla dethär fallet som en upprepning m gånger av ett experiment Eftersom det är förnuftigt att anta att händelserna i de olika omgångarna är oberoende blir sannolikheten att vi n gånger plockar en vit kula ( ) m (v ) n ( Pr(X = n) = v ) m n n k k Slumpvariablen X är alltså binomial-fördelad med parametrarna m och v k G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Dragning med och utan återläggning, forts I fallet (!Å) utan återläggning kan vi plocka m kulor ur en urna med k kulor på ( k m) olika sätt (då vi antar att kulorna är olika men det inte spelar någon roll i vilken ordning vi plockat dem) På samma sätt kan vi plocka n vita kulor bland alla v vita på ( v n) olika sätt och m n svarta bland alla s = k v svarta på ( k v m n) olika sätt Enligt produktprincipen kan vi plocka n vita och m n svarta bland alla v vita och k s svarta på ( ) ( v n k v m n) olika sätt och sannolikheten blir (enligt den klassiska definitionen) ( v ( Pr(X = n) = n) k v ) m n ( k m) Detta är den sk hypergeometriska fördelningen G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Sannolikhet räknad med hjälp av ett trädnätverk I en urna finns vita och svarta kulor Vi plockar slumpmässigt en kula och om den är vit lägger vi en svart kula i urnan och om den är svart lägger vi inte någon kula i urnan Vi gör detta sammanlagt tre gånger Om vi nu vill bestämma sannolikheten för den sista kulan vi plockar är svart så kan vi beskriva proceduren med följande trädnätverk: 7 6 8 8 Sannolikheten för att den sista kulan är svar blir därför 7 + 6 + + 8 = 8 G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Bayes formel I ett kommunikationsssytem (med röksignaler?) används binära tal, dvs nollor och ettor så att % av de binära tal som skickas är och 7% är I systemet förekommer störningar så att en del av talen kommer fram som och endel av talen kommer fram som En nolla kommer korrekt fram med sannolikheten 8 och en etta med sannolikheten Om vi nu vill räkna ut sannolikheten för att har skickats då har mottagits och har skickats då har mottagits så kan vi använda Bayes formel och först definiera S = { har skickats } Pr(S) = S = { har skickats } Pr(S) = 7 M = { har mottagits } Pr(M S) = 8 M = { har mottagits } Pr(M S) = Då får vi Pr(M S) Pr(S) Pr(S M) = Pr(M S) Pr(S) + Pr(M S) Pr(S) 7 = 7 + = 6 6, G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Bayes formel, forts och Pr(M S) Pr(S) Pr(S M) = Pr(M S) Pr(S) + Pr(M S) Pr(S) 8 = 8 + 7 = 77 Ett annat sätt att resoner är att tecken skickats, nollor och 7 ettor av de nollorna kommer fram som och 6 som och av de 7 ettorn kommer 6 fram som och 7 som Sammanlagt kommer det alltså nollor och 6 ettor av vilka respektive 6 är korrekta Då blir Pr(S M) = 6 6, och Pr(S M) = 77 G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I 6 /
Ett samband mellan exponential- och Poissonfördelningen Antag att X, X, är oberoende Exp(λ) fördelade slumpvariabler och att T > Låt nu Y = max{ k : X + X + X k T } Vi skall visa att Y Poisson(λT ) Här kan vi använda det resultat som säger att om U ja V är oberoende slumpvariabler med täthetsfunktioner f och g så har slumpvariabeln U + V täthetsfunktionen f (x t)g(t) dt Nu gör vi induktionsantagandet att slumpvariabeln X + X + X n har täthetsfunktionen λn e λx x n (n )! då x och då x < Detta är fallet åtminstone då n = Då kommer slumpvariabeln X + X + X n+ att ha täthetsfunktionen x λe λ(x t) λn e λt t n (n )! så induktionssteget fungerar x = λ n+ e λx (n )! tn dt / x = λ n+ e λx n! tn = λn+ e λx x n, n! G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I 7 /
Ett samband mellan exponential- och Poissonfördelningen, forts Antag nu att k Om A = { X + + X k T }, B = { X + + X k + X k+ > T }, så skall vi räkna ut Pr(A B) Efrtersom X k+ så är B c A och A = (A B) (A B c ) = (A B) B c av vilket följer att Pr(A) = Pr(A B) + Pr(B c ) så att Pr(A B) = Pr(A) Pr(B c ) = Pr(B) Pr(A c ) = T + λ k+ e λx x k dx k! T λ k e λx x k (k )! T dx λ k e λx x k dx = (k )! T λ k e λx x k (k )! / T λ k e λx x k k! dx = e λt (λt ) k k! Då k = så följer påståendet av att Pr(X > T ) = e λt = e λt (λt )! G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I 8 /
Normalapproximering Antag att slumpvariabeln X har fördelningen Bin(, ) Nu är Pr(X ) = ( ) j= j j j = F Bin(,) () vilket man lätt kan räkna ut med en dator med lämplig programvara Men i annat fall kan man utnyttja det faktum att en binomial-fördelad slumbvariabel är summan av oberoende Bernoulli-fördelade slumpvariabler så att vi kan tillämpa centrala gränsvärdessatsen och får, eftersom X har väntevärdet = och variansen 7 = 87 Detta betyder att (då Z N(, )) ( X Pr(X ) = Pr(X ) = Pr 87 ( ) X = Pr 78 87 ) 87 Pr(Z 78) 7 Om man räknar med binomialfördelningens fördelningsfunktion blir svaret ungefär G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, del januari I /
Marginal- och betingadefördelningar Antag att den tvådimensionella slumpvariabeln (X, Y ) har en diskret fördelning enligt följande tabell där marginalfördelningarna också är uträknade: f XY (x, z) Y 7 f X (x) X 6 f Y (y) 6 8 Den betingade fördelningen av X givet Y = är G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, januari del I /
Marginal- och betingadefördelningar, forts X 6 f X Y (x ) Av detta ser vi att E(X Y = ) = + 6 = och på motsvarande sätt kan vi räkna ut fördelningen för E(X Y ) som blir y 7 E(X Y = y) E(X Y ) är alltså en slumpvariabel med en frekvansfunktion f så att f ( ) = 6, f ( ) = 6 och f () = Av detta ser vi tex att E(E(X Y )) = 6 + 6 + = vilket är detsamma som E(X ) = + + + 6 8 = 6 = G Gripenberg (Aalto-universitetet) MS-A Grundkurs i sannolikhetskalkyl och statistikexempel, januari del I /