TAMS79: Matematisk statistik vt 2013
|
|
|
- Pernilla Lund
- för 10 år sedan
- Visningar:
Transkript
1 TAMS79: Matematisk statistik vt 3 Föreläsningsanteckningar Johan Thim, MAI
2
3 TAMS79: Föreläsning Grundläggande begrepp Johan Thim 3 januari 3. Begrepp Ett slumpförsök är ett försök där resultatet ej kan förutsägas deterministiskt. Slumpförsöket har olika möjliga utfall. Vi låter Utfallsrummet Ω vara mängden av alla möjliga utfall. En händelse är en delmängd av Ω, dvs en mängd av utfall. Men, alla möjliga delmängder av Ω behöver inte vara tillåtna händelser. För att precisera detta kräver vi att mängden av alla händelser (detta är alltså en mängd av mängder är en så kallad σ-algebra. Vi definierar detta begrepp lite senare. Exempel. Myntkast: Ω = { Krona, Klave }.. Tärning (T-6: Ω = {,, 3, 4, 5, 6}. A = {, 3, 5} och B = {4} är exempel på händelser. 3. Tiden till bilen går sönder: Ω = [, [ = {x R : x }. T ex A = [, [ är händelsen att bilen går sönder innan tidsenheter gått.. Mängdlära En mängd M är en samling element utan ordning. Antalet element (kardinaliteten i mängden betecknar vi M. Om mängden är ändlig är detta alltså bara hur många element som finns i mängden. Om mängden innehåller oändligt många element blir begreppet lite krångligare. En delmängd A M innehåller endast element från M (möjligen alla värden i M, eller inga. Mängder illustreras ofta med Venn-diagram. Nedan är hela rektangeln utfallsrummet Ω och de skuggade områderna olika delmängder. A A är en händelse och A dess komplement. Komplementet A är händelsen att A inte inträffar. Komplementet A består av alla utfall (i Ω som inte finns i händelsen A. A [email protected]
4 A B Snittet A B mellan händelserna A, B Ω. Händelsen att både A och B inträffar. Om A B = (tomma mängden så kallas A och B för oförenliga (eller disjunkta. Två oförenliga händelser kan ej inträffa samtidigt. Observera att A A = A B Unionen A B mellan händelserna A, B Ω. Händelsen att någon av A och B inträffar (eller båda. Observera att A A = Ω (hela utfallsrummet. A B Skillnaden A\B = A B. Alla utfall i A utom de som även ligger i B. Händelsen att A inträffar men inte B. Observera att A = Ω \ A. A B Symmetriska skillnaden: A B = (A\B (B\A. Händelsen att en av A och B inträffar, men inte båda. Exklusivt eller..3 Sannolikhet Händelser skulle som sagt vara element i en σ-algebra, vilket är ett objekt som definieras enligt följande. σ-algebra Definition. F är en σ-algebra på Ω om F består av delmängder av Ω så att (i Ω F. (ii om A F så är A F. (iii om A, A,... F så är unionen A A F. Det enklaste exemplet på en σ-algebra är F = {Ω, }, dvs endast hela utfallsrummet och den
5 tomma mängden. Av förklarliga skäl kommer vi inte så långt med detta. Ett annat vanligt exempel är att F består av alla möjliga delmängder till Ω; skrivs ibland F = Ω, och kallas potensmängden av Ω. Denna konstruktion är lämplig när vi har diskreta utfall. Om Ω består av ett kontinuum så visar det sig dock att Ω blir alldeles för stor för många tillämpningar. Kolmogorovs Axiom: Sannolikhetsmått Definition. Ett sannolikhetsmått på en σ-algebra F över ett utfallsrum Ω tilldelar ett tal mellan noll och ett, en sannolikhet, för varje händelse som är definierad (dvs tillhör F. Formellt är P en mängdfunktion; P : F [, ]. Sannolikhetsmåttet P måste uppfylla Kolmogorovs axiom: (i P (A för varje A F. (ii P (Ω =. (iii Om A B = så gäller att P (A B = P (A + P (B. Formellt är det alltid en trippel (Ω, F, P när vi diskuterar sannolikhet, men vi låter ofta F vara underförstådd. Masstolkning: Ibland tolkas P (A som händelsen A:s sannolikhetsmassa. Ger en intuitiv bild av sannolikhetsfördelning mellan händelser (ofta grafiskt. Rita proportionerliga Venndiagram! Följder av dessa axiom innefattar följande. (i P (A = P (A; Egenskaper för sannolikhetsmåttet (ii P (A B = P (A + P (B P (A B; (iii P (A B P (A + P (B (Booles olikhet; (iv P ( = ; (v P (A \ B = P (A P (A B. Bevis? Rita Venn-diagram!.3. Klassiska definitionen av sannolikhet Ett försök där varje utfall har samma sannolikhet säges ha likformig sannolikhetsfördelning. Om Ω är ändlig, säg Ω = m, så är P (ω = /m för varje utfall ω Ω. För en likformig sannolikhetsfördelning på Ω så gäller för en händelse A Ω att P (A = A Ω = gynsamma utfall möjliga utfall. Två tärningar Vi kastar två rättvisa tärningar. Låt C vara händelsen att poängsumman blir sju. Vad är sannolikheten för C? Lösning: Det finns 36 st möjliga utfall. Det första kastet ger sex möjligheter, och för vart och ett av dessa utfall får vi sex nya möjligheter vid andra kastet. Av dessa fall är följande 3
6 gynsamma : C = {(, 6, (, 5, (3, 4, (4, 3, (5,, (6, }. Vi representerar kasten som två koordinater, den första är från tärning ett och den andra från tärning två. Enligt den klassiska sannolikhetsdefinitionen får vi P (C = 6 36 = Frekvenstolkning Vi upprepar ett försök n gånger och räknar antalet n A gånger som händelsen A inträffar. Den relativa frekvensen definieras som n A /n. Om n förefaller det rimligt att n A /n P (A. Detta kallas frekvenstolkningen av sannolikhet. Som exempel, låt oss singla slant många gånger och räkna antalet kronor (A = {Krona} och plotta den relativa frekvensen: n A /n x Om myntet är symmetriskt förväntar vi oss att n A /n / (eller hur?..4 Oberoende Oberoende Definition. Två händelser A och B kallas oberoende om P (A B = P (AP (B. Observera att denna likhet inte gäller i allmänhet. Ta till exempel händelsen A = {Krona} och B = {Klave} vid ett myntkast. Klart att A B = så P (A B =. Men P (AP (B = = 4. Självklart är A och B inte oberoende. Observera även att om vi pratar om tre eller fler händelser blir definitionen av oberoende krångligare; se boken. 4
7 .5 Kombinatorik Multiplikationsprincipen: Om vi har en tvåstegsprocess av valmöjligheter, där vi i första steget har n möjligheter och i det andra n möjliga val, så finns det totalt sätt n n kombinationer. Exempel En tre-rätters meny har förrätter, 3 varmrätter, och 4 efterätter. Hur många olika måltider kan man beställa om man vill ha förrätt, varmrätt och efterätt? Enligt multiplikationsprincipen blir det 3 4 = 4 olika måltider. Något lite krångligare? Vi utnyttjar multiplikationsprincipen för att reda ut följande scenario. Inbrottstjuven Inbrottstjuven Ivar försöker öppna st dörrar, D, D,..., D, och att Ivar har 8% sannolikhet att lyckas med varje dörr. Vad är sannolikheten att exakt sex st dörrar blir öppnade? Lösning: Vi antar att öppnandet av olika dörrar är oberoende av varandra (är det rimligt?. En viss följd av resultat, t ex D = Y, D = N, D 3 = Y,... D = N (med sex st Y, öppna dörrar, och fyra st N, misslyckade försök, har eftersom händelserna är oberoende sannolikheten P (D = Y,..., D = N = P (D = Y P (D = N P (D = N =.8.. = Hur många sådana följder finns det? Vi har tio dörrar och skall välja ut sex st som öppnas: Dörr Dörr Dörr 3 Dörr 4 Dörr 5 Dörr Dörr kan vi välja på olika sätt. När vi sedan väljer dörr finns det bara 9 kvar att välja på. Och så vidare. Ordningen på dörrarna är nu fixerad, och vi får (från multiplikationsprincipen att det finns = 5 sådana val. När de sex dörrarna är valda kan vi variera ordningen mellan dessa 6 på 6! olika sätt: Dörr Dörr Dörr 3 Dörr 4 Dörr 5 Dörr Vi kan nu ta bort multipla dörrval (de kombinationer som bara skiljer sig åt med i vilken ordning sex st specifika dörrar ligger: Vi får alltså en binomialkoefficient! ! =! ( 6! 4! = 6 5.
8 Eftersom de olika sekvenserna av dörrval är oförenliga händelser (två olika val ger olika dörrsekvenser får vi sannolikheten ( Det är alltså ungefär 8.8% chans att exakt sex stycken dörrar blir öppnade..6 Betingad sannolikhet Betingad sannolikhet Definition. Låt P (B >. Den betingade sannolikheten P (A B för händelsen A, P (A B givet att händelsen B inträffar, definieras som P (A B =. P (B Om A och B är oberoende och P (B ser vi att P (A B = P (A B P (B = P (AP (B P (B = P (A. Rimligt? Exempel Alla som lyssnar på hårdrock i någon form har säkert funderat över vilken av Slayerlåtarna Angel of Death och Raining Blood som är bäst a. Examinator funderade över detta och samlade in följande siffror på internet: Angel of Death Raining Blood Summa Returntothepit.com MetalStorm.net Summa a Självklart är Angel of Death den bästa av dessa två, men det är inte poängen! Låt A = Angel of Death och B = Returntothepit.com. Från tabellen erhåller vi P (A = 46 37, P (B = och P (B A = Vi kan direkt beräkna P (B A genom att titta enbart i första kolumnen (det vi menar med sannolikhet betingad på A = första kolumnen: P (B A = 99. Använder vi definitionen 46 istället blir det P (B A P (B A = = 99/46 P (A 46/46 = Ibland hjälper det att dela upp ett problem i mindre bitar där vi enklare kan finna sannolikheterna. Lagen om total sannolikhet ger oss en enkel möjlighet att pussla ihop dessa bitar igen efteråt. 6
9 Lagen om total sannolikhet Sats. Låt A, B, B,..., B n Ω vara händelser sådana att: (i B B B n = Ω; (ii P (B k för alla k =,,..., n; (iii B i B j = om i j. Då gäller lagen om total sannolikhet: P (A = n P (A B k P (B k. k= Figuren nedan visar ett exempel på hur situationen skulle kunna se ut. B B 3 B 4 B 5 B 6 B A B 7 Beviset? Ganska enkelt: n P (A B k P (B k = k= n k= P (A B k P (B k = P (B k n P (A B k = P (A, k= där vi använt definitionen av betingad sannolikhet samt Kolmogorovs tredje axiom. Händelserna A B k är disjunkta för k =,,..., n eftersom B i B j = om i j. Bayes sats Sats. Med samma villkor som för lagen om total sannolikhet gäller för varje i =,,..., n. P (B i A = P (B i P (A B i n k= P (A B kp (B k Bayes sats är en följd av lagen om total sannolikhet samt definitionen av betingad sannolikhet. 7
10 Exempel Tre maskiner tillverkar prylar. Maskin står för 6%, M- för 5% och M-3 för 5%. Av de tillverkade prylarna är 5, 3 respektive % felaktiga från de olika maskinerna. Hur stor är sannolikheten att en på måfå vald enhet är trasig? Om en enhet visar sig vara trasig, hur stor är sannolikheten att den kommer från maskin ett? Lösning: Enligt lagen om total sannolikhet får vi P (trasig pryl = P (M P ( trasig M + P (M P ( trasig M + P (M 3 P ( trasig M 3 = =.45. Den andra frågan kan vi svara på mha Bayes sats: P ( M trasig = P (M P ( trasig M P (trasig = Sensitivitet och specificitet Ett forensiskt test för narkotivapåverkan har sensitivitet.9999 (positivt utslag vid påverkan och specificitet.995 (negativt uslag om inte påverkad. Antag att den forensiska analytikern får tillbaka beskedet positivt utslag vid en undersökning. Vad är sannolikheten att personen i fråga faktiskt var påverkad? Betrakta två grupper. Om personen kommer från grupp ett bedöms sannolikheten att personen är påverkad till %, och i grupp två bedöms motsvarande sannolikhet till.%. Låt A vara händelsen att testet är positivt och B sannolikheten att personen är påverkad. Vi låter P (B = p. Bayes sats medför att P ( B A P (BP ( A B = P (BP ( A B + P (B P ( A B = p.9999 p ( p( P ( A B p.9999 = p ( p.5 = ( +.5 p.9999 Här har vi utnyttjat att P (A B = P (A P (A B. Om p =. så är P ( B A.83 och om p =. så är P ( B A =.. Observera att det alltså inte är % chans att positivt utslag innebär påverkan. Vad skulle krävas för att detta skulle gälla? 8
11 TAMS79: Föreläsning Stokastiska variabler Johan Thim 3 januari 3. Endimensionella stokastiska variabler För att kunna precisera vad för slags funktion (för det är en funktion en stokastisk variabel är, behöver vi diskutera öppna mängder på den reella axeln R. Definition. Den minsta (minst antal element σ-algebran på R som innehåller alla öppna intervall betecknar vi med B. Denna algebra brukar kallas för Borel-σ-algebran på R. Algebran B innehåller alltså alla mängder av typen (a, b R, (, c (d, R, komplement av sådana mängder, samt alla uppräkneliga unioner av mängder av föregående typ. Detta är ganska tekniskt, och inget vi kommer att arbeta med direkt. Men för att få en korrekt definition behövs begreppet. Stokastisk variabel Definition. En stokastisk variabel är en reellvärd funktion definierad på ett utfallsrum Ω. Funktionen X avbildar alltså olika utfall på reella tal; X : Ω R. Mer precist så kräver vi att X (B F för alla B B. Mängden X (B definieras som X (B = {ω Ω : X(ω B} och kallas för urbilden av B. Mängden består alltså av alla ω Ω som avbildas in i B. Bilden av en delmängd A av Ω betecknas med X(A, och X(A = {x R : X(ω = x för något ω A}. Mängden X(A är alltså värdemängden för X på mängden A. Om X(Ω är ändlig, eller bara har uppräkneligt många värden, så kallar vi X för en diskret stokastisk variabel. Annars kallas vi X för kontinuerlig. Uttrycket X(ω är alltså det siffervärde vi sätter på ett visst utfall ω Ω. Varför kravet att urbilden X (B skall tillhöra de tillåtna händelserna? Det faller sig ganska naturligt, då X (B är precis de utfall i Ω som avbildas in i mängden B. Således vill vi gärna att denna samling utfall verkligen utgör en händelse, annars kan vi inte prata om någon sannolikhet för denna samling utfall. [email protected]
12 Termen variabel är egentligen lite olycklig då våra stokastiska variabler är funktioner, men det är en gammal tradition som lever kvar. Ett par exempel kan vara på sin plats. Exempel (i Kasta en tärning. Utfallsrummet Ω = {,,,,, }. Låt X vara antalet ögon vid ett tärningskast. X antar värderna,, 3, 4, 5, 6, så X är diskret. (ii Handla tacosås på måfå. Ω = {Het, Medel, Mild}. Låt X = om såsen är mild, X = 5 om såsen är medel och X = om såsen är het. X är diskret. (iii Låt X vara livslängden för ett kylskåp. Då kan X (teoretiskt anta alla värden i intervallet [, [, så X är kontinuerlig. (iv Låt Ω bestå av alla möjlig färger på gräset. Låt X = λ vara motsvarande våglängd för färgen (kontinuerlig variabel. Låt Y = om färgen är grön och Y = annars (diskret variabel. Definitionen ovan är av ganska teknisk karaktär, så vad måste man ta med sig för att kunna tillgodogöra sig resten av denna kurs? Vad måste jag förstå av all matematiska? En stokastisk variabel är en snäll funktion från Ω till R. Utfallsrummet Ω kan vara abstrakt, e.g., Ω = {Krona, Klave}. Det är mängden X(Ω som består av siffror. Ibland finns en naturlig koppling mellan Ω och X(Ω, säg om vi kastar en tärning och räknar antalet ögon vi får. En händelse är en snäll delmängd av Ω. Om A är en händelse så är X(A värdemängden för funktionen X med A som definitionsmängd. Speciellt så är X(Ω alla möjliga värden vi kan få från variabeln X. Urbilden X (B av en delmängd B R består av alla utfall ω Ω så att siffran X(ω ligger i mängden B.. Diskreta stokastiska variabler Om X(Ω är ändlig eller uppräkneligt oändlig så kallade vi X för diskret. En sådan variabel kan vi karaktärisera med en så kallad sannolikhetsfunktion. Sannolikhetsfunktion Definition. Sannolikhetsfunktionen p X : X(Ω [, ] för en diskret stokastisk variabel definieras av p X (k = P (X = k för alla k X(Ω. Den vanligaste situationen vi stöter på är att utfallsrummet är numrerat med heltal på något sätt så att p X är en funktion definierad för (en delmängd av heltal (när det finns en naturlig koppling mellan Ω och X(Ω. Ibland är vi slarviga och tänker oss att p X (k = för siffror k som ej är möjliga (p X ( = om X är antal ögon vi ett tärningskast till exempel.
13 Vissa egenskaper gäller för alla alla sannolikhetsfunktioner: Egenskaper hos sannolikhetsfunktionen (i p X (k för alla k X(Ω. (ii p X (k =. k X(Ω (iii Om A X(Ω så är P (X A = k A p X (k. En sannolikhetsfunktion är alltså aldrig negativ, om vi summerar över alla möjliga värden (alla k X(Ω så måste summan bli ett, och om vi är ute efter sannolikheten att få vissa värden på X så summerar vi sannolikheten för vart och ett av dessa värden! Fördelningsfunktion Definition. Fördelningsfunktionen F X (x för en stokastisk variabel X definieras av F X (x = P (X x för alla x R. Det följer från definitionen att följande påståenden gäller. (i F X (x Egenskaper hos fördelningsfunktionen {, x,, x +. (ii F X (x är icke-avtagande och högerkontinuerlig. (iii F X (x = p X (k. {k X(Ω:k x} (iv P (X > x = F X (x. (v F X (k F X (k = p X (k för k X(Ω. Exempel på hur en sannolikhetsfunktion och motsvarande fördelningsfunktion kan se ut: p X (k F X (x k x 3
14 .3 Vanliga diskreta fördelningar Det räcker med sannolikhetsfunktionen för att karakterisera en diskret variabel, så vi sammanfattar några av de vanligaste fallen. Vi antar genomgående att < p <. En av de enklaste fördelningarna vi stöter på är Bernoullifördelningen, eller -punkts fördelningen. Tvåpunktsfördelning (Bernoullifördelning Den stokastiska variabeln X kan anta två värden: a och b. Vi kallar X för tvåpunktsfördelad, X Be(p, om p X (a = p och p X (b = p. Exempel Slantsingling med osymetriskt mynt. Låt X = vid krona och X = vi klave. Till exempel kan vi ha p X ( = P (X = =.4 och p X ( = P (X = =.6. Vad händer om vi betraktar summan av oberoende Bernoullivariabler? Exempel En händelse har 3% sannolikhet. Vi upprepar försöket gånger, oberoende av varandra. Vad blir sannolikheten att:. Händelsen inträffar exakt k gånger;. Händelsen inträffar högst gång; 3. Händelsen inträffar minst gånger. Lösning: Låt X vara antalet gånger händelsen inträffar. Då är X =,,..., möjliga värden.. Enligt exemplet från föregående föreläsning (inbrottstjuven måste ( P (X = k =.3 k.7 k, k =,,...,. k Observera att P (X = k = p X (k, så uttrycket ovan är sannolikhetsfunktionen för X.. P (X = p X (k = ( ( P (X = P (X < = P (X Vi säger att X är binomialfördelad med parametrarna n = och p =.3. Binomialfördelning Vi kallar X binomialfördelad med parametrarna n och p om X har sannolikhetsfunktionen ( n p X (k = p k ( p n k, k =,,..., n, k och vi skriver X Bin(n, p. Antag att vi har en större mängd med N element där N = v + s består av två olika sorters element. Låt p = v/n vara andelen v-märkta element. Om vi på måfå plockar ut n stycken 4
15 element från N, hur många är v-märkta? Svaret kommer i form av den Hypergeometriska fördelningen. Hypergeometrisk fördelning Vi skriver X Hyp(N, n, p om ( ( Np N( p p X (k = k n k ( N, k =,,,..., Np. n Vi kallar X för Hypergeometriskt fördelad. Exempel Ur en grupp bestående av studenter väljer vi på måfå. Den stora gruppen består till 6% av kvinnor. Vad är sannolikheten att vi har precis elva kvinnor i den mindre gruppen? Lösning: Låt X vara antalet kvinnor i den mindre mängden. Det följer att X Hyp(,,.6, så sannolikheten vi söker kan beräknas enligt ( ( 6 4 P (X = = p X ( = ( Likformig (rektangel fördelning Om X antar ändligt många värden, säg X =,,..., m, och p X (k = m,,..., m, så kallar vi X för likformigt fördelad. för varje k = Exempel Låt Ω = {,,,..., 9} och låt X vara likformigt fördelad på Ω. Vidare, låt Y (x = om x är jämnt delbart med 3, annars är Y =. Bestäm p X och p Y. Lösning: Vi har p X (k = / om k =,,,..., 9 och p X (k = annars. Mängden A = {, 3, 6, 9} är de tal som är delbara med 3 och B = {,, 4, 5, 7, 8} de som inte är delbara med tre. Klassiska definitionen på sannolikhet ger P (A = 4/ och P (B = 6/. Variabeln Y blir Bernoullifördelad med p = /5 (med a = och b =. För-första-gången-fördelning k =,,.... Vi kallar X för För- Vi skriver X Ffg(p om p X (k = ( p k p, första-gången-fördelad. Ett slumpförsök har två olika utfall, säg A och B, med sannolikheterna p respektive p. Vi upprepar försöker oberoende tills dess att händelsen A inträffar för första gången. Antalet försök X till och med att A inträffar för första gången är Ffg(p-fördelad. Om X = k innebär det att A inträffade för första gången vid den k:te upprepningen, och att i de k första försöken inträffade B. Alltså måste P (X = k = P (B k P (A = ( p k p eftersom försöken är oberoende. 5
16 Exempel Låt oss kasta en 6-sidig tärning tills dess att vi för första gången får en :a eller 3:a. Låt X vara antalet kast. Händelsen att få en :a eller 3:a vid ett kast är p = /6 = /3 (gynsamma/möjliga. Då blir alltså X Ffg(/3-fördelad. Vad är sannolikheten att det tar fyra eller fler kast innan vi får en :a eller 3:a för första gången? Lösning: Som bekant är X Ffg(/3, så Alternativt, P (X 4 = 3 P (X = k = k= ( ( 3 = P (X 4 = P (X = k = 3 k=4 k=4 ( k = ( k = /3 = 8 7. En nära besläktad fördelning är den geometriska. Geometrisk fördelning Vi skriver X Geo(p om p X (k = ( p k p, Geometriskt fördelad. k =,,,.... Vi kallar X för En annan diskret fördelning vi kommer att stöta på framöver är Poissonfördelningen. Poissonfördelning Vi skriver X Po(µ om p X (k = µk k! e µ, k =,,,... och µ >. Vi kallar X för Poisson-fördelad. För vissa fördelningar och parametervärden har vi tabeller av sannolikheter att tillgå, speciellt för Poisson- och Binomialfördelning. Studera formelsamlingen! 6
17 TAMS79: Föreläsning 3 Kontinuerliga stokastiska variabler Johan Thim 3 januari 3 3. Kontinuerliga stokastiska variabler Tähetsfunktion Definition. Om det finns en icke-negativ integrerbar funktion f X så att P (a < X < b = ˆ b a f X (x dx för alla intervall (a, b R, kallar vi f X för variabelns täthetsfunktion. Exempel: y y y=f X (x y=f X (x a Skuggad area: P (a X b. (i f X (x för alla x R. (ii ˆ f X (x dx =. b x a Skuggad area: P (X > a = f a X(x dx. Egenskaper hos täthetsfunktionen (iii f X (x anger hur mycket sannolikhetsmassa det finns per längdenhet i punkten x. Definitionen kanske ser oskyldig ut, men här finns det både hundar och ugglor begravda i mossen. Problemet ligger i integralbegreppet och hur generella händelser vi vill tillåta. I grundanalysen introducerar man Riemann-integralen, men tyvärr räcker den inte riktigt till [email protected] x
18 för allt. Betrakta följande funktion: f(x = om x <, x >, eller om x är rationell (dvs ett bråk p/q av heltal p och q. I övriga punkter är f(x = (dvs på alla irrationella punkter i intervallet [, ]. Man kan tänka sig den stokastiska variabeln X som indikerar om ett slumptal mellan noll och ett är irrationellt eller inte. Täthetsfunktionen skulle då ges av f(x ovan, men är detta verkligen en täthetsfunktion? Den är icke-negativ, så den biten är OK. Men har den area ett?? Av nödvändighet kommer alla undertrappor till f(x på [, ] att vara identiskt lika med noll, och på samma sätt är alla övertrappor identiskt lika med ett. Vi kan alltså aldrig approximera funktionen med över- och undertrappor. Således är f(x inte Riemann-integrerbar. Så hur löser man detta? Med ett nytt integralbegrepp (Lebesgueintegralen, där det visar sig att integralen av f mycket riktigt blir ett. Detta ligger utanför ramarna för denna kurs. Termen integrerbar i definitionen syftar på denna nya typ av integral. För snälla funktioner (funktioner som till exempel bara har uppräkneligt många diskontinuiteter så sammanfaller de båda integralbegreppen. Vi kommer alltså inte att fundera så mycket mer på detta. Strikt olikhet eller inte? Om X är en kontinuerlig variabel, så är P (X < x = P (X x. Detta följer från att integralen inte gör någon skillnad på om ändpunkten är med eller ej. Vi kan till och med definiera om funktionen i uppräkneligt många punkter (även mer, men det kräver lite mått-teori för att definiera utan att ändra sannolikheten. Detta gäller dock absolut inte i det diskreta fallet. Vi definierar fördelningsfunktionen F X (x på samma sätt som i det diskreta fallet, och finner att F X (x = P (X x = ˆ x f X (t dt, x R. Fördelningsfunktionen uppfyller (i (iii från det diskreta fallet, och i alla punkter där f X (x är kontinuerlig gäller dessutom att F X(x = f X (x. Exempel på hur en täthetsfunktion och motsvarande fördelningsfunktion kan se ut: f X (x F X (x x x Täthet: Hur sannolikhetsmassan är fördelad. Skuggad area är P (X = F X (. Fördelningsfunktionen är växande och gränsvärderna mot ± verkar stämma!
19 Exempel Låt f (x = x + bx och f (x = c(x 3 + x båda för x [, ]. Om det går, bestäm konstanterna b och c så dessa blir täthetsfunktioner och beräkna sannolikheten att respektive variabel är. Lösning: Vi börjar med f : = ˆ ( x + bx dx = 8 + b b = 5/6. 3 Men om b är negativ kommer f (x att vara negativ för x nära noll (x termen går mot noll snabbare än x. Detta kan alltså inte vara en täthetsfunktion. Vi testar f : = c ˆ ( x 3 + x dx = 6c c = /6. Det är även klart att f (x för alla x [, ]. Med c = /6 är alltså f en täthetsfunktion. Den eftersökta sannolikheten kan beräknas enligt P (X = ˆ 3. Vanliga kontinuerliga fördelningar ( x 3 + x dx = 6 8. Analogt med diskreta variabler definieras de kontinuerliga ofta från sina respektiva täthetsfunktioner. Vi definierar några av de vanligaste. Det finns många andra fördelningar som ofta används, men dessa är de vi kommer att använda mest. Se boken för fler exempel (Gammafördelning, Weibullfördelning, χ -fördelning, t-fördelning mfl. Normalfördelning Variabeln X kallas normalfördelad med parametrarna µ och σ, X N(µ, σ, om f X (x = ( σ π exp (x µ, x R. σ Vi kommer att studera normalfördelningen i mer detalj senare. Det är antagligen den viktigaste fördelningen ni kommer att stöta på. Fler vanliga fördelningar följer. Likformig fördelning Variabeln X kallas likformigt fördelad (eller rektangel-, X U(a, b eller X Re(a, b, om f X (x = { b a, a x b,, övriga x Exempel Ubbe häller upp Whisky i sitt glas. Vätskenivån är likformigt fördelad mellan två och fem fingrar. Vad är sannolikheten att Ubbe häller upp mindre än 3. fingrar? Lösning: Låt X Re(, 5 vara vätskenivån. Vi söker P (X < 3.: P (X < 3. = ˆ 3. 5 dx = (3. =
20 Exponentialfördelning Variabeln X kallas exponentialfördelad med parametern λ >, X Exp(λ, om { λ exp( λx, x, f X (x =, x <. Parametern λ tolkas ibland som intensiteten. Exempel Låt X vara väntetiden i en telefonkö i minuter. Det visar sig att X har en täthetsfunktion f X (x = c e.5x för x där c är en konstant. (i Bestäm c så att f X blir en täthetsfunktion. (ii Vad är sannolikheten att få vänta i mer än 5 minuter vid ett samtal? (iii Om man ringer olika (oberoende samtal, vad är sannolikheten att högst ett av dessa har en väntetid på över 5 miunter? Lösning: ˆ ˆ (i = f X (x dx = c e.5x dx = c [ ] e.5x.5 = c, så c = /. ˆ (ii P (X > 5 = f X (x dx = [ ] e.5x = e 5/ (iii Varje samtal har sannolikheten e 5/ att ha mer än 5 minuters väntetid. Antalet Y av tio stycken samtal som har mer än 5 minuters väntetid blir alltså Binomialfördelad med n = och p = e 5/. Vi erhåller P (Y = ( k (e 5/ k ( e 5/ k = ( e 5/ + e 5/ ( 5/ Exempel En komponent (som inte åldras antas ha en livslängd T som är Exp(/-fördelad (enhet: dagar. (i Vad är sannolikheten att komponenten går sönder innan 8 dagar? (ii Givet att komponenten överlevt 8 dagar, vad är sannolikheten att den klarar dagar? Lösning: ˆ 8 (i P (T 8 = f X (x dx = Sannolikheten blir alltså ca 55.%. ˆ 8 e x/ dx = [ ] e x/ 8 / = e 4/5. 4
21 (ii Här använder vi definitionen av betingad sannolikhet och erhåller P ( T T 8 P ({T } {T 8} = = P (T 8 e x/ dx = 8 e x/ dx = e / Observera att denna sannolikhet är samma som P (T = ˆ e x/ dx = e /5. P (T P (T 8 e 8/ = e / Detta gäller generellt för exponentialfördelningen. Sannolikheten att komponenten klarar dagar är oberoende av hur länge den levt tidigare. Kanske inte alltid rimligt för komponenter? 3.3 Funktioner av stokastiska variabler Vad händer om vi har en funktion av en stokastisk variabel, säg att Y = g(x, där vi känner till fördelningen för X och hur funktionen g ser ut? Vi belyser med ett par exempel. Exempel Låt X Exp( och definiera Z = 5X +. Vad blir f Z (z? Lösning: Fördelningsfunktionen för Z kan beräknas genom ( F Z (z = P (Z z = P (5X + z = P X z 5 Vidare får vi då f Z (z = F Z(z = F X ( z 5 5 = f X ( z 5 Exempel Om X Exp(λ, vad får Y = e X för täthetsfunktion? ( z = F X. 5 { 5 = 5 e (z /5, z,, z <. Lösning: Vad blir f Y? Vi ser att Y > från definitionen så f Y (y = för y. Vi ställer upp F Y (y för y > : F Y (y = P (Y y = P (e X y = P (X log y = F X (log y, y >. Vi deriverar fram f Y (y = F Y (y = f y X(log y. Vi vet att f X (x = λe λx för x > och f X (x = för x. Eftersom log y < då < y < får vi två fall: { λ { f Y (y = y e λ log y, y >, λy = λ, y >,, y., y. Exempel Om X Re(,, vad får Y = X för täthetsfunktion? Lösning: Om y < så måste F Y (y = P (Y y = (Y = X kommer aldrig att vara negativ. Låt oss anta att y. Vi beräknar F Y (y = P (Y y = P (X y = P ( y X y = P (X y P (X y = F X ( y F X ( y. 5
22 Vi antar att f Y är kontinuerlig och deriverar fram ett uttryck: f Y (y = F Y (y = { y( fx ( y + f X ( y, y >,, y. Vidare vet vi att f X (x = /3 om x och f X (x = annars, så, y <, 3 f Y (y =, y <, y 6, y < 4, y, y 4. 6
23 TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler Johan Thim januari 3 Vi fokuserar på två-dimensionella variabler. Det är steget från en dimension till två som är det svåraste. Generaliseringar till högre dimensioner följer utan problem i de flesta fall. I R är Borelfamiljen B den minsta σ-algebra som innehåller alla öppna rektanglar (a, b (c, d. Stokastisk variabel Definition. En tvådimensionell stokastisk variabel är en reell-vektorvärd funktion (X, Y definierad på ett utfallsrum Ω. (X, Y avbildar alltså olika utfall på reella vektorer; (X, Y : Ω R. Vi kräver att (X, Y (B F för alla B B. Algebran F är mängden av alla tillåtna händelser. Om (X, Y bara antar ändligt eller uppräkneligt många värden så kallar vi (X, Y för en diskret stokastisk variabel. Om varken X eller Y är diskret kallar vi (X, Y för kontinuerlig. Definitionen är analog med envariabelfallet. Observera dock följande: en situation som kan uppstå är att vi får halvdiskreta variabler med ena variabeln diskret och den andra kontinuerlig! Inträffar inte ofta i denna kurs, men det kan vara värt att beakta. Exempel (i Låt (X, Y vara vikten X och längden Y hos en person. Variabeln är kontinuerlig och Ω = (X(Ω, Y (Ω = [, = [, [,. (ii Låt (X, Y vara resultaten av ett tärningskast (X respektive ett myntkast (Y, där vi representerar krona med och klave med. Variabeln är diskret och: Ω = {,,,,, } { Krona, Klave }, (X(Ω, Y (Ω = {,, 3, 4, 5, 6 } {, }. I det -dimensionella fallet är vi nu intresserade av delmängder i planet. För att kunna prata om en fördelningsfunktion introducerar vi mängden C(x, y = {(u, v R : u x och v y}. Vi ser att P ((X, Y C(x, y = P (X x, Y y och gör följande definition. [email protected]
24 Fördelningsfunktion Definition. Funktionen F X,Y (x, y = P (X x, Y y kallas fördelningsfunktionen för den stokastiska variabeln (X, Y. Om (X, Y är diskret låter vi p X,Y (j, k = P (X = j, Y = k. Detta är sannolikhetsfunktionen för (X, Y. Fördelningsfunktionen ges då av F X,Y (x, y = p X,Y (j, k. j x k y Om det finns en icke-negativ integrerbar funktion f X,Y så att F X,Y (x, y = ˆ x ˆ y f X,Y (u, v dudv, så kallar vi f X,Y för variabelns simultana täthetsfunktion. Detta är typfallet för att (X, Y är en kontinuerlig tvådimensionell stokastisk variabel. Sannolikheten F X,Y (x, y och sannolikheten för en mer generell delmängd A R kan grafiskt illustreras genom figuren nedan. Observera att sannolikheten inte är den skuggade arean, utan volymen som uppstår när vi har en funktionsyta definierad ovanför det skuggade området. Arean symboliserar alltså ett integrations- eller summationsområde. Vi summerar (via en integral eller summa sedan sannolikhetsvärden för de intressanta värderna för variabeln. v v C(x, y (x, y u A u Den halvoändliga rektangeln C(x, y. P ((X, Y A är sannolikheten att få ett resultat (x, y som ligger i mängden A.
25 Egenskaper hos sannolikhetsfunktionen (i p X,Y (j, k för alla (j, k. (ii p X,Y (j, k =. j k (iii Om A R så är P (X A = p X,Y (j, k. (j,k A Egenskaper hos den simultana täthetsfunktionen (i f X,Y (x, y för alla (x, y R. (ii ˆ ˆ f X,Y (x, y dxdy =. ˆ ˆ (iii Om A B (så A R är snäll så är P ((X, Y A = A f X,Y (x, y dxdy. (iv Talet f X,Y (x, y anger hur mycket sannolikhetsmassa det finns per areaenhet i punkten (x, y. Exempel på hur en tvådimensionell täthetsfunktion kan se ut. Det är nu volymen, inte arean, som ska vara ett
26 Exempel Det enklaste exemplet på en D-täthetsfunktion är den likformiga fördelningen. Låt A vara rektangeln med hörn i (, och (, 3 och låt (X, Y vara likformigt fördelad på A. Då ges f X,Y av f X,Y (x, y = /6 om (x, y A och f X,Y (x, y = för övrigt. Sannolikheten att X > Y kan vi enkelt beräkna genom att titta på hur stor del av A där detta villkor är uppfyllt, vilket är triangeln med hörn i (,, (, och (,. Vi area triangel erhåller alltså P (X > Y = area rektangel = 6 = 3. Definition. De marginella täthetsfunktionerna f X och f Y för X och Y i en kontinuerlig stokastisk variabel (X, Y ges av f X (x = ˆ f X,Y (x, y dy och f Y (y = ˆ Motsvarande gäller om (X, Y är diskret: f X,Y (x, y dx. p X (j = k p X,Y (j, k och p Y (k = j p X,Y (j, k. Man kan även definiera marginella fördelningsfunktioner genom F X (x = lim y F X,Y (x, y och F Y (y = lim x F X,Y (x, y. Oberoende variabler Sats. Om (X, Y är en stokastisk variabel med simultan täthetsfunktion f X,Y gäller att X och Y är oberoende om och endast om f X,Y (x, y = f X (xf Y (y. För en diskret variabel är motsvarande villkor p X,Y (j, k = p X (jp Y (k. Det är även sant att (i båda fallen X och Y är oberoende om och endast om F X,Y (x, y = F X (xf Y (y. Exempel Låt (X, Y ha sannolikhetsfunktionen p X,Y (j, k = c(jk + k 3 för j =,,, 3 och k =,. Annars är p X,Y =. (i Vad är c? (ii Bestäm p X (j och p Y (k. Är X och Y oberoende? (iii Beräkna P (X, Y.5. 4
27 Lösning: (i Vi måste välja c > för att p X,Y ska kunna vara en sannolikhetsfunktion. För att finna c summerar vi över alla j och k: 3 c(jk + k 3 = j= 3 c(j + = c( = c, j= så c = / är nödvändigt och tillräckligt. (ii De marginella sannolikhetsfunktionerna fås ur definitionen enligt p X (j = p Y (k = c(jk + k 3 = c(j +, j =,,, 3. 3 c(jk + k 3 = c(k 3 + k + k 3 + k + k 3 + 3k + k 3 = c(3k + k 3, k =,. j= Vi testar även att 3 p X (j = c( =, j= p Y (k = c(3 + =, så p X och p Y är sannolikhetsfunktioner. Vi testar oberoendet: p X (jp Y (k = c (j + (3k + k 3. Här kan man kanske direkt tro att X och Y är beroende, men det skulle vara en gissning. Vi undersöker explicit: p X,Y j = j = j = j = 3 k = k = / / 3/ 4/ p X p Y j = j = j = j = 3 k = k = Vi ser här att alla siffror matchar varandra och att därmed p X,Y (j, k = p X (jp X (k för alla j och k. Detta trots att uttrycken såg väldigt olika ut från början. Var försiktiga med att dra slutsatser utan att undersöka ordentligt! (iii Vi kan numrera de tillåtna värderna (där X = j och Y = k.5 på (j, k: (,, (,, (,. Sannolikheten blir då P (X, Y.5 = p X,Y (, + p X,Y (, + p X,Y (, = c( = 6/. 5
28 Exempel Låt (X, Y ha den simultana täthetsfunktionen { c(x y + xy, < x <, < y <, f X,Y (x, y =, annars. Lös följande problem. (i Bestäm c; (ii Vad är sannolikheten för händelsen att X > / och att Y < /? Det vill säga, beräkna sannolikheten P (X > /, Y < /; (iii Beräkna P (X > /; (iv Beräkna P ( Y < / X > / ; (v Beräkna f X (x och f Y (y. Är X och Y oberoende? (vi Beräkna F X,Y (x, y. (vii Vad blir Lösning: x y F X,Y (x, y? (i Vi räknar ut följande ˆ ˆ = f X,Y (x, y dxdy = R ˆ ˆ c(x y + xy dxdy = c så c = 3 är nödvändigt för att få en täthetsfunktion. ˆ ( y 3 + y dy = c 3, (ii Vi har P (X > / och Y < / = ˆ ˆ / / 3(x y + xy dydx = 5 3. (iii Vi har endast ett krav på x, så vi integrerar över alla y: P (X > / = ˆ / ˆ 3(x y + xy dydx = 3 6. (iv Enligt definitionen av betingad sannolikhet, P ( Y < / X > / = P (X > /, Y < / P (X > / = 5/3 3/6 = 5 6. (v De marginella tätheterna beräknas direkt från definitionen: f X (x = f Y (y = ˆ ˆ 3(xy + x y dy = x + 3 x, x, 3(xy + x y dx = y + 3 y, y. 6
29 Vi ser tydligt att f X (xf Y (y f X,Y (x, y för många val av punkter (x, y; ta till exempel (x, y = (,. Variablerna är beroende. (vi Låt (x, y [, ] [, ]. Då blir F X,Y (x, y = ˆ x ˆ y 3(uv + u v dvdu = x3 y + x y 3. Om x < eller y <, måste F X,Y (x, y =, och om x > och y >, så måste F X,Y (x, y =. Övriga fall täcks av (vii Om x och y, F X,Y (x, y = y + y 3, y och x >, F X,Y (x, y = x3 + x, x och y >. x y F X,Y (x, y = x ( x 3 y + 3x y = 6x y + 6xy = f X,Y (x, y. Övriga kombinationer av x och y kommer att ge x y F X,Y (x, y =. Exempel Låt X Exp( och Y Exp( vara oberoende. Beräkna täthetsfunktionen för Z = X + Y. Klart att f X,Y (x, y = f X (xf Y (y = e x y för x och y (annars f X,Y =. Vi söker f Z (z. Det är klart att om z < så är f X,Y (x, y =. Antag att z. Vi ställer upp fördelningsfunktionen F Z (z för Z, och för det behöver vi ha klart för oss vilket område vi integrerar över: y z x + y = z z x 7
30 Fördelningsfunktionen blir nu, för z, F Z (z = P (X + Y z = ˆ z = = ˆ z ˆ z ˆ z x ˆ z ˆ z x e x e y dydx = f X,Y (x, y dydx ( e x e z+x dx = + e z e z, e x ( e (z x dx och vi kan derivera fram f Z (z = F Z (z = e z e z. Kontrollera att f Z (z samt att ˆ f Z (z dz =. Faltningssatsen Sats. Om X och Y är oberoende kontinuerliga stokastiska variabler så ges täthetsfunktionen f Z för Z = X + Y av f Z (z = ˆ Motsvarande gäller för diskreta variabler: f X (xf Y (z x dx, z R. p Z (k = j p X (jp Y (k j. Min och max Vad blir fördelningsfunktionerna för maximum respektive minimum av två oberoende stokastiska variabler? Låt Y = max(x, X. Då blir F Y (y = P (max(x, X y = P (X y och X y = P (X yp (X y = F X (yf X (y. För Y = min(x, X så erhåller vi F Y (y = P (min(x, X y = P (min(x, X > y = P (X > y och X > y = P (X > yp (X > y = ( P (X y( P (X y = ( F X (y( F X (y. En vanlig situation där dessa uttryck dyker upp är i parallell- och seriekoppling av komponenter. Schematiskt kan man beskriva dessa situationer med blockscheman. X X X X Seriekoppling. Båda kanalerna måste fungera. Ger minimum av livslängderna. Parallellkoppling. Räcker att en kanal fungerar. Ger maximum av livslängderna. 8
31 TAMS79: Föreläsning 5 Väntevärde och varians Johan Thim januari 3 Väntevärde Definition. Väntevärdet E(X av en stokastisk variabel X definieras som E(X = ˆ xf X (x dx respektive E(X = k kp X (k för kontinuerliga och diskreta variabler. Andra vanliga beteckningar: µ eller µ X. Väntevärdet är ett lägesmått som anger vart sannolikhetsmassan har sin tyngdpunkt (jämför med mekanikens beräkningar av tyngdpunkt. Väntevärde och funktioner av stokastiska variabler Sats. Låt Y = g(x och W = h(u, V. I de kontinuerliga fallen blir ˆ ˆ ˆ E(Y = g(xf X (x dx och E(W = h(x, yf U,V (x, y dxdy, R och om X, U, V är diskreta: E(Y = k g(kp X (k och E(W = j h(j, kp U,V (j, k. k Rent praktiskt kan beräkningarna gå till på följande sätt. Exempel Låt f X,Y (x, y = om < y < x < och f X,Y (x, y = för övrigt. Bestäm väntevärdet E(XY + Y X. Lösning: Vi använder satsen ovan: ˆ ˆ E(XY + Y X = (xy + y xf X,Y (x, y dxdy = R ˆ [ ] xy x ˆ = + xy3 dx = 3 [email protected] = = 3 6. ˆ ˆ x (x 3 + x4 3 (xy + y x dydx dx
32 5. Varians och standardavvikelse Varians och standardavvikelse Definition. Låt X vara en stokastisk variabel med E(X <. Variansen V (X definieras som V (X = E((X E(X. Standardavvikelsen D(X definieras som D(X = V (X. Andra vanliga beteckningar för standardavvikelsen: σ, σ X, σ(x. Variansen är ett spridningsmått. Stor varians (eller standardavvikelse betyder att sannolikhetsfördelning har stor spridning. Många värden är troliga. Liten varians betyder att fördelningen är centrerad, hög sannolikhet att hamna kring en viss punkt; se figuren nedan. y y y=f X (x y=f X (x µ Litet D(X = σ. Sats. V (X = E(X E(X. x Steiners sats µ Stort D(X = σ. x Exempel Låt X anta värderna {, } med p X ( = p X ( = / och låt X anta värderna {, } med p X ( = p X ( = /. Beräkna V (X och V (X. Lösning: Det är klart att E(X = E(X = (varför?, så V (X = E(X E(X = ( + = och V (X = E(X E(X = ( + ( = =. Tydligt att X har mycket större varians även om fördelningarna ser snarlika ut. Sannolikheten är mycket mer utspridd för X. Exempel Låt X anta värderna,,,... med sannolikheterna p X (k = k. Beräkna E(X och V (X. Lösning: Till att börja med kan vi kontrollera att p X verkligen är en sannolikhetsfunktion. Klart att p X (k, och summan nedan är geometrisk så p X (k = k = k = / =.
33 Vi beräknar väntevärdet. Låt q ], [ så p X (k = ( qq k med q = /. Vi kan beräkna summan av kq k genom följande manöver: kq k = Alltså blir kq k = q k= kq k = q k= E(X = ( q kq k = q q d dq qk = q d dq q k = q d dq q = q ( q. och E(X = om q =. För att beräkna E(X kikar vi på motsvarande kalkyl för andraderivatan: Således, q vilket medför att så d dq qk = q k q k = (k kq k = q d + q ( q dq E(X = ( q (k kq k = q k = k q k = V (X = E(X E(X = k q k q ( q. q ( q + q ( q 3, q q + q ( q q q + q ( q = q ( q. och med q = / får vi V (X =. Den observante läsaren kanske känner igen sannolikhetsfunktionen vi arbetar med då det är den geometriska fördelningen X Geo( q. Så vad vi visat ovan är följande: Geometrisk fördelning Sats. Om X Geo(p så är E(X = p p Ett annat lägesmått än väntevärdet är medianen. och V (X = p p. Median Definition. En median för en stokastisk variabel X är ett tal m R så att P (X m = P (X m =. Observera att medianen inte behöver vara entydig! Medianen för en Exponentialfördelning Låt X Exp(λ. Beräkna medianen och väntevärdet för X. Lösning: Vi räknar ut fördelningsfunktionen för X. Om x >, F X (x = ˆ x f X (t dt = 3 ˆ x λe λt dt = e λx.
34 Medianen finner vi ur ekvationen F X (m = /, dvs e λm = Jämför detta med väntevärdet för X: E(X = ˆ e λm = m = ln λ. xλe λx dx = [ xe λx] ˆ + e λx dx = + Medianen och väntevärdet behöver alltså inte vara samma sak! y ] [ e λx λ = λ. λ y=f X (x m µ x Ett annat exempel där medianen inte är entydigt definierad: y y = f X (x Vart är medianen?? x 5. Räknelagar För väntevärdet gäller bland annat följande regler. Linjäritet och oberoende produkt Låt X och Y vara stokastiska variabler. Då gäller (i E(aX + b = ae(x + b för alla a, b R; (ii E(aX + by = ae(x + be(y för alla a, b R; (iii Om X och Y är oberoende gäller E(XY = E(XE(Y. För variansen kan vi visa följande: 4
35 Låt X och Y vara stokastiska variabler. Då gäller (i V (ax + b = a V (X för alla a, b R; (ii V (ax ± by = a V (X + b V (Y + ab(e(xy E(XE(Y för alla a, b R; (iii Om X och Y är oberoende gäller V (ax ± by = a V (X + b V (Y. Varianser adderas alltid! Observera att det alltid blir ett plustecken mellan varianserna för linjärkombinationer: V (ax ±by = a V (X+b V (Y. Vi kommer aldrig att bilda skillnader mellan varianser! Det följer att standardavvikelsen för en linjärkombination ax + by av två oberoende stokastiska variabler ges av σ ax+by = a σx + b σy. Exempel Låt X och Y vara oberoende med E(X =, E(X = 8, E(Y =, V (Y =. Beräkna E(XY, E(X Y och D(X 3Y. Då variablerna är oberoende blir E(XY = E(XE(Y = ( =, och Vidare erhåller vi E(X Y = E(X E(Y = 8E(Y = 8(V (Y + E(Y = 8 3 = 4. så D(X 3Y = 34. V (X 3Y = V (X + ( 3 V (Y = 4(8 + 9 = 34, Exempel Låt X och Y vara oberoende likafördelade variabler med p X (k = p Y (k = /4 om k =, och p X (k = p Y (k = / om k =. Bestäm sannolikhetsfuntionen för Z = X + Y, väntevärdet E(X + Y samt variansen V (X + Y. Vi börjar med att bestämma p Z (k. Man kan göra detta på samma sätt som i exemplet från föregående föreläsning (med summor istället för integraler, men då vi har så få möjliga värden på variablerna är det enklare att ställa upp en tabell. Z = X + Y = n Par (j, k så j + k = n Total sannolikhet (, 4 (,, (, 4 4 (,, (,, (, (,, (, (,
36 Två sätt att beräkna väntevärdet: E(Z = E(X + Y = E(X + E(Y = E(X = E(Z = 4 kp Z (k = = 4 6 = 3. ( kp X (k = = 3 4, Möjligen kan man tycka att det andra alternativet ser enklare ut, men då har man glömt bort allt arbete som gick åt till att skapa tabellen ovan. Det första alternativet är nästan alltid det enklaste. Variansen beräknar man enklast enligt följande V (Z = V (X + Y = [ oberoende variabler ] = V (X + V (Y = V (X = 8 eftersom vi vet att V (X = E(X E(X = k p X (k 9 ( 6 = = 6. Två sätt att räkna ut E(g(X Låt Θ Re(, π/4 vara likformigt fördelad och definiera Y = cos Θ. Vad blir E(Y? Lösning: Det enklaste sättet är att använda satsen från början av föreläsningen: E(Y = E(cos Θ = ˆ cos θf Θ (θ dθ = 4 π ˆ π/4 cos θ dθ = 4 π ( = π. Den andra varianten börjar med beräkning av täthetsfunktionen för Y = cos Θ. Vi ställer upp fördelningsfunktionen först: F Y (y = P (Y y = P (cos Θ y = P (Θ arccos y = P (Θ < arccos y = F Θ (arccos y. Här har vi utnyttjat att cos θ är avtagande för θ [, π/4]. Vi kan nu derivera fram f Y (y: f Y (y = F Y (y = F Θ(arccos y = { 4 π Vi kan nu beräkna E(Y enligt definitionen: y = f Θ(arccos y y y, arccos y π 4 y, för övrigt. E(Y = ˆ yf Y (y dy = 4 π ˆ / y dy = 4 [ y π y ] = π. Vilket metod tycker du är enklast? 6
37 5.3 De stora talens lag Sats. Låt X, X, X 3,... vara en oändlig följd av oberoende och likafördelade stokastiska variabler sådana att E(X i = µ för alla i =,,... och µ är ändlig. Definiera X n := n X i (medelvärdet av de n första variablerna i följden. För varje ɛ > n gäller att i= P ( X n µ < ɛ då n. En tolkning av satsen är att det aritmetiska medelvärdet av en följd oberoende och likafördelade variabler kommer att ha sin sannolikhetsmassa koncentrerad kring väntevärdet µ: y y=f Xn (x µ ɛ µ Beviset följer från kända olikheter. Låt X vara en stokastisk variabel med E(X = µ och V (X = σ, och låt k >. Tjebysjovs (Chebychevs olikhet säger att µ+ɛ P ( X µ kσ k. För att bevisa denna olikhet kan man använda Markovs olikhet (som gäller om X är ickenegativ: P (X a µ a, a >. Kan du pussla ihop beviset för de stora talens lag från dessa? Vanligt missförstånd Låt oss (oberoende kasta en sex-sidig balanserad tärning 8 gånger. Vi förväntar oss att medelvärdet ligger nära 3.5. Antag att medelvärdet blev 4.. Betyder detta enligt satsen ovan att vi kommer att få fler resultat,, 3 än 4, 5, 6 om vi kastar tärningen 8 gånger till? Svaret är nej. De olika kasten anses oberoende, och kan därför inte påverkas av tidigare utfall. Så hur kan då satsen ovan gälla? Faktum är att det inte behöver vara fler låga resultat vid kommande upprepningar, det räcker med att medelvärdet av de nya resultaten är mindre än 4. för att vi ska hamna närmare 3.5 totalt sett. Det lönar sig alltså inte att satsa mer pengar bara för att man förlorat så många gånger på rad (om händelserna är oberoende, annars kan lite vad som helst inträffa!. x 7
38
39 TAMS79: Föreläsning 6 Normalfördelningen Johan Thim 4 februari 3 Normalfördelning Definition. Låt µ R och σ >. Om X är en stokastisk variabel med täthetsfunktion f X (x = ( σ π exp (x µ, x R, σ så kallar vi X för normalfördelad med parametrarna µ och σ. Vi skriver X N(µ, σ. Om µ = och σ = kallar vi X för standardiserad, och i det fallet betecknar vi täthetsfunktionen med ϕ(x = exp ( x, x R. π Fördelningsfunktionen för en normalfördelad variabel ges av F X (x = ˆ x σ (u µ exp ( du, x R, π σ och även här döper vi speciellt den standardiserade fördelningsfunktionen till Φ(x = π ˆ x exp ( u du, x R. Är det någon som kommer ihåg vad som hände när man försökte integrera e x i envariabelanalysen? Man kan visa att det inte går att uttrycka den primitiva funktionen i elementära funktioner, utan man definierar helt enkelt en ny funktion utifrån den bestämda integralen (slå upp erf-funktionen i något matematiskt uppslagsverk. Vad detta innebär för oss är att vi kommer att använda tabell för att beräkna numeriska värden för uttryck som innehåller funktionen Φ. Standardisering av variabel Om X är en stokastisk variabel med E(X = µ och V (X = σ, så är Z = (X µ/σ en stokastisk variabel med E(Z = och V (Z =. Vi kallar Z för standardiserad. Beviset för att E(Z = följer direkt från linjäriteten hos väntevärdet. Variansen kan ses [email protected]
40 genom följande argument: V ((X µ/σ = E((X µ /σ = σ ( E(X µe(x + µ = σ ( E(X E(X = σ σ =. Standardiserad normalfördelning Sats. Om X N(, så är E(X = och V (X =. Eftersom e x / går mot noll väldigt snabbt, så kommer Alltså måste ˆ xϕ(x dx <. E(X = π ˆ xϕ(x dx = eftersom x xϕ(x är en udda funktion. På liknande sätt ser vi att ˆ E(X = x ϕ(x dx = ˆ ( x xe x / dx π = ( [ ] ˆ x( e x / + e x / dx = + ˆ e x / dx =, π π där vi partialintegrerat och utnyttjat att ϕ(x är en täthetsfunktion så den sista integralen blir ett. Ett korrolarie av satsen ovan (gör ett variabelbyte i integralerna är följande. X N(µ, σ Om X N(µ, σ så är E(X = µ och V (X = σ. Standardavvikelse eller varians? I kursboken (Blom et al används beteckningen X N(µ, σ, så den andra parametern är alltså standardavvikelsen σ, inte variansen σ som vi använt ovan. y σ =.5.4 σ = µ σ = x
41 Bruk av tabell för Φ(x Låt X N(,. Då gäller (i P (X x = Φ(x för alla x R; (ii P (a X b = Φ(b Φ(a för alla a, b R med a b; (iii Φ( x = Φ(x för alla x R. y y y x Φ(x x a b Φ(b Φ(a x x x Φ( x = Φ(x x Exempel Låt X N(,. Bestäm P (X, P (X <, P (X, samt P ( < X. Direkt ur tabell, P (X = Φ(.843. Eftersom X är kontinuerlig kvittar det om olikheterna är strikta eller inte, så P (X < = P (X = Φ( igen. Vidare har vi P (X = Φ( = Φ( =.587 och P ( < X = Φ( Φ( = =.343. Standardisering av normalfördelning Sats. X N(µ, σ Z = X µ σ Eftersom ( X µ F X (x = P (X x = P σ N(,. x µ ( = P Z x µ ( x µ = Φ σ σ σ och Φ (x = ϕ(x då ϕ är kontinuerlig, så följer det att f X (x = F X(x = ( x µ σ ϕ = σ σ (x µ π e σ, x R. Alltså har vi även ( x µ f X (x = ϕ σ och ( x µ F X (x = Φ. σ Exempel Låt X N(, 4, där σ = 4. Bestäm P (X, P (X, P ( < X, samt P ( X < 3. 3
42 ( X (i P (X = P ( X (ii P (X = P (iii = Φ( =. ( P ( < X = P = Φ( = Φ(.587. < X = Φ( Φ( / = / ( Φ(/ = / + Φ(/.95. (iv ( P ( X < 3 = P ( 3 < X < 3 = P < X = Φ( Φ( = Φ( + Φ( Exempel Låt X N(,. Hitta ett tal a så att P ( X > a =.5. Situationen ser ut som i bilden nedan. De skuggade områderna utgör tillsammans 5% av sannolikhetsmassan, och på grund av symmetri måste det vara.5% i varje svans. y a a x Om vi söker talet a, och vill använda funktionen Φ(x = P (X x, måste vi söka det tal som ger Φ(a =.975 (dvs de.5% i vänstra svansen tillsammans med de 95% som ligger i den stora kroppen. Detta gör vi genom att helt enkelt leta efter talet.975 i tabellen över Φ(x värden. Där finner vi att a =.96 uppfyller kravet att P (X a = Linjärkombinationer av normalfördelade variabler Det är inte på något sätt uppenbart att summan av två likafördelade variabler har samma fördelning. Oftast är det inte ens sant. Men, just normalfördelningen har precis denna trevliga egenskap! Summa av normalfördelade variabler Sats. Låt X N(µ, σ och X N(µ, σ vara oberoende och låt a, b R. Då gäller att ax + bx N(aµ + bµ, a σ + b σ. 4
43 Beviset är inte trivialt. Att E(aX + bx = aµ + bµ och V (ax + bx = a σ + b σ är enkelt att se. Detta gäller oavsett vad variablerna har för slags fördelning (enbart egenskaper för väntevärde och varians. Det faktum att summan blir normalfördelad kräver ett djupare argument; se boken (man använder faltningssatsen. Satsen ovan generaliserar direkt till flera variabler. Vi har följande användbara specialfall. Summor och medelvärde Sats. Låt X, X,..., X n vara oberoende och X k N(µ, σ för k =,,..., n. Då gäller följande: X := n X k N(nµ, nσ och X := n k= n X k N(µ, σ /n. k= Den sista likheten är intressant, då det innebär att ju fler likadana variabler vi tar med i ett medelvärde, desto mindre blir variansen. Till exempel får vi alltså säkrare resultat ju fler mätningar vi gör (något som känns intuitivt korrekt. Det är dock mycket viktigt att variablerna är oberoende. Annars gäller inte satsen! Vi bildar aldrig heller några skillnader mellan varianser, utan det som gör att variansen minskar med antalet termer är faktorn /n i medelvärdet: V (X = V ( n ( n n X k = n V X k = n n k= k= k= eftersom variablerna är oberoende och V (X k = σ för alla k. V (X k = nσ n = σ n, Exempel Låt X N(, 3 och Y N(, 6 vara oberoende. Vad är sannolikheten att Y är mer än dubbelt så stor som X? Lösning: Låt W = Y X N(, = N(, 7. Vi söker alltså ( P (Y > X = P (Y X > = P (W > = P (W = Φ 7 = ( Φ(. = Exempel Låt T vara livslängden för en viss sorts lysrör (enhet: månader och T N(, 8. (i Vad är sannolikheten att man klarar 43 månader om man har två (oberoende lysrör och byter direkt det första går sönder? (ii Hur många lysrör måste man skaffa för att medellivslängden ska vara mer än 9 månader med sannolikhet 95%? Lösning: (i Vi har två lysrör, T och T. Vi söker sannolikheten att T + T 43. Satsen ovan visar att T + T N(4, 6, så ( T + T P (T + T 43 = P (T + T < 43 = P < 6 6 = Φ(3/ 6 Φ(
44 (ii Låt T vara medelvärdet av n stycken lysrör. Det följer att T N(, 8/n. Vi vill att.95 = P (T > 9 = P ( T 8/n > = Φ( / 8/n = 9 8/n = P (Z / 8/n ( Φ(/ 8/n = Φ( n/8, där Z = T 8/n N(,. Ur tabell finner vi då att n/8 =.645, eller ekvivalent, att n.6. Således behövs åtminstone stycken lysrör. 6. Centrala gränsvärdessatsen Alla vägar leder till Rom. Eller åtminstone: alla fördelningar leder till normalfördelning? Faktum är att det är precis det den centrala gränsvärdessatsen säger: summan av ett stort antal oberoende och likafördelade stokastiska variabler är approximativt normalfördelad. Vi betraktar ett exempel. Låt oss utföra det klassiska experimentet med slantsingling och räkna antalet X kronor vid ett visst antal, säg n, kast. Från tidigare exempel (inbrottstjuven så vet vi att X Bin(n, p, där p = / om myntet är rättvist. En binomialfördelad variabel kan ses som en summa av oberoende Bernoulli-fördelade variabler X k, en variabel för varje försök (slantsingling, där X k = om försök nr k misslyckas (klave, och X k = n om försök k lyckas (krona. Alltså kan vi skriva X = X k. Varje X k har sannolikhetsfunktionen p Xk ( = p och p Xk ( = p. Med andra ord, binomialfördelningen kan ses som en summa av oberoende och likafördelade variabler. Om bara n är tillräckligt stort borde vi i så fall närma oss normalfördelningen. Hur stort? Vi skisserar några fall när n blir större och större och p =.5. y y k= y Med n =. k Med n =. k Med n = 5. k 6
45 y Med n =. k Här ser vi ganska tydligt att ju större n blir, desto mer lik blir sannolikhetsfördelning en normalfördelningskurva. Följande sats verkar alltså rimlig (åtminstone i Binomialfallet. Centrala gränsvärdessatsen (CGS Sats. Låt X, X,... vara en oändlig följd av likafördelade och oberoende stokastiska variabler. Vidare, låt E(X k = µ och V (X k = σ för k =,,.... Då gäller att (i summan X = n X k uppfyller k= P ( a < X nµ σ n < b Φ(b Φ(a då n för alla a, b R med a < b. Vi säger att X är asymptotiskt normalfördelad. (ii medelvärdet X = n P n X k uppfyller k= för alla a, b R med a < b. ( a < X µ σ/ n < b Φ(b Φ(a då n Beviset för satsen faller utanför ramen för denna kurs. Se, till exempel, Rick Durret: Probability: Theory and Examples eller Allan Gut: An Intermediate Course in Probability. Så hur använder vi CGS? Approximation via CGS Med samma beteckningar och förutsättningar som ovan så är ( x nµ P (X x Φ σ och P (X x Φ n ( x µ σ/ n, x R, om n är stort. Oftast brukar n 3 duga, men skeva fördelningar kräver större n. Vi skriver X appr. N(nµ, nσ och X appr. N(µ, σ /n; variablerna är approximativt normalfördelade. 7
46 Exempel Vad är sannolikheten att summan av 5 stycken slumptal mellan och överstiger 53? Lösning: Vi antar att slumptalen är likformigt fördelade, så varje slumptal X k Re(,, och att slumptalen är oberoende av varandra. Det råder likformig fördelning, så E(X k = och V (X k = /3. Varför? Enkelt att se från definitionen: och V (X k = E(X k = ˆ ˆ x dx = [ x 4 x [ x 3 dx = 6 ] ] = = /3. Så vi har en summa av 5 stycken likformigt fördelade variabler X k med samma väntevärde 5 och varians. Låt X = X k. CGS implicerar att X appr. N(5, 5/3. Alltså erhåller vi k= P (X > 53 = P (X 53 Φ(3/ 5/3 = Φ( Det är alltså ca 3% chans att summan överstiger 53. Exempel Antag att samtalstiderna till 77 är oberoende och exponentialfördelade med väntevärde 5 minuter. Om en sjuksköterska förväntas svara på 8 samtal under ett åttatimmars pass, vad är sannolikheten att hon lyckas? Lösning: Låt X k Exp(/5 vara tiden för samtal k, k =,,..., 8. Den totala tiden 8 för 8 samtal ges av X = X k. Faktum är att man kan visa att X blir gamma-fördelad k= (se Blom et al., men den fördelningen är ganska bökig att arbeta med. Vad säger CGS? Vi har kring 3 stycken samtal, så X appr. N(8 5, 8 5 = N(4, 63. Alltså är ( 48 4 P (X 8 6 Φ Φ(.76 = Nästan 8% chans alltså! Hur bra stämmer då detta? Man kan härleda att X i själva verket har fördelningen X Γ(8, /5, så P (X 48 =.7838 (matlab, gamcdf. 8
47 TAMS79: Föreläsning 7 Approximationer och stokastiska processer Johan Thim 3 januari 3 7. Binomialfördelning Vi har redan stött på denna fördelning flera gånger. Situationen är att ett slumpförsök har två möjliga utfall, ett med sannolikhet p och det andra med p. Vi upprepar försöket oberoende n gånger, och räknar antalet X gånger det första utfallet inträffar. Vi kallar X för binomialfördelad med parametrarna n och p, och skriver X Bin(n, p. Binomialfördelning Sats. Om X Bin(n, p, så är E(X = np och V (X = np( p. Vidare gäller att X appr. N(np, np( p om np( p. Beviset för väntevärde och varians följer av argumentet i föregående föreläsning angående CGS. Vi skriver X som en summa av n oberoende Bernoulli-variabler X k Be(p, så väntevärdet E(X = n k= E(X k = np, eftersom E(X k = ( p + p = p. På samma sätt, V (X = np( p eftersom V (X k = ( p + p p = p( p. När det gäller approximationen till normalfördelning så följer detta av CGS. Att just kravet np( p ger en bra approximation kräver en lite djupare analys av på vilket sätt sannolikheterna konvergerar. Exempel Vi sår stycken frön som har en grobarhet på 8% (sannolikheten att ett frö gror. Vad är sannolikheten att högst 8 stycken inte gror? Låt X vara antalet frön som inte gror. Vi antar att olika frön är oberoende av varandra. Då är X Bin(,.. Eftersom så är X appr. N(, 6. Vi beräknar np( p =..8 = 6, P (X 8 Φ((8 / 6 = Φ(.58 = Φ(.58 =.57. Det är alltså ca 6% sannolikhet. Verklig sannolikhet (matlab binocdf(8,,. är 6.%. [email protected]
48 7. Poissonfördelning Antag att vi har en situation där händelser inträffar oberoende av varandra med en konstant intensitet λ, det vill säga, på t tidsenheter inträffar i genomsnitt λt händelser. Denna typ av situation brukar ofta moduleras med hjälp av Poisson-fördelningen. Om X(t är antalet händelser i tidsintervallet [, t], så säger vi att X(t är Poissonfördelad med väntevärde µ = λt. t= 3 t t t 3 4 t 4 5 t 5 6 t 6 7 t 7 8 t 8 9 t 9 t t Händelser (markerade med kryss och numrerade i tidsintervallet [, t]. Tiderna t k är tidpunkten för händelsen k. Poissonfördelning Sats. Vi kallar X för Poissonfördelad med parametern µ, X Po(µ, om sannolikhetsfunktionen ges av p X (k = P (X = k = µk e µ för k =,,,.... Variabeln X k! har E(X = V (X = µ (samma väntevärde som varians, parametern µ. Hur hänger situationen ovan ihop med definitionen av p X? Vi fixerar tiden t och delar in intervallet [, t] i n lika stora delar, där vi väljer n så stort att det högst finns en händelse i varje delintervall. Vi introducerar en sannolikhet p som är sannolikheten att ett visst delintervall innehåller en händelse. Det är samma p för alla delintervall och sambandet np = λt måste gälla. Eftersom händelserna är oberoende måste X(t Bin(n, p. Egenskaper för binomialfördelningen medför att E(X(t = np = λt. Vi börjar med att betrakta fallet med noll händelser i intervallet [, t], det vill säga, händelsen att X(t = : P (X(t = = ( n ( p ( p n = λt n ( ( = exp n ln λt e λt, n n då n. Här har vi utnyttjat standardgränsvärdet s ln( + s då s. I det allmänna fallet kan vi visa att P (X(t = k (λtk e λt, n. k! För att se detta, låt k vara fix och betrakta ( ( k ( n P (X(t = k = p k ( p n k n! λt = λt n k k (n k!k! n n ( n(n (n k + = (λtk λt n n n k ( k! λt k (λtk k! n Detta ger oss även en användbar approximationssats för binomialfördelningen. Approximation: Binomial till Poisson Sats. Om X Bin(n, p med n och p., så är X appr. Po(np. Att p X verkligen är en sannolikhetsfunktion följer från Maclaurinuteckling av e x : p X (k = e µ µ k k! = e µ e µ =. e λt, n.
49 Låt oss även härleda väntevärde och varians. För väntevärdet: kp X (k = e ( µ µ k + = µe µ µ k (k! (k! = µe µ k= k= µ k k! = µ. Variansen är lite bökigare. Vi kan inte direkt räkna ut E(X, utan tar till tricket Alltså, E(X(X = E(X = E(X(X + E(X. ( k(k p X (k = e µ = µ e µ µ k k! = µ, k= µ k = µ e µ (k! k= så E(X = µ + µ, vilket medför att V (X = E(X E(X = µ. µ k (k! Exempel Sågaren Sverker sågar ut brädor som har normalfördelad längd L N(, 5 (σ = 5, enhet: cm. Om Sverker en vacker dag sågar upp 3 brädor (oberoende av varandra, vad är sannolikheten att färre än 5 stycken är kortare än 85 cm? Lösning: Vi räknar först ut sannolikheten p att en bräda är kortare än 85 cm: p = P (L < 85 = P ( L 5 < 5 5 = Φ(. = Φ(. =.7. Låt X vara antalet brädor av 3 som är kortare än 85 cm. Det följer att X Bin(3, p. Sannolikheten p är alltså liten, och 3p( p = 5. är betydligt mindre än, så normalapproximation fungerar antagligen inte. Men Poissonapproximation borde fungera bra då p. och n = 3. Alltså är X appr. Po(3.7 = Po(5.. Ur tabell (interpolation mellan Po(5. och Po(5.: P (X =.433. Alltså ungefär 4% chans. Verklig sannolikhet blir 4.5%. Normalapproximation skulle i fallet ge 3%, vilket är alldeles för lågt. Addition av oberoende Poissonfördelade variabler Sats. Låt X Po(µ och Y Po(µ vara oberoende. Då är X + Y Po(µ + µ. Satsen förefaller intuitivt att vara rimlig. Vi lägger helt enkelt ihop händelserna från två liknande processer, det förväntade antalet blir nu µ + µ, och på grund av beteendet hos var och en tippar vi att summan fungerar på samma sätt. Formellt kan vi visa satsen medelst den så kallade faltningssatsen. Den simultana sannolikhetsfunktionen för (X, Y ges av produkten p X (ip Y (j, och vi söker sannolikhetsfunktionen för Z = X + Y. Alltså, p Z (k = P (X + Y = k = p X (ip Y (j = i+j=k k p X (ip Y (k i. i= 3
50 Dubbelsumman blir en enkelsumma eftersom vi bara summerar över diagonalen (när k är fixt och i + j = k. Sen är p X (i = då i < och p Y (k i = då i > k så det räcker att summera från i = till i = k. Vidare, k p Z (k = e µ µi µ k i i! e µ (k i! = e (µ+µ k! i= = e (µ +µ k ( k µ i k! i µ k i k! i= k i= = e (µ +µ k! (k i!i! µi µ k i (µ + µ k, där vi utnyttjat binomialsatsen i sista steget. Detta uttryck är inget annat än sannolikhetsfunktionen för en Po(µ + µ -fördelad variabel, vilket var precis det vi ville visa! Denna sats kan vi använda för att dela upp en Po(µ fördelad variabel i µ stycken oberoende variabler med väntevärde ett, och en liten svans (med längd µ µ. På detta sätt kan man visa följande sats. Approximation av Poissonfördelning Sats. Låt X Po(µ med µ 5. Då är X appr. N(µ, µ. Exempel Låt X vara antal paket i en datakö under en sekund. Mätningar har visat att en vettig modell är X Po(5. Beräkna approximativt P (X < 4. Lösning: Eftersom väntevärdet µ = 5 5 så kan vi normalapproximera. Då blir ( 39 5 P (X < 4 = P (X 39 Φ = Φ(.6957 = Φ(.6957 = Exakt värde: Exponentialfördelning Vi fortsätter med situationen för Poissonfördelningen, men istället för att räkna antalet händelser räknar vi tiden mellan händelser. Det visar sig nämligen att tiden är exponentialfördelad. Varför? Betrakta följande. Låt T vara tiden till den första händelsen. Detta innebär att P (T > t = P (X(t =, dvs att inga händelser inträffat på tiden t. Men P (X(t = = e λt. Vi betraktar fördelningsfunktionen för T : F T (t = P (T t = P (T > t = e λt, t. Vi kan nu derivera fram täthetsfunktionen: f T (t = F T (t = λe λt för t. Detta är precis täthetsfunktionen för en Exp(λ-fördelad variabel! Exponentialfördelning Sats. En stokastisk variabel X med täthetsfunktion f X (x = λe λx, x, kallas exponentialfördelad. Väntevärde och varians ges av E(X = λ och V (X = λ. En intressant egenskap hos exponentialfördelningen är att den är minnesslös: P ( X > x + x X > x = P ({X > x + x } {X > x } P (X > x = e λx = P (X > x. = P (X > x + x P (X > x = e λ(x +x e λx 4
51 7.4 Stokastiska processer Stokastisk process Definition. En stokastisk process är en familj {X t } t I av stokastiska variabler X t : Ω E, där t är ett index i indexmängden I och processen tar värden i tillståndsrummet E. Ibland skriver vi {X(t} t I istället om det inte finns risk för missförstånd. Följande kategorisering kan göras. Processen {X t } t I säges (i ha diskret tid om I är uppräknelig, typiskt I = {,,, 3,...}; (ii ha kontinuerlig tid om I är ett kontinuum, typiskt I [, ett intervall; (iii vara diskret om tillståndsrummet E är uppräkneligt: E = {E, E, E,...}; (iv vara kontinuerlig om tillståndsrummet E är ett kontinuum, typiskt E [, igen. Processer kan alltså vara både kontinerliga eller diskreta, och ha kontinuerlig eller diskret tid. Speciellt kan vi till exempel ha en diskret process med kontinuerlig tid (tillståndsrummet uppräkningsbart men tiden ett kontinuum. Anmärkning: eftersom X t formellt sett är en stokastisk variabel så borde vi kräva att E R eftersom vi definierat termen stokastisk variabel på det sättet. Vi kommer i de närmaste avsnitten att tillåta tillståndsrummet att vara mer abstrakt, säg E = {solen skiner, det är natt} till exempel. Detta underlättar i våra tilltänkta tillämpningar. För varje ω Ω kan vi prata om realiseringen av processen i form av en tidsfunktion x(ω, t som avbildar indexmängden I in i tillståndsrummet E; x(ω, : I E. Med andra ord, x(ω, t ger värdet av utfallet vid tiden t. ω ω 4 y ω 3 x(ω 4,t x(ω 3,t ω x(ω,t ω x(ω,t t Några realiseringar vid fixerade utfall ω i för en tidskontinuerlig kontinuerlig stokstisk process. 5
52 Exempel (i X t = s t + N t där N t (, σ för alla t är oberoende. Detta är en signal s t vi ofta är intresserade av som är störd av brus (som är normalfördelat i detta fall. (ii X t = A cos t + Be t där A och B är stokastiska variabler. Vad händer när t går mot? Det finns mycket teori om stokastiska processer; hur man klassificerar dem (stationär? svagstationär? etc och hur man studerar beteendet. Detta ligger utanför ramen på denna kurs, men vi skall punktstudera vissa specialfall den närmaste tiden. Först ut är den så kallade Poissonprocessen. 7.5 Poissonprocessen Vi återkommer nu till poissonfördelning, men på ett lite annorlunda sätt. Låt X(t räkna antalet impulser i intervallet [, t]. Vi ställer följande krav. Poissonprocess Definition. En stokastisk process {X(t} t [, är en Poissonprocess med intensitet λ om och endast om (i Antalet impulser i disjunkta tidsintervall är oberoende stokastiska variabler; (ii P (X(t + h X(t = = λh + o(h; (iii P (X(t + h X(t = o(h. Notationen o(h betyder något som går mot noll snabbare än h. Om f(h = o(h innebär f(h det att lim =. Kommer ni ihåg stora ordo från resttermer i Maclaurinutvecklingar i h h analysen? Vi hanterar lilla ordo på liknande sätt och kan göra analoga förenklingar. Så hur hänger den här definitionen ihop med Poissonfördelningen? Låt p n (t = P (X(t = n och anta att h > är litet. Eftersom [, t och [t, t+h är disjunkta tidsintervall så är variablerna X(t och X(t + h X(t oberoende, och X(t + h är alltså summan av dessa två oberoende variabler. Händelsen att X(t + h = n kan nu delas upp i unionen {X(t + h = n} = n ( {X(t = n k} {X(t + h X(t = k}, där händelserna i varje snitt är oberoende! Vidare medför våra villkor att P (X(t + h X(t = = λh + o(h. Alltså blir p n (t + h = P (X(t = np (X(t + h X(t = + P (X(t = n P (X(t + h X(t = n + P (X(t = n kp (X(t + h X(t = k k= = p n (t( λh + o(h + p n (t(λh + o(h + n p n k (to(h k= = p n (t( λh + o(h + p n (t(λh + o(h + o(h. 6
53 Vi stuvar om lite och finner att p n (t + h p n (t h = λp n (t + λp n (t + o(h h. Vi låter t + och erhåller då att högerderivatan uppfyller (p n +(t = λp n (t + λp n (t, n =,,.... Speciellt gäller p (t = λp (t, t, för n =. Med det naturliga begynnelsevillkoret p ( = har denna differentialekvation lösningen p (t = e λt. Om vi löser differentialekvationen för n erhåller vi p n (t = (λtn e λ, n =,,, 3,.... n! Detta är sannolikhetsfunktionen för Poissonfördelningen! Vi har med andra ord precis visat att X(t Po(λt för alla t >. Från detta och tidigare härledda resultat för Poissonfördelningen har vi nu följande resultat för Poissonprocessen. Egenskaper hos Poissonprocessen Låt X(t vara en Poissonprocess med intensitet λ >. (i Vid tiden t > gäller att X(t Po(λt. (ii Tiden T mellan två händelser är exponentialfördelad: T Exp(λ. (iii Tider mellan olika händelser är oberoende stokastiska variabler. (iv Sammanslagningen av två oberoende Poissonprocesser med intensiteter λ respektive λ är en Poissonprocess med intensitet λ + λ. (v Om p, p [, ] med p + p =, så kan X(t delas upp i två oberoende Poissonprocesser med intensiteter p λ respektive p λ. 7
54
55 TAMS79: Föreläsning 8 Markovkedjor Johan Thim 5 februari 3 8. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definiton. Markovkedja Definition. En diskret Markovprocess {X n } n {,,,...} med diskret tid kallas för en Markovkedja. Kravet på processen är att P ( ( X n = x n X = x, X = x,..., X n = x n = P Xn = x n X n = x n för alla n och x, x,..., x n E. Med andra ord så har historian ingen betydelse för processen. Endast det tillstånd kedjan just nu befinner sig i har någon inverkan på framtiden. Om Markovkedjan har ett ändligt tillståndsrum E säger vi att Markovkedjan är ändlig. Vidare har kedjan ingångssannolikheter p j ( = P (X = E j för alla j. Funktionerna p j (n beskriver generellt sannolikhetsfördelningen for tiden n, dvs p j (n = P (X n = E j är sannolikheten att kedjan vid tiden n befinner sig i tillstånd E j. Vi kallar dessa sannolikheter för absoluta sannolikheter. Kedjan kallas tidshomogen om P ( X n+ = E j X n = E i = pij är konstant för alla n. Detta innebär att vi alltid har samma sannolikhet för övergångar mellan olika tillstånd i ett steg. Vi tänker oss p ij som sannolikheten att flytta oss från tillståndet E i till E j i ett steg. Från detta följer att vi fullständigt kan karaktärisera en tidshomogen Markovkedja utifrån övergångsmatrisen P = (p ij, P = p p p p p p p p p.. där talet på rad i och kolonn j representerar övergångssannolikheten p ij att kedjan går från tillstånd E i till E j med ett steg. Denna matris har egenskapen att varje radsumma blir ett, dvs att p ij = för varje i. Matriser som har denna egenskap tillsammans med kravet att j...., [email protected]
56 varje element i matrisen är en sannolikhet kallas för stokastiska matriser. Ett tillstånd E j som har p jj = kallar vi absorberande. Vi kommer att anta tidshomogenitet om inget annat anges. Ofta beskrivs Markovkedjor med diagram; vi listar några exempel tillsammans med respektive övergångsmatris. ( β β P = α α β β α α / P = / / /3 /3 /3 / / P = Övergångar av högre ordning För i, j, n låter vi p ij (n = P ( X n+k = E j X k = E i, vilket är sannolikheten att med precis n steg förflytta sig från E i till E j på något sätt. Om kedjan är tidshomogen är detta uttryck oberoende av k, så vi kan lika gärna skriva p ij (n = P ( X n = E j X = E i, i, j, n. Vi låter matrisen P (n = (p ij (n bestå av dessa sannolikheter. Hur hänger P (n ihop med övergångsmatrisen P?
57 Övergångsmatris av ordning n Sats. För alla heltal n gäller att P (n = P n. Beviset för satsen kan göras till exempel med induktion på n. Vi visar basfallet n = : p ij ( = P ( X = E j X = E i = k = k P ( X = E j X = E k, X = E i P ( X = E k X = E i P ( X = E j X = E k P ( X = E k X = E i = k p kj ( p ik (, vilket är elementet på rad i och kolonn j i matrisen P. Med samma teknik kan man visa att P (n = P P (n, så det sökta resultatet följer från induktionsaxiomet. Chapman-Kolmogorov Sats. Om m, n gäller att P (m + n = P (mp (n = P m+n. 8.3 Sannolikhetsfördelningar Om vi vet ingångssannolikheterna p j ( och övergångsmatrisen P för en tidshomogen Markovkedja, kan vi direkt beskriva fördelningen av sannolikheter efter ett godtyckligt antal steg n genom ekvationen p(n = p(p n, n, där vi låter p(n vara radvektorn (p (n, p (n, p (n,... för n =,,,.... Observera att p( är radvektorn med ingångssannolikheter. Allmänt kallar vi en vektor π = (π, π, π,... för en sannolikhetsvektor om k π k = och π k för alla k. Stationär fördelning Definition. Låt π vara en sannolikhetsvektor. Om π uppfyller ekvationen π = πp kallar vi π för en stationär fördelning. En stationär fördelning π uppfyller π = πp, vilket medför att om vi låter vektorn p( av ingångssannolikheter ges av p( = π, så erhåller vi p(n = p(p n = πp n = π för alla n. Därav ordet stationär. Asymptotisk fördelning Definition. Om lim p(n = π för någon sannolikhetsvektor π som inte beror på n ingångssannolikheterna (vektorn p(, så säger vi att π är kedjans asymptotiska fördelning. Asymptotisk fördelning vs. stationär fördelning Om en tidshomogen Markovkedja har en asymptotisk fördelning π så fås denna genom att lösa ekvationen π = πp. En asymptotisk fördelning är alltså en stationär fördelning. Varför? 3
58 Eftersom p(n = p(p n π enligt antagande (asymptotisk fördelning existerar, kan vi i gränsvärde erhålla p(p n+ = (p(p n P π = πp då n. Observera att motsatsen inte gäller. En stationär fördelning behöver inte vara den asymptotiska fördelningen. Exempel Med α, β (,, låt en Markovkedja ha övergångsmatrisen P = ( β β α α. Finn alla stationära fördelningar och bestäm (om den finns den asymptotiska fördelningen. Lösning: Vi börjar med att skriva ut ekvationen π = πp : π = π ( β + π α, π = π β + π ( α, = π + π, π = π = α α + β, β α + β, där vi utnyttjat att π + π = (annars får vi oändligt många lösningar. Lösningen är entydig så det finns bara en stationär fördelning, så om en asymptotisk fördelning existerar måste den sammanfalla med vektorn ovan. Så hur visar vi att en asymptotisk fördelning existerar? Ett sätt är att helt enkelt räkna ut gränsvärdet. Det visar sig ganska bökigt att räkna ut P, P 3,... (testa, så vi använder lite linjär algebra. Man kan nästan gissa att egenvärderna till P är λ =, α β. Lös annars sekularekvationen det(p λi =. Motsvarande egenvektorer kan beräknas till ( ( β v = s och v = s, s R \ {}. α Vi skapar en transformationsmatris T med v och v som kolonner. Matrisen T och dess invers ges av ( β T = och T = ( α β. α α + β Vi diagonaliserar P genom P = T DT där D är diagonalmatrisen med egenvärderna på diagonalen. Då erhåller vi ( n P n = (T DT n = T D n T = T T α β = ( α + β( α β n β β( α β n α + β α α( α β n β + α( α β n α + β ( α β α β, n, eftersom α β <. Alltså måste ( p(n = p(p n π = α α+β β α+β, n, oberoende av ingångssannolikheten p(. Detta är alltså den asymptotiska fördelningen π. 4
59 Detta är en ganska lång beräkning för att komma fram till att den stationära fördelning i detta fall är den asymptotiska. Det finns många satser som garanterar existens av asymptotiska fördelningar. En av dessa (utan bevis är följande. Existens av asymptotisk fördelning Sats. Om man i en ändlig kedja kan finna ett n > så att alla element i någon kolonn av matrisen P n är positiva, så existerar en asymptotisk fördelning. I exemplet ovan kan vi alltså direkt säga att en asymptotisk fördelning existerar, och eftersom kedjan bara har en stationär fördelning måste denna även vara den asymptotiska! 8.4 Vidare klassificering av Markovkedjor Vi kallar ett tillstånd E j tillgängligt från tillstånd E i om p ij (n > för något n ; vi skriver E i E j. Om både E j E i och E i E j säger vi att tillstånden kommunicerar och skriver E i E j. Kommunikation är en ekvivalensrelation på mängden av alla tillstånd. Med detta menar vi att (i E i E i för alla tillstånd E i ; (ii E i E j medför att E j E i ; (iii Om E i E j och E j E k så gäller att E i E k. En ekvivalensrelation på en mängd delar in mängden i så kallade ekvivalensklasser. Vi säger att två tillstånd som kommunicerar med varandra tillhör samma klass. En Markovkedja där alla tillstånd kommunicerar med varandra (vi har endast en klass kallas irreducibel. Finns det flera klasser kallar vi kedjan reducibel. Låt f (n ii vara sannolikheten att kedjan efter n steg för första gången sedan starten i E i åter igen befinner sig i E i. Vi låter f ii = n= f (n ii vara sannolikheten att kedjan någon gång återvänder till tillstånd E i. Om f ii = kallar vi tillståndet E i beständigt och om f ii < kallas E i obeständigt. Om ett tillstånd är obeständigt finns en positiv sannolikhet f ii att kedjan aldrig återvänder till E i. Varje tillstånd i en Markovkedja är alltså beständigt eller obeständigt. Om E i är beständigt, låt den stokastiska variablen T i vara antalet steg innan kedjan återvänder till E i. Om E(T i = n= nf (n ii < (det förväntade antalet steg är ändligt kallar vi E i för positivt beständigt. Om E(T i = kallas tillståndet noll-beständigt. Det är även sant att dessa beständighetsegenskaper för tillstånd måste delas av hela klasser i en Markovkedja. Om ett tillstånd i klassen till exempel är positivt beständigt så är alla tillstånd i klassen det. Låt P = ( Exempel vara övergångsmatrisen för kedjan X n. Rita upp Markovkedjan och klassificera alla tillstånd. Beräkna alla stationära fördelningar och den asymptotiska fördelningen (om den existerar. 5
60 Lösning: Figur: /3 /3 /3 /3 /3 Vi undersöker nu vilka tillstånd som är beständiga. Först ut är E : f = n= Tillståndet är obeständigt. Vi fortsätter med E : f = n= f (n = = 4 9 f (n = = 9 ( k = 3 6. Även E är obeständigt. Om vi tittar närmare på E ser vi att tillståndet är absorberande (och därmed beständigt; f =. Detta tillstånd är även positivt beständigt (självklart. Vi löser ekvationen π = πp för att hitta stationära vektorer: π 3 + π 3 = π π 3 = π π 3 + π + π 3 = π π + π + π = π = π = π = Inte så förvånande resultat med tanke på att tillstånd två är absorberande. I matrisen P är alla element i kolonn tre skilda från noll, så enligt satsen ovan existerar en asymptotisk fördelning, som måste vara den unika stationära lösningen vi fann ovan. Låt P = ( Exempel vara övergångsmatrisen för kedjan X n. Visa att P är en övergångsmatris, rita upp Markovkedjan och klassificera alla tillstånd. Bestäm alla stationära fördelningar och finn den asymptotiska fördelningen om denna existerar. Lösning: Eftersom alla rader summerar till ett och alla element ligger i [, ] så är P en stokastisk matris, och därmed en övergångsmatris för en Markovkedja. Vilken? Vi ritar en figur: 6
61 / / /4 3/4 Vi undersöker nu vilka tillstånd som är beständiga. Först ut är E : f = f (n = n= = + 3 ( k = =. Eftersom termer i en geometrisk serie avtar så snabbt, så följer det även att E(T = n= nf (n <. Tillståndet E är alltså positivt beständigt. Vi fortsätter med E : f = f (n = n= = ( k = =. k= På samma sätt som ovan så avtar termerna i den geometriska serien så snabbt att E(T = n= nf (n <. Tillståndet E är alltså positivt beständigt. Det visar sig att f blir numeriskt likadan (betrakta figuren ovan så även detta tillstånd är positivt beständigt. Alltså samma för alla tillstånd. Är denna kedja irreducibel? För att hitta alla stationära tillstånd löser vi ekvationssystemet π = πp, dvs π + 3π π + π 4 = π 4 = π π = π π + π + π = π = 3 7 π = 7 π = 7 Eftersom till exempel P har hela kolonn ett skild från noll så vet vi att en asymptotisk fördelning existerar, och denna måste vara den stationära fördelningen ovan (eftersom det bara finns en. 7
62 Exempel Låt X n vara en Markovkedja med tillstånden E, E,... och övergångssannolikheterna p i = i för i, p = samt p i,i+ = i för i. Övriga p ij =. Avgör om E är beständigt. Lösning: Vi ser att f ( = och att för n, f (n = n k = n k n k= = n (n! n! n! n! n k= (k (k + k k = n n n = n(n. = (n 3 4 n n 3 n 3 n För att räkna ut f delar vi upp f (n i partialbråk och utnyttjar att summan blir en teleskopsumma: f = n= = lim k f (n = n(n = =. n= ( k n= ( n = n lim k k n= ( n n Tillståndet E blir alltså obeständigt! 8
63 Exempel Låt X n vara den oändliga Markovkedjan med följande tillståndsdiagram: 3 a a a 3 Om a k = 6 k π för k =,, 3,..., klassificera tillståndet E. Vi ser att f (n = a n om n och att f ( =. Vi undersöker om E är beständigt: n= f (n = a n = 6 π n= n= n = enligt välkänd matematisk formel. Tillståndet är alltså beständigt. Vidare, n= Alltså är E noll-beständigt! Vad hade hänt om a k = 9 nf (n = 6 π n= k 4 π? Man kan visa att 4 n= nollbeständigt? Faktiskt så blir det inte så eftersom n= n 6 ˆ dx =. π x ˆ n dx <. 3 (x + 3 n 4 = π4 9, så E är beständigt. Blir det Om a k = Ck α för lämplig konstant C >, vart går gränsen på α för att E skall vara positivt beständig? 9
64
65 TAMS79: Föreläsning 9 Markovprocesser Johan Thim 5 februari 3 Vad händer om vi i en Markovkedja har kontinuerlig tid istället för diskreta steg? Detta är ett specialfall av en kategori stokastiska processer som kallas för Markovprocesser. Dessa definieras av följande villkor. Markovprocess Definition. En stokastisk process {X t } t I, som tar värden i R, med kontinuerlig tid, kallas en Markovprocess om P ( X tn x X t = x,..., X tn = x n = P ( Xtn x X tn = x n för alla x, x, x,..., x n och alla växande följder t < t < < t n av tider. Slarvigt uttryckt innebär detta att det inte spelar någon roll hur processen har kommit till ett visst tillstånd, utan endast det nuvarande tillståndet bestämmer vad som händer härnäst; precis som för Markovkedjor. Markovegenskapen och exponentialfördelningen Sats. Om en icke-negativ stokastisk variabel T har Markovegenskapen, d v s P ( T > t + a T > a = P (T > t, a, t [, [, så är T exponentialfördelad. Bevis: Markovegenskapen implicerar att P (T > t = P ( T > t + a T > a = P (T > t + a, P (T > a så P (T > t + a = P (T > ap (T > t för alla a, t. Låt g(s = ln P (T > s för s. Då kommer g att vara högerkontinuerlig (varför? och g(x + y = g(x + g(y, x, y. Låt m, n N med n. Då måste ( n n g( = g = g n [email protected] k= k= ( = ng n ( n g ( = g( n n.
66 Vidare ser vi då att ( m g = n m g k= ( = m n n g(. Alltså har vi visat att g(s = sg( för alla positiva rationella tal s. Eftersom alla reella tal kan approximeras godtyckligt nära med rationella tal (vi kan välja en sekvens r n så att r n Q och r n s med r n s för alla n och g är högerkontinuerlig, följer det att g(s = sg( för alla s >. Detta implicerar direkt att F T (s = P (T > s = e g(s = e λs, s, där λ = ln P (T >. Detta är fördelningsfunktionen för en exponentialfördelad variabel T. 9. Markovkedjor med kontinuerlig tid Vi betraktar den så kallade födelse-döds-processen. Typexemplet är att låta X(t vara antalet kunder vid ett betjäningsställe vid tiden t. Det följer att tillståndsrummet E lämpligen väljs som E = {,,,...} (ändligt eller oändligt. Tanken är att processen nu endast kan ändra sitt tillstånd med ett steg i vardera riktning, alternativt inte ändra sig alls. Vi preciserar i följande definition. Födelse-döds-process Definition. Den stokastiska processen {X(t} t [, [ är en födelse-döds-process om och endast om, i alla små tidsintervall ]t, t + h[, följande gäller: (i tillståndet ökar från k till k + med sannolikhet λ k h + a(h, (ii tillståndet minskar från k till k med sannolikhet µ k h + b(h, (iii tillståndet är oförändrat k med sannolikhet λ k h µ k h + c(h. Vi kräver att a(h + b(h + c(h = och att µ =. Vi kallar λ k för födelseintensiteterna och µ k för dödsintensiteterna. µ µ µ 3 µ 4 3 λ λ λ λ 3 Detta är en Markovkedja med kontinuerlig tid. Tyvärr kan vi inte lösa ut sannolikheter lika enkelt som för Poissonprocessen (det går att ställa upp liknande differentialekvationer, men förutom i specialfall blir dessa svårlösta. Vad vi kan göra är att med lite argumentation ta fram stationära sannolikheter. Om kedjan befinner sig i ett stationärt tillstånd måste det rimligen vara samma flöde in och ut ur ett tvärsnitt av grafen ovan. Vi kikar mellan tillstånd n och n + :
67 µ n+ n n + λ n Antag att kedjan befinner sig i jämnvikt (har uppnått ett stationärt tillstånd. Låt p n vara sannolikheten att kedjan befinner sig i tillstånd n. Då måste p n λ n = p n+ µ n+ för att vi ska ha jämnvikt. Således blir p n+ = λ n µ n+ p n = λ n µ n+ λ n µ n p n = = λ nλ n λ µ n+ µ n µ p. Vidare vet vi att alla p n måste summera till ett (kedjan måste befinna sig i något tillstånd, så ( = p + p + = p + λ + λ λ +, µ µ µ förutsatt att Vi finner alltså att p = + λ µ + λ λ µ µ + <. ( + λ + λ λ + och p n+ = λ nλ n λ p. µ µ µ µ n+ µ n µ Exempel Biluthyraren Billy har fyra stycken likadana bilar och hyr ut i linjär taxa (så har du bilen i 8 timmar betalar du för 8/4.7 dygn. Antag att kunder anländer som en Poissonprocess med intensitet λ =.8 per dygn. Varje uthyrning har exponentialfördelad utlåningstid med väntevärde.5 dygn och vi antar att olika uthyrningar är oberoende av varandra. Vad är sannolikheten att en kund förloras (på grund av att alla bilar är uthyrda? Skulle man tjäna på att ha en extra bil för samma kostnad man betalar för att leasa övriga bilar? Lösning: Vi tänker oss en födelse-döds process X(t med fem tillstånd (noll till alla fyra bilar uthyrda, där λ i =.8, µ i = iµ för i =,,, 3, 4 och µ =. Vi skissar processen:.5 µ µ 3µ 4µ 3 4 λ λ λ λ 3
68 Vi ställer upp uttrycken för den stationära fördelningen: p = ( + Med siffror erhåller vi vektorn λµ λ + µ + λ3 3!µ + λ4 och p 3 4!µ 4 n = λn n!µ p. n p = ( Det är alltså 7.3% risk att uthyraren förlorar en kund (detta inträffar då processen befinner sig i tillstånd 4 och alla bilar är uthyrda. Det förväntade antalet uthyrda bilar är E(X(t = 4 kp k =.34 så förväntad vinst per tidsenhet blir.34α 4β där α är uthyrningspriset och β är kostnad för en bil. Vi gör om samma beräkning med fem bilar istället. Det som ändras är att vi har ett extra tillstånd för fem bilar uthyrda. Vi finner nu att p = ( Alltså är det nu 8.5% chans att vi förlorar en kund. Bättre, men är det värt priset? Det förväntade antalet uthyrda bilar är E(X(t = 5 kp k =.47 så förväntad vinst per tidsenhet blir.47α 5β med α och β enligt ovan. Svaret på om det är värt priset att skaffa en bil till beror alltså på uthyrningspris och kostnad för bilarna, men vi har nu en uppskattning av på vilket sätt! 9. Mer om Exponentialfördelningen Om vi summerar två oberoende variabler X och Y ges täthetsfunktionen för Z = X + Y av f Z (z = ˆ f X (xf Y (z x dx; se föreläsning 4. Antag att X, Y Exp(µ är oberoende. Då blir f Z (z = ˆ z ˆ z f X (xf Y (z x dx = µ e µz e µx+µx dx = zµ e µz, z. Genom induktion kan man visa att, om W, W,..., W n+ har W = W + W + W n+ täthetsfunktionen Exp(µ är oberoende, så f W (w = (µwn µe µx, w. n! 4
69 Denna fördelning brukar kallas Gammafördelningen. Ofta ser man W Γ(n +, µ. Genom partialintegration (i n steg kan vi räkna ut att F W (w = ˆ w f W (t dt = e µw n (µw k, w. k! Gammafördelning Sats. Vi skriver att X Γ(α, µ, α, µ >, om f X (x = µα Γ(α xα e µx, x >. Variabeln X uppfyller E(X = α µ och V (X = α µ. Här är Γ(α gammafunktionen, och om α = n är ett heltal kan den beräknas enligt Γ(n = (n!. Observera även att Γ(, µ är Exp(µ. Summa av oberoende Exp(µ-variabler Sats. Om W i Exp(µ, i =,,..., n, är oberoende så är W = W + W + + W n Γ(n, µ. Ibland vill man även ta minimum av exponentialfördelade variabler, och då gäller följande. Minimum av oberoende Exp(µ k -variabler Sats. Antag att X i Exp(µ i, i =,,..., n, är oberoende. Då gäller att Vi låter X = min{ X, X,..., X n } Exp(µ + µ + + µ n. X = min{ X, X,..., X n }. Eftersom variablerna X i är oberoende erhåller vi F X (x = P (X x = P (X > x = P (min{ X, X,..., X n } > x = P (X > xp (X > x P (X n > x = e µ x e µ x e µnx ( n = exp x µ k, k= vilket är fördelningsfunktionen för en exponentialfördelad varibel. 9.3 Köteori: terminologi och notation Det naturligaste exemplet på ett kösystem är kanske en affär med ett visst antal kassor. Kunder kommer, ställer sig i kö, betjänas, och går därifrån. Men kömodeller existerar i väldigt många mer abstrakta tillämpningar. Till exempel använder en router för datapaket en kö för att ta mot paket samtidigt som paket vidarebefodras. Vi kommer mest att studera köer i termer av stationära fördelningar π. Följande illustration beskriver situationen. 5
70 Betjäning Potentiella kunder λ µ Kö Betjäning Kunder ankommer till ett kösystem med viss intensitet λ, väntar, betjänas och lämnar systemet med intensitet µ. Vi kommer att beteckna olika kösystem med notationen A/B/c/K/m/O, där dessa bokstäver har följande betydelse: A: Fördelning för tiden mellan kundankomster; typiskt M (Markov. B: Fördelning för betjäningstiden; typiskt M (Markov. c: Antal betjäningsställen. K: Maximala antalet tillåtna kunder i systemet; typiskt. m: Maximala antalet kunder i populationen; typiskt. O: Betjäningsordning; typiskt FIFO (first-in-first-out. Till exempel M/M/ är en kö med Markovsk ankomst- och betjäningstid (vilket innebär exponentialfördelade tider. Det innebär även att ankomsterna drivs av en Poissonprocess. Vidare har vi bara ett betjäningsställe. Om bokstäver är utelämnade i slutet antar vi de typiska värderna, så i vårt exempel är K = m = och ordningen FIFO. För att beskriva trafiken genom systemet introducerar vi följande stokastiska variabler: N q (t = antalet kunder i kön vid tiden t, N s (t = antalet kunder i betjäning vid tiden t, N(t = totala antalet kunder i systemet vid tiden t, W = kötiden för en kund, S = betjäningstiden för en kund, T = totala tiden i systemet för en kund. Observera att T = W + S samt N(t = N q (t + N s (t. När vi pratar om kösystem använder vi vissa parametrar för att beskriva trafiken. Intensiteten λ anger ankomstintensiteten och µ = anger betjäningsintensiteten. Vi använder också utnyttjandegraden E(S ρ = λe(s c = λ cµ. 6
71 Littles formler Sats. Med beteckningarna ovan gäller att E(N(t = λe(t och E(N q (t = λe(w. Båda dessa känns inte helt orimliga intuitivt. Det förväntade antalet kunder i systemet borde vara lika med ankomstintensiteten gånger den förväntade tiden varje kund befinner sig i systemet; Alltså E(N(t = λe(t. På liknande sätt förefaller Littles andra ekvation rimlig. Lite mer noggrant: vi inför beteckningarna T i för tiden kund i är i systemet, och funktionerna A(t och D(t är antalet ankomna kunder respektive avgågna kunder vi tiden t. Det följer därmed att N(t = A(t D(t är antalet kunder i systemet vid tiden t. Vi antar att systemet är tomt vid tiden t = (N( = och fixerar en tidpunkt t då vi för enkelhetens skull antar att systemet är tomt igen: N(t =. y A(t T 8 T 9 T T N(t D(t T 4 T 3 T T t En realisering av den stokastiska processen {N(t}. t Den skuggade arean kan beräknas på flera sätt: ˆ t N(t dt = eftersom N(t = så A(t = D(t. Det förefaller rimligt (behöver bevisas att t ˆ t D(t k= T i = A(t k= N(t dt E(N(t, t. T i, ( På samma sätt borde också vara så att, om T är tiden för en kund i systemet, E(T = lim t A(t A(t k= A(t T i och λ = lim. t t 7
72 Men detta innebär enligt ( ovan att E(N(t = λe(t, vilket är precis vad vi ville visa. Saken är biff! På liknande sätt kan Littles andra formel bevisas. Observera att vi inte gjort några antaganden kring fördelningar och turordning i systemet, så dessa formler gäller i väldigt generella fall. Vi kräver egentligen bara att systemet befinner sig i ett stationärt tillstånd. Kom bara ihåg att λ är den verkliga intensiteten in i systemet, så om man har ett system där kunder kan avvisas måste λ skalas om för att ta hänsyn till detta. Exempel Tre inköpare fyller på ett förråd med varor med intensiteterna 4, 48 respektive 36 varor per vecka. Förrådet är stort och blir aldrig fullt. Genom bokföring vet man att det finns i genomsnitt 8 varor i förrådet. Chefen blir en dag orolig för att varorna ska bli för gamla och frågar statistikern i företaget hur lång tid i medel en vara ligger i förrådet. Lösning: Frågan verkar vid första anblick svår att svara på, vi har ju nästan ingen information! Hur plockas varor ut (kö-ordning? Hur ofta? Men faktum är att så länge vi antar att förrådet befinner sig i ett stationärt tillstånd, kan vi använda Littles formel. Total intensitet in i systemet är λ = = 8 varor per vecka och E(N(t = 8 varor. Vi erhåller alltså förväntad tid i lagret E(T = 8/8 8 veckor. 8
73 TAMS79: Föreläsning Köteori Johan Thim mars 3. M/M/ kö Ankomsttider och väntetider är exponentialfördelade och vi kan beskriva systemet som en födelse-döds-process där vi har konstant födelseintensitet λ (ny kund anländer och konstant dödsintensitet µ (kund har fått betjäning och går sin väg. Kedjan är oändlig (finns inget max-antal kunder i kön. Figur: µ µ 3 µ µ λ λ λ λ Om + λ µ + λ µ + = ρ k = ρ = µ µ λ <, det vill säga om ρ = λ/µ < (dödsintensiteten större än födelseintensiteten, så uppfyller jämnviktsfördelningen π att π = ρ och π k = π ρ k = ( ρ ρ k, k. Detta känner vi igen som den geometriska fördelning. Vi skriver att X Ge(ρ om p X (k = ( ρρ k, k =,,, 3,.... Vi sammanfattar lite information om den geometriska fördelningen. Geometrisk fördelning Sats. Om X Ge(ρ med < ρ < så är E(X = ρ ρ och V (X = ρ ρ. Faktum är att vi redan bevisat uttrycket för E(X och V (X i föreläsning fem. Vi har alltså N(t Ge(ρ, så E(N(t = ρ/( ρ. Littles sats implicerar att den förväntade totala tiden i systemet för en kund ges av [email protected] E(T = E(N(t λ = µ λ.
74 Även varianserna kan beräknas: y V (N(t = ρ ( ρ och V (T = y (µ λ. E(T V (T E(N(t V (N(t ρ ρ Vi ser i figurerna ovan att systemet blir instabilt då nyttjandegraden ρ närmar sig ett. Väntevärderna växer kraftigt och även variationen i väntetid och antal personer i systemet ökar kraftigt, vilket gör förutsägelser opålitliga. Detta är ett fenomen i de flesta kösystem. Vi kan även räkna ut förväntad kötid och förväntat antal kunder i kön: E(W = E(T E(S = µ λ µ = λ µ(µ λ,.. Väntetider E(N q (t = λe(w = λ µ(µ λ = ρ ρ. Antag att det är n personer i kön när nästa person anländer. Den totala tiden T i systemet för denna person är summan av n + stycken oberoende variabler T i Exp(µ. Enligt föregående föreläsning ger detta upphov till Gamma-fördelningen, så ˆ t n F T (t = f T (x dx = e µt (µt k, t. k! Men det är inte alltid precis n kunder före oss när vi kommer, så hur finner vi fördelningen för T utan detta antagande? Svaret kommer i form av lagen om total sannolikhet: F T (t = P (T t = P (N(t = np ( T t N(t = n = n= ( ρρ n P ( T t N(t = n = n= n= ( n ( ρρ n e µt (µt k n= n = e µt ( ρρ n (µt k = e µt (µt k k! k! = e µt (ρµt k = e µt( ρ = e t(µ λ. k! ( ρρ n n=k k!
75 Vi har alltså visat att T Exp(µ λ, så speciellt är E(T = /(µ λ (vilket vi redan visste. På samma sätt kan man visa att F W (w = P (W w = ρe w(µ λ, w. Notera att F W ( = P (W = = ρ är sannolikheten att kön är tom när en kund anländer. Vi kan även finna detta genom sannolikheten att betjäningen är upptagen: P (N(t > = P (N(t = π = ρ, så ρ = λ µ är verkligen nytjandegraden. Exempel En router med stort arbetsminne (oändlig bufferkapacitet och väldigt snabb processor har en utgående bandbredd på Mbps (som routern kan fylla. Paket som kommer in till routern har en storlek som är exponentialfördelad med väntevärde 6 Kbit, och paket anländer enligt en Poissonprocess med λ = paket per sekund. Hitta en lämplig kö-modell, och svara på följande: (a Förväntat antal paket i routern och förväntad svarstid. (b Sannolikhet att ett paket tar mer än.5 ms att behandla. (c Sannolikhet att routern är idle (inte har några paket i systemet. (d Sannolikhet att routern har mer än ett paket i systemet. Lösning: Vi väljer en M/M/ kö med λ = paket/s och Låt ρ = λ/µ =.3. µ = Mbps 6 Kbit = 6 = 65 paket/s. (a E(N(t = ρ.47. Ett halvt paket i kön alltså. Svarstiden är tiden för paketet ρ att ta sig genom systemet, vilket blir E(T = µ λ =.353 ms. (b Sannolikheten att det tar mer än.5 ms för ett paket fås enligt P (T >.5 ms = P (T.5 ms = ( e.5(µ λ/.94. (c Sannolikheten att kön är tom ges av P (N(t = = π = ρ =.68. (d P (N(t > = P (N(t = π π.68. =... M/M/c kö Ankomsttider och väntetider är exponentialfördelade och vi kan beskriva systemet som en födelse-döds-process där vi har konstant födelseintensitet λ (ny kund anländer och en dödsintensitet som är µ vid en kund i systemet, µ om det är två, 3µ om det är tre och så vidare upp till c. För fler än c kunder är dödsintensiteten cµ. Kedjan är oändlig (finns inget max-antal kunder i kön. 3
76 µ µ 3µ 4µ (c µ cµ cµ 3 c c λ λ λ λ λ λ λ Låt ρ = λ. För att kunna prata om en stationär fördelning är det tillräckligt att ρ <, för cµ då är c λ k k!µ + k k=c λ k c!c k c µ k = + λ µ + λ µ + λ3 3!µ λc c!µ c + = c (cρ k Den stationära fördelningen ges nu av k! + (cρc c! ρ <. λc+ c!cµ c+ + λc+ c!c µ c+ π = ( c (cρ k k! + (cρc c! ( ρ och π k = (cρ k π, k c, k! ρ k c c π, k c. c! Sannolikheten att alla betjäningsställen är upptagna ges av uttrycket C(c, λ/µ = π k = k=c c! ( c c c k=c ρk = (cρ k + (cρc k! c! ρ (cρ c (cρ c + c!( ρ c (cρ k k!. Denna formel är känd som Erlang C-formel. Ofta beräknas den enklast genom C(c, λ/µ = π (cρ c c! ρ = π c ρ. Förväntat antal kunder ges av E(N(t = kπ k = π ( c k (cρk k! + k=c+ kρ k c c. c! Vi betraktar en del av högerledet i taget. Först, π c k (cρk k! = π cρ c k= = cρ cρc(c, λ/µ, (cρ k (k! = π c cρ 4 (cρ k k! ( = π cρ (cρc π c! ρ
77 om vi utnyttjar uttrycket för π givet i ( ovan. För den andra delen, π k=c+ kρ k c c c! = π c ρ c k=c+ = π c d ρ c dρ = π c ρ kρ k = ( ρ c+ ρ ( cρ +. ρ ρ π c d ρ c dρ k=c+ = π c ρ ρ k ((c + ρ + ρ ρ Vi summerar dessa två och finner att E(N(t = cρ cρc(c, λ/µ + π ( c cρ + ρ = cρ + ρ C(c, λ/µ. ρ ρ ρ Littles sats kan nu användas för att ta fram följande uttryck för relevanta förväntade värden: E(T = E(N(t = λ cµ λ C(c, λ/µ + µ, E(W = E(T E(S = C(c, λ/µ, cµ λ E(N q (t = λe(w = λ/c C(c, λ/µ. ρ Man kan även härleda fördelningar för T och W likt förra fallet, men vi nöjer oss med de förväntade värderna. En annan fördelning som dock kan vara intressant är avgångstiden X om alla betjäningar är upptagna. Vi har c stycken betjäningar och var och en har exponentialfördelad betjäningstid S i med intensitet µ. Variabeln X kan skrivas som minimum av S, S,..., S c och får då fördelningsfunktionen F X (x = e cµx, x. Detta är fördelningsfunktionen för en exponentialfördelad variabel med intensitet cµ. Vi har alltså visat att X Exp(cµ. Om bara k betjäningar är upptagna, k c, så är X Exp(kµ. Exempel En M/M/3 kö har λ = 3 och µ =. Vad är den förväntade kö-tiden? Vad är sannolikheten att en ny kund får stå i kö? Om alla betjäningar är fulla, vad är den förväntade tiden till en betjäning blir ledig? Lösning: Vi har c = 3 och en Markov/Markov modell, så tider blir exponentialfördelade. Sannolikheten att vi får stå i kö ges av, med c = 3 och ρ = /, P (N(t c = π k = C(c, λ/µ =.368 k=c eftersom π = (3ρ k k! + (3ρ3 3! ρ =
78 och C(c, λ/µ = π c ρ = π (cρ c c! ρ. Förväntad kötid: E(W =.789. Om alla betjäningar är fulla vet vi att fördelningen för tiden till dess att någon lämnar systemet är Exp(cµ, så den förväntade tiden blir /cµ = /6... M/M/ Om c = har vi med ρ = λ/µ specialfallet + λ µ + λ µ + λ3 µ = + ( k λ = + ρ 3 µ ρ = + ρ ρ, vilket är ändligt om λ < µ. Jämnviktsfördelningen π uppfyller att k= π = ρ + ρ och π k = ρ k + ρ, k =,, ρ Formlerna för förväntade värden blir nu lite enklare: E(N(t = ρ /µ, E(T = ρ ρ, ρ E(W = µ( ρ, E(N q(t = ρ3 ρ. Exempel Den nuvarande databasservern har en betjäningsintensitet µ och en ankomstintensitet λ. Prestandan börjar bli för dålig och man ska uppgradera. Jämför följande val:. Köper en ny server med betjäningsintensitet 4µ.. Köper två stycken nya servrar med betjäningsintensitet µ och kör dessa med en gemensam kö. Vilket alternativ ger bäst prestanda? Lösning: Alternativ ett är en M/M/ situation och alternativ två en M/M/ situation. Vi jämför. Låt ρ = λ 4µ och ρ = λ µ. Numeriskt är alltså ρ = ρ. Alt. Alt. E(N(t E(T E(W ρ ρ ρ 4µ( ρ 4µ( ρ ρ ρ ρ µ( ρ µ( ρ Om vi jämför kvoten av de olika E(N(t för alternativen ser vi att Alt. Alt. = ρ ρ ρ ρ = + ρ <, 6
79 eftersom ρ <. Kölängden blir alltså i snitt längre för alternativ två, vilket borde innebära sämre prestanda. Samma sak gäller övriga kvoter, båda ger samma uttryck ( + ρ/ <, så alternativ ett har kortare väntetid och kötid. Speciellt om belastningen är ganska liten får vi en stor skillnad. Detta är en allmän princip. Om vi inte har ett problem som har en struktur som gör att parallell hantering snabbar upp så går det snabbare med ett dubbelt så snabbt enkelsystem som två långsammare... M/M/ Om det finns oändligt många betjäningsställen konvergerar π till där a = λ/µ, och därmed blir ( (λ/µ k π = = e a, k! π k = ak k! e a, k. Vi har alltså visat att N(t Po(a. I detta fall kan vi alltså använda egenskaper för Poissonfördelningen (tabeller etc för att räkna ut sannolikheter. Så när har vi oändligt många betjäningsställen? Kanske inte så ofta i verkligheten, men om c är väldigt stort kan denna modell enkelt ge approximativa svar på parametrar av intresse..3 M/M//K I detta fall har vi ett betjäningsställe och en begränsad kölängd. Maximala antalet kunder i systemet är K. Typiskt exempel är dataswitchar av olika slag som har en buffert för inkommande paket men endast kan behandla ett paket i taget. Frågan blir ofta hur stor man ska dimensionera bufferten (K för att inte tappa bort för många paket. µ µ µ µ µ K K λ λ λ λ λ Låt a = λ/µ. Den stationära fördelningen, som finns oberoende av λ och µ (varför?, ges av ( K π = a k = a a K+ och π k = π a k, k K, om a. Om a = blir N(t likformigt fördelad på tillstånden {,,,..., K }. Om a följer det att K K ( E(N(t = kπ k = π ka k = π a d K a k = π a + ak (K(a da ( a k= = a a + ak (K(a = a (K + ak+, a K+ a a K+ 7
80 och om a = blir E(N(t = K/. Den verkliga intensiteten λ in in i systemet ges av λ in = ( P (N(t = K λ = ( π K λ. Intensiteten att kunder avvisas ges alltså av λπ K. Vi har även E(T = E(N(t/λ in och E(W = E(T E(S, samt att nyttjandegraden ρ ges av ρ = λ in /µ = a( π K. Exempel En dataswitch har förhållandet.5 mellan ankomstintensiteten λ och betjäningsintensiteten µ, dvs a = λ/µ =.5. Hur stor buffert behövs för att sannolikheten för paketförlust blir < 3? ( aak Lösning: Sannolikheten för paketförlust är P (N(t = K = π K =. Vi testar olika ak+ värden på K och finner att K = 9 stycken är den minsta längden på buffer vi kan acceptera. Sitter man vid en dator kan man använda matlab: >> a =.5; >> K = (::; >> ((-a.*a.^k./ ( - a.^(k+ ans = >> ((-a.*a.^k./ ( - a.^(k+ < ^(-3 ans =.4 M/M/c/c Specialfallet när K = c är intressant då det innebär att vi helt enkelt inte har någon kö, utan bara c betjäningsställen och kunder som anländer när det är fullt vid betjäningarna avvisas. Markovkedjan är ändlig, och kan ses nedan. µ µ 3µ 4µ (c µ cµ 3 c c λ λ λ λ λ λ Eftersom kedjan är ändlig behövs inget extra villkor på λ och µ. Låt a = λ/µ. Den stationära fördelningen ges av Det följer att π = ( c a k a k och π k = π k! k!, k c. E(N(t = c kπ k = π a c a k (k! = π c a k a k! = a c π k = a( π c. k= Det finns ingen kö, så E(W = och E(T = E(S = µ. 8
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler Johan Thim ([email protected]) 1 november 18 Vi fokuserar på två-dimensionella variabler. Det är steget från en dimension till två som är det
TAMS79: Föreläsning 1 Grundläggande begrepp
TMS79: Föreläsning 1 Grundläggande begrepp Johan Thim 31 oktober 2018 1.1 Begrepp Ett slumpförsök är ett försök där resultatet ej kan förutsägas deterministiskt. Slumpförsöket har olika möjliga utfall.
Övning 1 Sannolikhetsteorins grunder
Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är
TAMS79: Föreläsning 6. Normalfördelning
TAMS79: Föreläsning 6 Normalfördelningen Johan Thim ([email protected] 3 november 018 Normalfördelning Definition. Låt µ R och > 0. Om X är en stokastisk variabel med täthetsfunktion f X ( = 1 ( ep ( µ,
Väntevärde och varians
TNG6 F5 19-4-216 Väntevärde och varians Exempel 5.1. En grupp teknologer vid ITN slår sig ihop för att starta ett företag som utvecklar datorspel. Man vet att det är 8% chans för ett felfritt spel som
SF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska
Kap 2. Sannolikhetsteorins grunder
Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Aalto-universitetet 28 januari 2014 G. Gripenberg (Aalto-universitetet) MS-A0509 Grundkurs i sannolikhetskalkyl
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I G. Gripenberg Sannolikheter Slumpvariabler Centrala gränsvärdessatsen Aalto-universitetet 8 januari 04 3 Tvådimensionella slumpvariabler
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 4. Väntevärde och varians, funktioner av s.v:er, flera stokastiska variabler. Jan Grandell & Timo Koski 10.09.2008 Jan Grandell & Timo Koski () Matematisk
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska
SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski
SF1901: Sannolikhetslära och statistik Föreläsning 5. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski 28.01.2015 Jan Grandell & Timo Koski () Matematisk
Föreläsning 5, FMSF45 Summor och väntevärden
Föreläsning 5, FMSF45 Summor och väntevärden Stas Volkov 2017-09-19 Stanislav Volkov [email protected] FMSFF45 F5: väntevärden 1/18 2D stokastisk variabel Tvådimensionella stokastisk variabel (X, Y)
4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Matematisk statistik för D, I, Π och Fysiker
max/min Matematisk statistik för D, I, Π och Fysiker Föreläsning 5 Johan Lindström 25 september 218 Johan Lindström - [email protected] FMSF45/MASB3 F5 1/25 max/min Johan Lindström - [email protected]
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 5. Kovarians, korrelation, väntevärde och varians för summor av s.v.:er, normalfördelning (del 1) Jan Grandell & Timo Koski 15.09.2008 Jan Grandell &
Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18
LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA241/9MA341, STN2) 213-1-11 kl 14 18 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd
Matematisk statistik 9hp Föreläsning 2: Slumpvariabel
Matematisk statistik 9hp Föreläsning 2: Slumpvariabel Anna Lindgren 6+7 september 2016 Anna Lindgren [email protected] FMS012/MASB03 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp Utfall
Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12
LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (9MA21/9MA31, STN2) 212-8-2 kl 8-12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.
SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.
SF1901: Sannolikhetslära och statistik Föreläsning 5. Flera stokastiska variabler. Jan Grandell & Timo Koski 31.01.2012 Jan Grandell & Timo Koski () Matematisk statistik 31.01.2012 1 / 30 Flerdimensionella
TMS136. Föreläsning 4
TMS136 Föreläsning 4 Kontinuerliga stokastiska variabler Kontinuerliga stokastiska variabler är stokastiska variabler som tar värden i intervall av den reella axeln Det kan handla om längder, temperaturer,
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk
SF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 25..26 Jan Grandell & Timo Koski Matematisk statistik 25..26 / 44 Stokastiska
SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde
Våra vanligaste fördelningar
Sida Våra vanligaste fördelningar Matematisk statistik för D3, VT Geometrisk fördelning X är geometriskt fördelad med parameter p, X Geo(p), om P (X = k) = ( p) k p P (X k) = ( p) k för k =,,... Beskriver
SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser
Statistik 1 för biologer, logopeder och psykologer
Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler Jörgen Säve-Söderbergh Stokastisk variabel Singla en slant två gånger. Ω = {Kr Kr, Kr Kl, Kl Kr, Kl Kl}
Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor
Kontinuerliga stokastiska variabler Exempel En stokastisk variabel är kontinuerlig om den kan anta vilka värden som helst i ett intervall, men sannolikheten för varje enskilt utfall är noll: P(X = x) =.
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 6. Kovarians, korrelation, väntevärde och varians för summor av s.v.:er, De stora talens lag Jan Grandell & Timo Koski 04.02.2016 Jan Grandell & Timo
SF1911: Statistik för bioteknik
SF1911: Statistik för bioteknik Föreläsning 6. TK 14.11.2016 TK Matematisk statistik 14.11.2016 1 / 38 Lärandemål Stokastiska modeller för kontinuerliga datatyper Fördelningsfunktion (cdf) Sannolikhetstäthetsfunktion
Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik
Matematisk statistik KTH Formel- och tabellsamling i matematisk statistik Varterminen 2005 . Kombinatorik n = k n! k!n k!. Tolkning: n k mängd med n element. 2. Stokastiska variabler V X = EX 2 EX 2 =
LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 7 / TEN 8 maj 18, klockan 8.-1. Examinator: Jörg-Uwe Löbus Tel: 79-687 Tillåtna hjälpmedel är en räknare, formelsamling i matematisk statistik
SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 5 FLERDIMENSIONELLA STOKASTISKA VARIABLER Tatjana Pavlenko 8 september 2017 PLAN FÖR DAGENS FÖRELÄSNING Repetition av de viktiga begreppen diskret/kontinuerlig
Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.
Övning 1 Vad du ska kunna efter denna övning Diskret och kontinuerlig stokastisk variabel. Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret
1.1 Diskret (Sannolikhets-)fördelning
Föreläsning III. Diskret (Sannolikhets-)fördelning Med diskret menas i matematik, att något antar ett ändligt antal värden eller uppräkneligt oändligt med värden e.vis {, 2, 3,...}. Med fördelning menas
Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar
Sannolikhetslära och inferens II Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar 1 Diskreta slumpvariabler En slumpvariabel tilldelar tal till samtliga utfall i ett slumpförsök. Vi
Jörgen Säve-Söderbergh
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 8 Binomial-, hypergeometrisk- och Poissonfördelning Exakta egenskaper Approximativa egenskaper Jörgen Säve-Söderbergh Binomialfördelningen
Exempel för diskreta och kontinuerliga stokastiska variabler
Stokastisk variabel ( slumpvariabel) Sannolikhet och statistik Stokastiska variabler HT 2008 [email protected] http://www.math.uu.se/ uwe/ Stokastisk variabel, slumpvariabel (s.v.): Funktion: Resultat
F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)
Stat. teori gk, ht 006, JW F5 STOKASTISKA VARIABLER (NCT 5.1-5.3, samt del av 5.4) Ordlista till NCT Random variable Discrete Continuous Probability distribution Probability distribution function Cumulative
Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin
Kapitel 4 Sannolikhetsfördelningar Sid 79-14 Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin Slumpvariabel En variabel för vilken slumpen bestämmer utfallet. Slantsingling, tärningskast,
Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A
Övning 1 Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen
Mer om slumpvariabler
1/20 Mer om slumpvariabler Måns Thulin Uppsala universitet [email protected] Statistik för ingenjörer 4/2 2013 2/20 Dagens föreläsning Diskreta slumpvariabler Vilket kretskort ska man välja? Väntevärde
Tentamen i matematisk statistik (92MA31, STN2) kl 08 12
LINKÖPINGS UNIVERSITET MAI Johan Thim Tentamen i matematisk statistik (92MA1, STN2) 21-1-16 kl 8 12 Hjälpmedel är: miniräknare med tömda minnen och formelbladet bifogat. Varje uppgift är värd 6 poäng.
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 4. Funktioner av s.v:er, Flera stokastiska variabler. Marginell sannolikhetsfunktion och -täthetsfunktion. Oberoende sv:er, Maximum och minimum av oberoende
Stokastiska vektorer och multivariat normalfördelning
Stokastiska vektorer och multivariat normalfördelning Johan Thim johanthim@liuse 3 november 08 Repetition Definition Låt X och Y vara stokastiska variabler med EX µ X, V X σx, EY µ Y samt V Y σy Kovariansen
Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.
Veckoblad 3 Kapitel 3 i Matematisk statistik, Blomqvist U. ya begrepp: likformig fördelning, hypergeometerisk fördelning, Hyp(, n, p), binomialfördelningen, Bin(n, p), och Poissonfördelningen, Po(λ). Standardfördelningarna
Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.
Övning 1(a) Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen
Matematisk statistik 9hp Föreläsning 7: Normalfördelning
Matematisk statistik 9hp Föreläsning 7: Normalfördelning Anna Lindgren 29+3 september 216 Anna Lindgren [email protected] FMS12/MASB3 F7: normalfördelning 1/18 Kovarians, C(X, Y) Repetition Normalfördelning
TATM79: Föreläsning 2 Absolutbelopp, summor och binomialkoefficienter
TATM79: Föreläsning Absolutbelopp, summor och binomialkoefficienter Johan Thim 15 augusti 015 1 Absolutbelopp Absolutbelopp Definition. För varje reellt x definieras absolutbeloppet x enligt { x, x 0 x
Lärmål Sannolikhet, statistik och risk 2015
Lärmål Sannolikhet, statistik och risk 2015 Johan Jonasson Februari 2016 Följande begrepp och metoder ska behärskas väl, kunna förklaras och tillämpas. Direkta bevis av satser från kursen kommer inte på
Repetitionsföreläsning
Slumpförsök Repetitionsföreläsning Föreläsning 15 Sannolikhet och Statistik 5 hp Med händelser A B... avses delmängder av ett utfallsrum. Slumpförsök = utfallsrummet + ett sannolikhetsmått P. Fredrik Jonsson
Matematisk statistik KTH. Formelsamling i matematisk statistik
Matematisk statistik KTH Formelsamling i matematisk statistik Vårterminen 2017 1 Kombinatorik ) n n! = k k! n k)!. Tolkning: mängd med n element. ) n = antalet delmängder av storlek k ur en k 2 Stokastiska
Föreläsning 1: Repetition och punktskattningar
Föreläsning 1: Repetition och punktskattningar Johan Thim ([email protected]) 1 Repetition 29 augusti 2018 Vi repeterar lite kort de viktigaste begreppen från sannolikhetsläran. Materialet kan återfinnas
Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer
Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer Anna Lindgren 27+28 september 2016 Anna Lindgren [email protected] FMS012/MASB03 F6: linjärkombinationer 1/21 sum/max/min V.v./var Summa av
LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 27 / TEN 2 2 augusti 217, klockan 8-12 Examinator: Jörg-Uwe Löbus (Tel: 79-62827 Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
Formel- och tabellsamling i matematisk statistik
Formel- och tabellsamling i matematisk statistik 1. Sannolikhetsteori för lärarprogrammet Sannolikhetsformler P (A ) = 1 P (A) P (A B) = P (A) + P (B) P (A B) P (A B) = P (A B) P (B) P (A B) = P (A B)P
Sannolikheter och kombinatorik
Sannolikheter och kombinatorik En sannolikhet är ett tal mellan 0 och 1 som anger hur frekvent en händelse sker, där 0 betyder att det aldrig sker och 1 att det alltid sker. När vi talar om sannolikheter
Grundläggande matematisk statistik
Grundläggande matematisk statistik Flerdimensionella Uwe Menzel, 2018 [email protected]; [email protected] www.matstat.de Flerdimensionella Ett slumpförsök kan ge upphov till flera (s.v.): kast med
LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 79 / TEN 1 augusti 14, klockan 8.00-12.00 Examinator: Jörg-Uwe Löbus Tel: 28-1474) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
Grundläggande matematisk statistik
Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.
Föreläsning 2 (kap 3): Diskreta stokastiska variabler
Föreläsning 2 (kap 3): Diskreta stokastiska variabler Marina Axelson-Fisk 20 april, 2016 Idag: Diskreta stokastiska (random) variabler Frekvensfunktion och fördelningsfunktion Väntevärde Varians Några
Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen
Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen Denna föreläsning kommer mest att vara en repetition av stoff från grundkursen. Längden på detta dokument kan tyckas vara oproportionerligt
TATM79: Föreläsning 2 Absolutbelopp, summor och binomialkoefficienter
TATM79: Föreläsning 2 Absolutbelopp, summor och binomialkoefficienter Johan Thim 2 augusti 2016 1 Absolutbelopp Absolutbelopp Definition. För varje reellt x definieras absolutbeloppet x enligt { x, x 0
Matematisk statistik - Slumpens matematik
Matematisk Statistik Matematisk statistik är slumpens matematik. Började som en beskrivning av spel, chansen att få olika utfall. Brevväxling mellan Fermat och Pascal 1654. Modern matematisk statistik
LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 27 / TEN 2 augusti 218, klockan 8.-12. Examinator: Jörg-Uwe Löbus (Tel: 79-62827) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3
Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 1 Mängdlära Grundläggande sannolikhetsteori Kombinatorik Deskriptiv statistik
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 1 Mängdlära Grundläggande sannolikhetsteori Kombinatorik Deskriptiv statistik Jörgen Säve-Söderbergh Information om kursen Kom ihåg att
FACIT: Tentamen L9MA30, LGMA30
Göteborgs Universitetet GU Lärarprogrammet 06 FACIT: Matematik för lärare, åk 7-9, Sannolikhetslära och statistik, Matematik för gymnasielärare, Sannolikhetslära och statistik 07-0-04 kl..0-.0 Examinator
Grundläggande matematisk statistik
Grundläggande matematisk statistik Grundbegrepp, axiomsystem, betingad sannolikhet, oberoende händelser, total sannolikhet, Bayes sats Uwe Menzel [email protected] 23 augusti 2017 Slumpförsök Ett försök
Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).
STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)
Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs
Matematisk statistik KTH Formel- och tabellsamling i Matematisk statistik, grundkurs Varterminen 2005 . Kombinatorik ( ) n = k n! k!(n k)!. Tolkning: ( n k mängd med n element. 2. Stokastiska variabler
Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar
Föreläsning 3 Kapitel 4, sid 79-124 Sannolikhetsfördelningar 2 Agenda Slumpvariabel Sannolikhetsfördelning 3 Slumpvariabel (Stokastisk variabel) En variabel som beror av slumpen Ex: Tärningskast, längden
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 6. Normalfördelning, Centrala gränsvärdessatsen, Approximationer Jan Grandell & Timo Koski 06.02.2012 Jan Grandell & Timo Koski () Matematisk statistik
Föreläsning 4: Konfidensintervall (forts.)
Föreläsning 4: Konfidensintervall forts. Johan Thim [email protected] 3 september 8 Skillnad mellan parametrar Vi kommer nu fortsätta med att konstruera konfidensintervall och vi kommer betrakta lite olika
Föreläsning 8 för TNIU23 Integraler och statistik
Föreläsning 8 för TNIU Integraler och statistik Krzysztof Marciniak ITN, Campus Norrköping, [email protected] www.itn.liu.se/ krzma ver. - 9--6 Inledning - lite om statistik Statistik är en gren av tillämpad
1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,
1 Föreläsning I, Mängdlära och elementär sannolikhetsteori, LMA201, LMA521 1.1 Mängd (Kapitel 1) En (oordnad) mängd A är en uppsättning av element. En sådan mängd kan innehålla ändligt eller oändlligt
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4, 19 23.1.2015
MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4, 19 23.1.2015 Gripenberg I1. Vi antar att antalet telefonsamtal som kommer till ett servicenummer under en tidsperiod med längden
Föreläsning 7: Punktskattningar
Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology September 21, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två
4.1 Grundläggande sannolikhetslära
4.1 Grundläggande sannolikhetslära När osäkerhet förekommer kan man aldrig uttala sig tvärsäkert. Istället använder vi sannolikheter, väntevärden, standardavvikelser osv. Sannolikhet är ett tal mellan
Tentamen i matematisk statistik, TAMS15/TEN (4h)
LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare
Föreläsning 12: Repetition
Föreläsning 12: Repetition Marina Axelson-Fisk 25 maj, 2016 GRUNDLÄGGANDE SANNOLIKHETSTEORI Grundläggande sannolikhetsteori Utfall = resultatet av ett försök Utfallsrum S = mängden av alla utfall Händelse
Oberoende stokastiska variabler
Kapitel 6 Oberoende stokastiska variabler Betrakta ett försök med ett ändligt (eller högst numrerbart) utfallsrum Ω samt två stokastiska variabler ξ och η med värdemängderna Ω ξ och Ω η. Vi bildar funktionen
Föreläsning 7: Stokastiska vektorer
Föreläsning 7: Stokastiska vektorer Johan Thim johanthim@liuse oktober 8 Repetition Definition Låt X och Y vara stokastiska variabler med EX = µ X, V X = σx, EY = µ Y samt V Y = σy Kovariansen CX, Y definieras
Kap 3: Diskreta fördelningar
Kap 3: Diskreta fördelningar Sannolikhetsfördelningar Slumpvariabler Fördelningsfunktion Diskreta fördelningar Likformiga fördelningen Binomialfördelningen Hypergeometriska fördelningen Poisson fördelningen
