Poisson Drivna Processer, Hagelbrus

Relevanta dokument
Stokastiska Processer

1 Stokastiska processer. 2 Poissonprocessen

SF1901 Sannolikhetsteori och statistik I

Våra vanligaste fördelningar

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

SF1911: Statistik för bioteknik

1 Föreläsning V; Kontinuerlig förd.

Matematisk statistik för D, I, Π och Fysiker

Konvergens och Kontinuitet

FÖRELÄSNING 4:

TMS136. Föreläsning 4

Kap 2. Sannolikhetsteorins grunder

SF1901: Sannolikhetslära och statistik

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Föreläsning 5, Matematisk statistik Π + E

Matematisk statistik för D, I, Π och Fysiker

Föreläsning 8 för TNIU23 Integraler och statistik

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

Simulering av Poissonprocesser Olle Nerman, Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp)

Fö relä sning 2, Kö system 2015

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Föreläsning 5, FMSF45 Summor och väntevärden

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Lärmål Sannolikhet, statistik och risk 2015

Oberoende stokastiska variabler

Markovprocesser SF1904

Föreläsning 2, FMSF45 Slumpvariabel

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Tiden i ett tillstånd

Föreläsning 8, Matematisk statistik Π + E

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering

Föresläsningsanteckningar Sanno II

Veckoblad 3. Kapitel 3 i Matematisk statistik, Dahlbom, U.

Kapitel 4. Kontinuerliga slumpvariabler och deras sannolikhetsfördelningar. Sannolikhetslära och inferens II

Introduktion till statistik för statsvetare

Demonstration av laboration 2, SF1901

Föreläsning 12: Repetition

SF1901: Sannolikhetslära och statistik

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

Föreläsning 3, Matematisk statistik Π + E

Exempel för diskreta och kontinuerliga stokastiska variabler

Markovprocesser SF1904

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I

en observerad punktskattning av µ, ett tal. x = µ obs = 49.5.

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Föreläsning 4: Konfidensintervall (forts.)

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

SF1901: Sannolikhetslära och statistik

Stokastiska processer och simulering I 24 maj

17.1 Kontinuerliga fördelningar

histogram över 1000 observerade väntetider minuter 0.06 f(x) täthetsfkn x väntetid

Föreläsningsanteckningar till kapitel 8, del 2

Övning 1 Sannolikhetsteorins grunder

Tryckfel i K. Vännman, Matematisk Statistik, upplaga 2:13

Tentamen MVE301 Sannolikhet, statistik och risk

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

Kap 3: Diskreta fördelningar

Tentamen TEN1, HF1012, 29 maj Matematisk statistik Kurskod HF1012 Skrivtid: 14:00-18:00 Lärare och examinator : Armin Halilovic

Grundläggande matematisk statistik

Problemsamling i Sannolikhetsteori

Grundläggande matematisk statistik

(a) på hur många sätt kan man permutera ordet OSANNOLIK? (b) hur många unika 3-bokstavskombinationer kan man bilda av OSANNO-

Matematisk statistik 9 hp Föreläsning 4: Flerdim

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Monte Carlo-metoder. Bild från Monte Carlo

1.1 Diskret (Sannolikhets-)fördelning

Fö relä sning 1, Kö system vä ren 2014

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

1.1 Diskret (Sannolikhets-)fördelning

Uppgift 2) Datum: 23 okt TENTAMEN I MATEMATIK OCH MATEMATISK STATISTIK, kurskod 6H3000

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

Kurssammanfattning MVE055

Lösningar till tentamen i Matematisk Statistik, 5p

Transformer i sannolikhetsteori

Lösningar till uppgifter från Milton-Arnold, kap 3 4 Matematisk statistik

4 Diskret stokastisk variabel

Stokastiska processer och simulering I 24 augusti

Kompendium om flerdimensionella fördelningar för kursen S0008M Sannolikhetslära och statistik

Matematisk statistik KTH. Formelsamling i matematisk statistik

Transkript:

Kapitel 6 Poisson Drivna Processer, Hagelbrus Poissonprocessen (igen) Vi har använt Poissonprocessen en hel del som exempel. I den här föreläsningen kommer vi att titta närmare på den, och även andra processer som genereras av den. Grundtanken är i en Poissonprocess är alltid att det finns en serie med impulser, som vi kan kalla γ 1, γ 2, γ 3,... Impulserna är tiden för händelser av någon typ (ankomsten av en kund, uppmätningen av en partikel, tiden då något går fel, etc.) Tiden mellan impulserna är exponentiellt fördelad med intensitet λ, så formellt så definieras de genom en serie oberoende exponentiella stokastiska variabler, ξ 1, ξ 2, ξ 3,... enligt formeln: γ k k ξ k. i1 Den vanliga Poissonprocessen {X(t)} t är då, som vi tidigare nämnt, antalet impulser fram till tiden t: X(t) max(k : γ k t) Poissonprocessen har tre viktiga egenskaper: 1. Den har oberoende ökningar. 2. Den har stationära ökningar. 3. X(t) är Poisson fördelad med intensitet λ. De första två egenskaperna följer av exponentialfördelningens minnelöshet, dvs att P(ξ t+s ξ t) P(ξ s). Denna egenskap betyder att om vi tittar på Poissonprocessen med start i en tid t, så är forfarande exponentiellt fördelad tid till nästa impuls, så processen startas om oberoende av tidigare historia (förutom just dess värde). Det är inte svårt att visa att Poissonprocessen är den enda processen med dessa tre egenskaper. (UPPGIFT: Visa detta. Ledning: Att γ i+1 γ i > t är samma sak som att ökningen mellan γ +1 och t är.) 1

Vi vill visa lite saker om Poissonprocessen, men för att göra detta måste vi först visa lite saker om exponentialfördelningen. En stokastisk variabel η är gamma(k, λ) fördelad, om: f η (x) λk x k 1 k 1 e λx. Man kan även definiera gamma fördelningar för värden på k som inte är heltal, men det komplicerar formeln i onödan. (Frekvensfunktionen delar normalfördelnings jobbigaste egenskap: det går inte att uttrycka fördelningsfunktionen med kända funktioner.) Notera att gamma(1, λ) fördelade stokastiska variabler är exponentiellt fördelade. Alltså är exponentialfördelningen ett specialfall av gammafördelningen. Detta, och följande observation motiverar vårt intresse för gamma fördelningen(.25 i boken): Lemma 1. Om ξ är en gamma(k, λ) fördelad s.v. och η är en oberoende gamma(l, λ) s.v., så är ξ + η gamma(k + l, λ) fördelad. BEVIS: För enkelhetens skull så antar vi att l 1. Att bevisa det för större l blir då bara en fråga om att upprepa l 1 fallet flera gånger. (UPPGIFT: gör detta.) Resultatet följer av en så-kallad faltning. Observera att: f ξ+η (x) f ξ (x y)f η (y)dy (Detta följer av att om η är y så måste ξ vara x y för att summan ξ + η ska bli x). Insättning ger: x λ k (x y) k 1 f ξ+η (x) e λ(x y) λe λy dy (k 1)! x λ k+1 e λx (x y) k 1 dy (k 1)! λk+1 x k e λx k vilket är frekvensfunktionen för en gamma(k + 1, λ) fördelad s.v. Genom flera applikationer av satsen, så vet vi att om ξ 1, ξ 2,..., ξ n är oberoende exp(λ) fördelade s.v. så är deras summa gamma(n, λ) fördelad. Alltså är passande nog just γ n gamma(n, λ) fördelad. Från detta kan vi visa den tredje egenskapen om Poissonprocessen (X(t) är Poisson fördelad): BEVIS: Att X(t) n betyder att γ n x för något x t, men att γ n+1 γ n + ξ n+1 > t - d.v.s ξ n+1 < t x. Alltså: P(X(t) n) t t λ n e λt t f γn (x)p(ξ n+1 > t x)dx λ n x n 1 (n 1)! e λx e λ(t x) dx λn x n e λt n! 2 x n 1 (n 1)! dx

Ökningsprocessen: Poissonprocessen kan användas för definiera andra processer. Som ett första exempel på en Poisson driven process (d.v.s en som drivs av en grundläggande Poissonprocess) så kan vi definiera följande. Låt {X(t)} t vara en Poissonprocess med intensitet λ. Låt sedan {Y (t)} t 2 ges av: Y (t) X(t) X(t 2). Y (t) räknar alltså antalet impulser som skett under den senaste två tidsenheterna (valet av 2 är så klart godtyckligt). Ett exempel på när detta skulle kunna vara intressant är till exempel om man är intresserad av modellera belastningen på en bro som tar två minuter att passera. Antalet bilar på bron är helt enkelt antalet bilar (impulser) som ankommit under den senaste minuten. Y (t) är en stationär process. (UPPGIFT: Visa detta. Det är en typisk tentafråga.) När vi konstruerar Poissonprocessen så antar vi att våran sekvens med impulser börjar i tiden. En ganska naturlig utvidgning av detta är att vilja tänka sig att impulserna har pågått i all tid, utan någon given början. Den vanliga Poissonprocessen, som räknar antalet impulser hittills är så klart inte meningsfull i detta sammahang, men processen Y (t) i föregående exempel är ju det. Hur defenierar vi då en sekvens med impulser som pågått under all tid? Eftersom exponentialfördelningen är minneslös, så vet vi att tiden från till nästa impuls är exponentialfördelad, så de positiva impulstiderna γ 1, γ 2,... har precis samma fördelning som förut. Men vad gäller för de som är mindre än? För att defeniera dessa så kan vi se vad som händer om man tittar bakåt i en Poissonprocess. Låt γ t vara tiden för sista impulsen före tiden t i en vanliga Poissonprocess. Vad kan vi säga om t γ t? Tag s t: P(t γ t s) P(X(t) X(t s) ) e λs. Vilket är samma som en exp(λ) fördelning. Om vi nu tänker oss våran eviga serie med impulser, så motiverar detta att tiden från den sista impulsen innan till bör vara exp(λ) fördelad. Alltså kan vi konsturera tiderna för de negativa impulserna så samma sätt som de positiva. Låt η 1, η 2,... vara oberoende exp(λ) fördelade s.v. Sekvensen..., γ 2, γ 1, γ 1, γ 2,... defenieras då av: { k l1 γ k η k om k < k l1 ξ k om k > Den uppmärksamme läsaren märker nog här att detta inte verkar stämma. Vi har ju sagt att tiden mellan impulserna ska vara exp(λ) fördelad, men tiden mellan γ 1 och γ 1 är ju η 1 + ξ 1 vilket är gamma(2, λ) fördelat. Ännu värre: argumentet att tidsskillnaden mellan en given tid och impulsen före var exponentiellt fördelad gällde ju alla tider t, och lika så gäller ju att tiden till nästa impuls är exponentiellt fördelad för alla t också. Så detta 3

säger att för vilket givet t som helst, så är tiden mellan impulsen före t och impulsen efter t inte exponentialfördelad! Detta är nog för att få huvudet att snurra ordentligt. Men egentligen är det inte så konstigt: långa intervall täcker ju över många fler punkter en korta intervall, så för en given punkt vägs sannolikheten att det är just ett långt intervall som täcker över punkten upp. Hagelbrus: Vi kan nu defeniera en process {Y (t)} t R lik den ovan, men som är stationär i all tid i stället för att starta i tiden 1. Den räknar helt enkelt antalet impulser som inträffat under den senaste två minutrarna: Y (t) I [,2] (t γ) impulser γ I [,2] (t γ k ) + I [,2] (t γ k ) (Vi drar oss till minnes att I A (x) är indikatorfunktionen som antar värde ett när x A och annars.) Denna defenition visar sig vara mycket intressantare än den tidigare, då den tillåter oss att vikta processens värde efter impulsernas tider. Säg att vi stället för att mäta hur många bilar som finns på bron, vill mäta den totala belastning. Vi kan tänka oss att belastningen blir störst när bilen finner sig mitt på bron (när en minut gått sedan impulsen), och sedan avtar. En modell skulle kunna vara: { 1 (1 s) 2 om s 2 g(s) annars. där s är tiden sedan bilen ankom till bron. Processen {T (t)} t R som beskriver belastningen blir då: Y (t) g(t γ) impulser γ g(t γ k ) + g(t γ k ) Dennaa en typ av processer kallas för hagelbrus (från engelskans Shot Noise ). g : R R kan vara vilken integrerbar 1 funktion som helst, men om g(s) > för något s < så kommer värdet av Y (t) att bero på impulser i framtiden vilket är väldigt svårt att förklara. I pratiken uppkommer hagelbrus inte främst vid modeller av trafik på broar, utan i elektroniken när man har instrument som är så känsliga att varje elektron känns av som en diskret impuls. Då blir en signal inte den kontinuerliga vågen man kan hoppas på, utan ett hagelbrus av elektroner med olika styrka. Den uppkommer även i andra fysikaliska sammanhang, bland annat under namnen photon noise och quantum noise. 1 Integrerbar betyder att integralen av funktionen från till är finit. 4

5 4 Antal bilar Belastning 3 2 1-1 -5 5 1 Figur 6.1: Realiseringar av hagelbrus med samma realisering av de drivande poisson impulserna. Hagelbrus är en stationär process: det är ju lätt att se att ingenting i defenitionen ändras om vi flyttar noll-punkten. Således är den också svagt stationär, vilket kan visas genom beräkning. Den har momentfunktioner (Sats 3.4 i boken): och m Y λ g(x)dx r Y (τ) λ g(x)g(x + τ)dx (Uppgift: Visa dessa för specialfallet g(x) I [,a] (x).) 5