Stokastiska Processer

Relevanta dokument
Poisson Drivna Processer, Hagelbrus

Konvergens och Kontinuitet

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

1 Stokastiska processer. 2 Poissonprocessen

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

4 Diskret stokastisk variabel

Oberoende stokastiska variabler

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

Matematisk statistik för D, I, Π och Fysiker

Kap 2. Sannolikhetsteorins grunder

Veckoblad 3. Kapitel 3 i Matematisk statistik, Dahlbom, U.

SF1901: Sannolikhetslära och statistik

Föreläsning 8, Matematisk statistik Π + E

Kap 3: Diskreta fördelningar

Övning 1 Sannolikhetsteorins grunder

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

SF1901 Sannolikhetsteori och statistik I

SF1901: Sannolikhetslära och statistik

1 Föreläsning V; Kontinuerlig förd.

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

1.1 Diskret (Sannolikhets-)fördelning

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

SF1901 Sannolikhetsteori och statistik I

modell Finansiell statistik, vt-05 Modeller F5 Diskreta variabler beskriva/analysera data Kursens mål verktyg strukturera omvärlden formellt

SF1901: Sannolikhetslära och statistik

SF1901 Sannolikhetsteori och statistik I

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

Matematisk statistik, LMA 200, för DAI och EI den 25 aug 2011

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

SF1901 Sannolikhetsteori och statistik I

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Grundläggande matematisk statistik

Tentamen LMA 200 Matematisk statistik,

SF1911: Statistik för bioteknik

SF1901: Sannolikhetslära och statistik

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

Föreläsning 2, FMSF45 Slumpvariabel

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

TMS136. Föreläsning 4

Tentamen i Matematisk Statistik, 7.5 hp

Uppgift 2) Datum: 23 okt TENTAMEN I MATEMATIK OCH MATEMATISK STATISTIK, kurskod 6H3000

SF1901: Sannolikhetslära och statistik

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Tentamen LMA 200 Matematisk statistik,

Föreläsning 12: Repetition

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Tentamen den 11 april 2007 i Statistik och sannolikhetslära för BI2

SF1901: Sannolikhetslära och statistik

Grundläggande matematisk statistik

Matematisk statistik KTH. Formelsamling i matematisk statistik

Tentamen i Dataanalys och statistik för I den 28 okt 2015

Föreläsningsanteckningar till kapitel 8, del 2

4.1 Grundläggande sannolikhetslära

Lärmål Sannolikhet, statistik och risk 2015

(a) på hur många sätt kan man permutera ordet OSANNOLIK? (b) hur många unika 3-bokstavskombinationer kan man bilda av OSANNO-

Tentamen TEN1, HF1012, 29 maj Matematisk statistik Kurskod HF1012 Skrivtid: 14:00-18:00 Lärare och examinator : Armin Halilovic

Kurssammanfattning MVE055

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

TMS136. Föreläsning 5

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Repetitionsföreläsning

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker

Stokastiska processer med diskret tid

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Stokastiska signaler. Mediesignaler

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

1.1 Diskret (Sannolikhets-)fördelning

Föreläsning 5, Matematisk statistik Π + E

Föreläsning 2, Matematisk statistik för M

Avd. Matematisk statistik

Fö relä sning 2, Kö system 2015

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

MVE051/MSG Föreläsning 7

TMS136. Föreläsning 5

Problemdel 1: Uppgift 1

Matematisk statistik 9 hp, HT-16 Föreläsning 10: Punktskattningar

en observerad punktskattning av µ, ett tal. x = µ obs = 49.5.

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler

BIOSTATISTISK GRUNDKURS, MASB11, VT-16, VT2 ÖVNING 3, OCH INFÖR ÖVNING 4

TENTAMEN I MATEMATISK STATISTIK 19 nov 07

Föreläsning 5, FMSF45 Summor och väntevärden

Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2

Formel- och tabellsamling i matematisk statistik

Markovprocesser SF1904

Markovprocesser SF1904

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Exempel för diskreta och kontinuerliga stokastiska variabler

Föreläsning 8 för TNIU23 Integraler och statistik

4.2.1 Binomialfördelning

Introduktion till statistik för statsvetare

Transkript:

Kapitel 3 Stokastiska Processer Karakteristisk funktion: Den karakteristiska funktionen φ ξ : R n C för en R n -värd s.v. definieras för t R n. φ ξ (t) = E{e iπ(t ξ +...+t nξ n) } = E{e iπtt ξ } Den karakteristiska funktionen är alltså väntevärdet av en komplex funktion av den R n - värda stokastiska variabeln. (Vi har inte definierat hur man hanterar väntevärden av komplexvärda funktioner av s.v. men pga linjäriteten hos väntevärdet så kan du nog säkert själv klura ut hur man lämpligen definierar detta.) Övning.5: Beräkna k.f. för en Po(λ)-fördelad s.v. ξ Lösning: Vi har f ξ (x) = P(ξ = x) = λx x! e λ för x {0,,,...} enligt definition på Po(λ), så φ ξ (t) = E{e iπtξ } = [Sats 0.] = x=0 = e λ e λeiπt = exp{λ(e iπt } iπtx λx e x! e λ = e λ (λe iπt ) x x=0 x! = Notera att detta är en komplexvärd funktion av t R. Observera att för kontinuerliga s.v. så är φ ξ (den n-dimensionella) Fouriertransformen av frekvensfunktionen f ξ : φ ξ (t) = e iπtt x f ξ (x) dx x R n Allmänt har vi karakteristiska funktioner är Fouriertransformer på sannolikhetsfördelningar Vi kan således använda teori från Fourieranalys för att dra slutsatser om de karakteristiska funktionerna. Vi får bland annat

Entydighet: Två R n -värda s.v. ξ och η är likafördelade om och endast om deras k.f. är lika, dvs F ξ (x) = F η (x) x R n φ ξ (t) = φ η (t) t R n Jämför med hur det är för Fouriertransformen av två funktioner och om dessa är lika. Oberoende: Två s.v. ξ och η är oberoende om och endast om φ (ξ,η) (s, t) = φ ξ (s) φ η (t) Notera att vi återigen har ett exempel på att oberoende faktoriserar. Karakteristiska funktioner är ett mycket viktigt verktyg i många delar av sannolikhetsteorin precis som Fourieranalys är i matematisk analys. Stokastiska processer En stokastisk process är en funktion X : Ω T R där T kallas för (tids)parametermängd. Vanligtvis utelämnas ω-beroendet och vi skriver {X(t)} t T precis som vi oftast skriver ξ istället för ξ(ω) för en s.v. Man kan betrakta definitionen av en stokastisk process på flera olika sätt: En stokastisk process är en familj {X(t)} t T av stokastiska variabler, dvs för varje t T är X(t) en s.v. Vi kan också se det som att, för ett visst utfall ω 0 Ω, så är X(ω 0, t) en vanlig reellvärd funktion från t T, precis som om ξ(ω 0 ) är ett vanligt tal för ett fixt utfall ω 0 Ω. Funktionen X(ω 0, t) av t T för ett visst utfall ω 0 kallas för en realisering av den stokastiska processen. I denna kurs kommer t T med få undantag att beteckna tid och t kallas således för tidsparameter och T för tidsparametermängd. Vi skiljer på processer i diskret och kontinuerlig tid beroende på om tidsparametermängden är diskret (t.ex delmängder av Z) eller inte. Som första exempel på en stokastisk process ser vi på Poissonprocessen. Poissonprocessen:

9 8 Poisson Process 7 6 5 4 3 0 0 3 4 5 6 7 8 9 I en Poisson process {X i } så är X 0 = 0 och sedan så väntar processen en exponentiellt fördelad tid i varje värde innan den ökar med ett. Realiseringen av en sådan process blir en ojämn trappa likt bilden. Formellt defenieras den: Låt ξ, ξ,... vara oberoende exp(λ)-fördelade s.v. för något λ > 0. Processen {X(t)} t 0 har då värde enligt 0 för 0 t < ξ för ξ t < ξ + ξ X(t) = för ξ + ξ t < ξ + ξ + ξ 3. så sägs X vara en Poissonprocess med intensitet λ. Notera att Poissonprocessen är en process i kontinuerlig tid men tar värden i en diskret mängd {0,,,...}. Poisson processen används som modell när man har en process som räknar ett antal händelser som inträffar oberoende av varandra och tiden. T. ex.: Antalet α-partiklar som utsöndrats från en bit radioaktivt material fram till tiden t. Antalet bilar som passerat ett visst övergångsställe (om man antar att trafiken är helt jämn). Slumpmässig Fas och Amplitud 3

.5.5 0.5 0-0.5 - -.5 - -.5 0 4 6 8 0 4 6 8 0 3 Låt ξ och φ vara två stokastiska variablar, med någon given fördelning. Då sägs X(t) = A cos(t + φ) vara en cosinus-våg med slumpmässig fas och amplitud. Bilden visar tre olika realiseringar av detta. Notera att i detta exemplet är detta lättast att betrackta den stokastiska processen på det andra sättet ovan, dvs som att vi väljer en funktion slumpässigt från en mängd av möjliga funktioner. En possionprocess, å andra sidan, betraktas oftast mycket mer tacksamt som ett händelseförlopp i tiden. Wienerprocessen 4 line 0 - -4-6 -8 0 3 4 5 6 7 8 9 0 Wienerprocessen är en viktig process som vi kommer att se ganska mycket av i kursen. Den kan ses som bilden av en slumpvandring med oändligt många, oändligt små steg. Därför används den ofta för att modellera sådannt som i själv verket består av väldigt (men 4

inte oändligt) många, väldigt små steg: t. ex. en partikels rörelse i en vätska ( Brownsk rörelse ) eller börskursen för en aktie. En intressant sak som vi kommer att se är att Wiener och Poisson processerna har mycket gemensamt, trots att deras realiseringar ser helt annurlunda ut. Diskret vitt brus: Låt e(0), e(±), e(±),... vara okorrelerade s.v., alla med väntevärde 0 och varians σ. Då sägs processen {e(t)} t Z vara diskret vitt brus. Notera att diskret vitt brus är en tisdiskret process (därav namnet!). Värdemängden är inte definierad dock, oavsett om det är en diskret mängd eller inte så kallas den för diskret vitt brus, bara villkoren i definitionen är uppfyllda. Vilka verktyg behöver vi för att kunna säga något om sannolikheten för att en stokastisk process antar vissa värden, t.ex för att beräkna sannolikheter som P(X(k) > 4 för något k < 9) för en diskret stokastisk process X? För en s.v. ξ klarade vi oss med fördelningsfunktionen F ξ (x) = P(ξ x) för att kunna beräkna P(ξ B) för valfritt B R n. Följande klassiska exempel belyser varför detta inte räcker för stokastiska processer. Exempel: Låt Y (t) = ξ för alla t Z där ξ är N(0,)-fördelad. Låt vidare X vara diskret vitt brus där alla X(t), för t Z är oberoende och N(0,)-fördelade. Fixera t Z och titta på fördelningen för X(t) respektive Y (t): F X(t) (x) = P(X(t) x) = Φ(x) = P(ξ x) = P(Y (t) x) = F Y (t) (x) där Φ betecknar fördelningsfunktionen för en N(0,)-fördelad s.v. Alltså är fördelningen för X(t) och Y (t) samma för alla t Z även om processerna är totalt olika; Y är ju konstant samma värde för alla t, medan X tar olika värden för alla t. Det räcker alltså inte att titta på -dimensionella fördelningar av processvärden. Det vore ju faktiskt ganska konstigt om så vore fallet; stokastiska processer är ju oändligtdimensionella stokastiska objekt och det vore väl underligt om det räckte att titta på fördelningen i en dimension i taget för att beskriva processen. Vad vi behöver är de n-dimensionella fördelningarna: För olika n N och t,..., t n T kallas uppsättningen av fördelningar F (X(t ),...,X(t n )(x,..., x n ) = P(X(t ) x,..., X(t ) x n ) för de n-dimensionella fördelningarna eller de ändligtdimensionella fördelningarna till processern {X(t)} t T. Kännedom om dessa är tillräckligt för att kunna uttala sig om sannolikheter för stokastiska processer. Tyvärr så är dessa, förutom att oftast vara besvärliga att arbeta med, inte alltid tillgängliga för oss. I så fall får man hitta en kompromiss, i denna kurs består kompromissen 5

av att titta på momentfunktioner, där väntevärdena och kovariansen mellan godtyckliga processvärden ingår. Mer om detta senare. Nu kommer några viktiga begrepp: En stok. proc. {X(t)} t 0 sägs ha oberoende ökningar om X(t n ) X(t n ), X(t n ) X(t n ),..., X(t ) X(t ) är oberoende s.v. för alla val av n N och 0 t < t <... < t n <. En stok. proc. {X(t)} t 0 sägs ha stationära ökningar om t 0 det gäller att fördelningen för X(t + s) X(s) ej beror på s 0. En stok. proc {X(t)} t 0 som har både oberoende ökningar och stationära ökningar sägs vara en Lévyprocess. Sats.: En Poissonprocess {X(t)} t 0 är en Lévyprocess med X(0) = 0. Vidare har vi att X(s + t) X(s) D = X(t) Po(λt). En stok. proc {X(t)} t T sägs vara stationär om (X(t + h),..., X(t n + h)) D = (X(t ),..., X(t n )) för alla val av n N, t,..., t n T, h R så att t + h,..., t n + h T, dvs om de ändligtdimensionella fördelningarna är invarianta (oförändrade) under tidstranslationer. En stok. proc {X(t)} t 0 är självsimilär med index κ > 0 om, för n N, λ > 0 och t,..., t n 0, vi har att (X(λt ),..., X(λt n )) D = (λ κ X(t ),..., λ κ X(t n )) Självsimiläritet är att processens fördelning är oförändrad om vi zoomar in på den (upp till en skalförändring i de värden som den antar; därav faktorn λ κ ). En exempel på en självsimilär process Lévyprocess som vi kommer att stöta på många gånger, är den viktiga Wienerprocessen, eller Brownsk rörelse som den också kallas. Det existerar inte alltid intressanta processer med godtyckliga kombinationer av ovanstående egenskaper. Exempelvis om en process är stationär och samtidigt har oberoende och stationära ökningar så måste X(t) 0 för alla t med sannolikhet. Se Övning 3.. En sats som kan vara användbar för att koppla ihop stationära och självsimilära processer är följande Sats. (Lamperti) : En process {X(t)} t 0 är självsimilär med index κ > 0 om och endast om processen Y definierad enligt Y (t) = e καt X(e αt ) för t R, är stationär för alla α > 0. Med D = menas att de har samma fördelning. 6

Nästa vecka skall vi gå in på momentfunktioner. Vi såg tidigare att de -dimensionella fördelningarna inte gav oss tillräcklig information för att kunna beskriva en process (eftersom två totalt olika processer hade samma -dim fördelningar). Vi krävde istället kännedom om de n-dimensinella fördelningarna, dvs fördelningen för den R n -värda s.v. av processvärden för olika n N och t,..., t n T (X(t ),..., X(t n )) Detta kan dock bli för mycket jobb att analysera dessa så vi behöver en kompromiss. Något som i många tillämpningar ofta fungerar som en god kompromiss (och som åtminstone ger en kvantitativ beskrivning av processen) är processens momentfunktioner. 7