Markovprocesser SF1904

Relevanta dokument
Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

TAMS79: Föreläsning 10 Markovkedjor

Markovprocesser SF1904

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

Matematisk statistik för D, I, Π och Fysiker

Markovprocesser SF1904

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

Stokastiska processer

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

Tentamen i FMS180/MASC03 Markovprocesser

Fö relä sning 2, Kö system 2015

Stokastiska processer och simulering I 24 augusti

3 Diskreta Markovkedjor, grundläggande egenskaper Grundläggande begrepp Fördelningen för X n Absorption...

Markovkedjor. Patrik Zetterberg. 8 januari 2013

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

Stokastiska processer och simulering I 24 maj

P =

P = b) Vad betyder elementet på platsen rad 1 kolumn 3 i matrisen P 319? (2 p)

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Grafer och grannmatriser

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

SF1901 Sannolikhetsteori och statistik I

Poisson Drivna Processer, Hagelbrus

Föreläsning 9, FMSF45 Markovkedjor

Utdrag ur TAMS15: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79

Tiden i ett tillstånd

e x/1000 för x 0 0 annars

Om Markov Chain Monte Carlo

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Tentamen LMA 200 Matematisk statistik,

SF1901: Sannolikhetslära och statistik

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Konvergens och Kontinuitet

Föreläsning 5, Matematisk statistik Π + E

Föreläsning 5, FMSF45 Summor och väntevärden

Matematisk statistik för D, I, Π och Fysiker

Uppgift 2 Betrakta vädret under en följd av dagar som en Markovkedja med de enda möjliga tillstånden. 0 = solig dag och 1 = regnig dag

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

Tentamen LMA 200 Matematisk statistik, data/elektro

1 Föreläsning V; Kontinuerlig förd.

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Föreläsning 2, FMSF45 Slumpvariabel

Kunna beräkna P (spärr) för system med begränsat antal kunder och köplatser. Kunna beräkna medelantal upptagna betjänare.

Markovkedjor i kontinuerlig tid med tillämpning för motorproteiner. Jonathan Fagerström, Avhandling Pro Gradu

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Bayesianska numeriska metoder II

SF1901 Sannolikhetsteori och statistik I

Om skattningar av sannolikheter för extrema händelser

1 Stokastiska processer. 2 Poissonprocessen

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Lösningsförslag, tentamen, Differentialekvationer och transformer II, del 1, för CTFYS2 och CMEDT3, SF1629, den 19 oktober 2011, kl. 8:00 13:00.

att genomföra laborationen) kan du sedan spara filen med ev. ändringar på ditt eget konto med Save As, såsom anges i introduktionslaborationen.

40 5! = 1, ! = 1, Om man drar utan återläggning så kan sannolikheten beräknas som 8 19

Kurssammanfattning MVE055

Stokastiska Processer

Övningstentamen i matematisk statistik

TMS136. Föreläsning 4

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Matematisk statistik 9 hp, HT-16 Föreläsning 16: Markovkedjor

Laboration i Automationsteknik FK: Del 1: Polplacering. Del 2: Markovkedjor

SF1911: Statistik för bioteknik

SF1901: Sannolikhetslära och statistik

Föresläsningsanteckningar Sanno II

Tentamen MVE301 Sannolikhet, statistik och risk

Matematisk statistik för D, I, Π och Fysiker

Uppgift 3: Den stokastiska variabeln ξ har frekvensfunktionen 0 10 f(x) =

DEL I 15 poäng totalt inklusive bonus poäng.

Övning 1 Sannolikhetsteorins grunder

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

1 Förberedelser. 2 Teoretisk härledning av värmeförlust LABORATION 4: VÄRMEKRAFTVERK MATEMATISK STATISTIK AK, MAS 101:A, VT-01

Föreläsning 8, Matematisk statistik Π + E

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Simulering av Poissonprocesser Olle Nerman, Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp)

histogram över 1000 observerade väntetider minuter 0.06 f(x) täthetsfkn x väntetid

SF1901: Sannolikhetslära och statistik

1 Förberedelser. 2 Att starta MATLAB, användning av befintliga m-filer. 3 Geometriskt fördelad avkomma

Övningar. MATEMATISKA INSTITUTIONEN STOCKHOLMS UNIVERSITET Avd. Matematik. Linjär algebra 2. Senast korrigerad:

Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod

Vektorgeometri för gymnasister

= y(0) för vilka lim y(t) är ändligt.

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

Transkript:

Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3

Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (2) Föreläsning 3

Förra Föreläsningen Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (3) Föreläsning 3

Diskret Markovkedja Förra Föreläsningen Har hittills pratat om diskreta Markovkedjor {X n ; n = 0, 1, 2,...}. Definerade genom en initialfördelning p (0) och en övergångsmatris P. Intressant fråga är vad som händer efter lång tid. Definitioner att komma ihåg: Genomgångstillstånd Absorberande tillstånd A-kedja Irreducibel delmängd Periodicitet Aperiodiskt tillstånd Sluten delmängd Johan Westerborn Markovprocesser (4) Föreläsning 3

Stationär fördelning Förra Föreläsningen Definition (Stationär fördelning, 5.1) En fördelning π = (π 1, π 2,...) är en stationär fördelning till en Markovkedja med övergångsmatris P om Sats (5.1) πp = π π i = 1 i π i 0 för alla i E En Markovkedja med ändligt tillståndsrum har alltid minst en stationär fördelning. Johan Westerborn Markovprocesser (5) Föreläsning 3

Förra Föreläsningen Ergodicitet Definition (5.2) En Markovkedja {X n ; n 0} sägs vara ergodisk om en gränsfördelning p ( ) existerar och den är oberoende av startfördelning. Följande sats är en av huvudsatserna i teorin för Markovkedjor Sats (5.2) En ändlig, irreducibel, aperiodisk Markovkedja är ergodisk och dess gränsfördelning är den entydiga, stationära fördelningen. Johan Westerborn Markovprocesser (6) Föreläsning 3

Förra Föreläsningen Ickeändlig Markovkedja En ickeändlig Markovkedja kan också vara ergodisk och ha en stationär fördelning. Sats (5.6) Låt P vara övergångsmatrisen till en irreducibel, aperiodisk Markovkedja. Betrakta följande ekvationssystem, x = (x 1, x 2,...). x = xp x i 0 i = 1, 2,... Då gäller att Markovkedjan är ergodisk och har en stationär fördelning om 0 < i=1 x i < Om lösningen satisfierar i=1 x i = så har kedjan ingen stationär fördelning och är inte ergodisk. Johan Westerborn Markovprocesser (7) Föreläsning 3

Förra Föreläsningen Exempel Exempel (5.5) En partikel vandrar på de naturliga talen N = (0, 1, 2,...) och låt den gå ett steg till höger med sannolikhet p och ett steg till vänster med sannolikhet q = 1 p. I punkten 0 stannar partikeln kvar med sannolikhet q. Avgör för vilka värden på p som kedjan är ergodisk och beräkna då den stationära fördelningen. Johan Westerborn Markovprocesser (8) Föreläsning 3

Föreläsningsplan Markovprocesser i kontinuerlig tid 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (9) Föreläsning 3

Markovprocesser i kontinuerlig tid Introduktion Vi ska nu studera fallet då T = [0, ) men tillståndsrummet är fortfarande diskret E = {0,, 1..., N} eller uppräkneligt E = {0, 1,...}. Definition (6.1) En stokastisk process {X(t), t 0} kallas en (diskret) Markovprocess om P(X(t n+1 ) = i n+1 X(t n ) = i n,..., X(t 0 ) = i 0 ) = P(X(t n+1 ) = i n+1 X(t n ) = i n ), för alla n, alla 0 t 0 <... < t n < t n+1 och alla tillstånd i 0,..., i n, i n+1 E. Johan Westerborn Markovprocesser (10) Föreläsning 3

Tidshomogen Markovprocesser i kontinuerlig tid Definition Om P(X(t + s) = j X(s) = i), i, j E inte beror på s så är processen tidshomogen. Vi kan då sätta p ij (t) = P(X(t + s) = j X(s) = i) = P(X(t) = j X(0) = i) och P(t) = (p ij (t)) i,j E. P(t) är övergångsmatris för tid t. p(t) = (p 0 (t), p 1 (t),...) där p i (t) = P(X(t) = i), där p(t) är den absoluta sannolikhetsfördelningen. Johan Westerborn Markovprocesser (11) Föreläsning 3

Markovprocesser i kontinuerlig tid Chapman-Kolmogorov Sats (6.1) För alla s, t 0 gäller a) p ij (s + t) = k E p ik(s)p kj (t) b) P(s + t) = P(s)P(t) c) p(s + t) = p(s)p(t) Bevis lämnas som en bra övning. Görs på samma sätt som för diskreta Markovkedjor. Johan Westerborn Markovprocesser (12) Föreläsning 3

Markovprocesser i kontinuerlig tid Reguljär Markovprocess Definition (6.2) En Markovprocess kallas reguljär om den med sannolikhet 1 gör högst ändligt många hopp under ändliga tidsintervall och med sannolikhet 1 ligger kvar en positiv tid i ett tillstånd den gått in i. Johan Westerborn Markovprocesser (13) Föreläsning 3

Markovprocesser i kontinuerlig tid Exponentialfördelningen Tiden i ett tillstånd är exponentialfördelad Låt T i vara en stokastisk variabel som är tiden mellan hopp i 1 och i i en Markovprocess. Då gäller enligt Markovegenskapen att P (T i > h + s T i > s) = P (T i > h). Fördelningen som uppfyller detta är Exponentialfördelningen. Vi drar slutsatsen att hopptiden i en tidshomogen Markovprocess är Exponentialfördelade. Sats Låt T i Exp(λ i ) för i = 1,..., n. Då är T = min(t 1,..., T n ) exponentialfördelad med intensitet λ = n i=1 λ i. Johan Westerborn Markovprocesser (14) Föreläsning 3

Intensitetsmatris Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (15) Föreläsning 3

Intensitetsmatris Intensitetsmatrisen Definition Antag att p ij (t) är två gånger differntierbar från höger i nollen, dvs. det existerar q ij R så att p ij (h) p ij (0) q ij = lim. h 0 + h Matrisen Q med elementet q ij på plats (i, j) kallas för intensitetsmatrisen. Exempel (Exponentialfördelningen igen) Om en Markovprocess hoppar från tillstånd 0 till 1 efter en Exp(λ) fördelad tid. Då är q 01 = λ. Johan Westerborn Markovprocesser (16) Föreläsning 3

Intensitetsmatris Intensitetsmatrisen Definition Antag att p ij (t) är två gånger differntierbar från höger i nollen, dvs. det existerar q ij R så att p ij (h) p ij (0) q ij = lim. h 0 + h Matrisen Q med elementet q ij på plats (i, j) kallas för intensitetsmatrisen. Exempel (Exponentialfördelningen igen) Om en Markovprocess hoppar från tillstånd 0 till 1 efter en Exp(λ) fördelad tid. Då är q 01 = λ. Johan Westerborn Markovprocesser (16) Föreläsning 3

Intensitetsmatris Tolkning av q ij Tillsammans med tidshomogeniteten får vi nu, för alla t 0 och i j, P(X(t + h) = j X(t) = i) = q ij h + o(h) q ij kallas för övergångsintensiteten från tillstånd i till j. Vi har också att P(X(t + h) i X(t) = i) = j i P(X(t + h) = j X(t) = i) = j i (q ij h + o(h)) = q i h + o(h) Där q i kallas för uthoppsintensiteten, q i = j i q ij Johan Westerborn Markovprocesser (17) Föreläsning 3

Intensitetsmatris Tolkning av q ii Observera också att p ii (h) = P(X(h) = i X(0) = i) = 1 P(X(h) i X(0) = i) Vi får då att = 1 (q i h + o(h)) = 1 q i h + o(h). p q ii = lim ii (h) 1 h 0 + h q = lim i h + o(h) h 0 + h = q i Vi har att q ii = q i. Vi drar slutsatsen att radsumman i Q är noll. Johan Westerborn Markovprocesser (18) Föreläsning 3

Intensitetsmatris Sammanfattning Vi kan tolka en Markovprocess som att när vi kommer till ett tillstånd i startar vi exponentialfördelade variabler T ij Exp(q ij ), j i. Vi hoppar till det tillstånd j som har T ij T il, l i Formeln q i = j i q ij är naturlig då tiden till ett hopp är exponentialfördelad och minimum av exponentialfördelade variabler är exponentialfördelad med intensitet som är summan av intensiteterna. Tiden i ett tillstånd är alltså Exp(q i ) fördelad. Johan Westerborn Markovprocesser (19) Föreläsning 3

Intensitetsmatris Tillförlitlighet Exempel (Tillförlitlighet) En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ. När en komponent är trasig lagas den med intensitet µ. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Ställ upp systemet, bestäm E och Q. A B Johan Westerborn Markovprocesser (20) Föreläsning 3

Intensitetsmatris Bakåt och framåt ekvationerna I matrisform kan vi skriva intensitetsmatrisen som Q = lim h 0 + P(h) I h Vi kan då skriva upp följande ekvationer P (t) = P(t)Q = QP(t) p (t) = p(0)p(t)q = p(t)q Första ekvationerna kallas för Kolmogorovs framåt och bakåt ekvationer. De har lösningen P(t) = exp(qt) = (Qt) k k=0 Matrisen Q tillsammans med p(0) karakteriserar Markovprocessen. k! Johan Westerborn Markovprocesser (21) Föreläsning 3

Föreläsningsplan Innbäddade Markovkedjan 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (22) Föreläsning 3

Uthoppsmatrisen Innbäddade Markovkedjan Låt t 0, t 1,... vara tidpunkterna då Markovprocessen {X(t); t 0} med intensitetsmatris Q hoppar. Vi låter { X n ; n = 0, 1,...} vara en process där X n = X(t n ). Då är X n en Markovkedja med övergångsmatris P. Där övergångssannolikheterna är proportionella mot intensiteterna. Bra övning att visa följande: Låt T 1 Exp(λ 1 ) och T 2 Exp(λ 2 ) då är P(T 1 < T 2 ) = λ 1 λ 1 + λ 2 Johan Westerborn Markovprocesser (23) Föreläsning 3

Tillförlitlighet forts. Exempel (Tillförlitlighet) Innbäddade Markovkedjan En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ. När en komponent är trasig lagas den med intensitet µ. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Bestäm P. A B Johan Westerborn Markovprocesser (24) Föreläsning 3

Innbäddade Markovkedjan Att simulera en Markovprocess Med den inbäddade Markovkedjan är det enkelt att simulera en Markovprocess på följande sätt: Låt X(0) = X(0) i med sannolikhet p i (0); Låt T 0 0; for n = 1, 2,... do Låt Y n Exp(q Xn 1 ); end Låt T n T n 1 + Y n ; Låt X n = X(T n ) j med sannolikhet q Xn 1,j /q Xn 1 ; Där X(t) är Markovprocessen, X n är den innbäddade Markovkedjan och T n är tiden för hopp n. Johan Westerborn Markovprocesser (25) Föreläsning 3

Absorption Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser i kontinuerlig tid 3 Intensitetsmatris 4 Innbäddade Markovkedjan 5 Absorption Johan Westerborn Markovprocesser (26) Föreläsning 3

Absorption Absorption i Markovprocesser Ett absorberande tillstånd är ett tillstånd från vilket man ej kan gå till ett annat tillstånd. Det betyder att q ij = 0 för alla j i, vilket också betyder att q i = q ii = 0 för ett absorberande tillstånd i (rad av nollor i Q). Begreppet A-kedja, genomgångstillstånd defineras som i Markovkedjorna. Vi inför som i Markovkedje fallet, a ij = P(absorberas i tillstånd j X(0) = i) T i =tid till absorption givet start i tillstånd i och t i = E[T i ]. Vi kan beräkna dessa på samma sätt som i Markokedjorna om vi inser att förväntad tid i tillstånd i är 1 q i och använder den innbäddade Markovkedjan. Johan Westerborn Markovprocesser (27) Föreläsning 3

Absorption Absorption i Markovprocesser Sats (6.5) Låt a ij vara absorptionssannolikheterna och t i vara förväntad tid till absorption i en A-kedja med intensitetsmatris Q. Då gäller för alla absorberande tillstånd j a ij = q ij q i + t i = 1 q i + k G\{i} k G\{i} där G är alla genomgångstillstånd. q ik q i a kj, q ik q i t k, i G i G Bevisas på samma sätt som för Markovkedjor. Johan Westerborn Markovprocesser (28) Föreläsning 3

Tillförlitlighet forts. Exempel (Tillförlitlighet) Absorption En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ. När en komponent är trasig lagas den med intensitet µ. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Antag att systemet börjar med två fungerande komponenter, hur lång tid förväntar vi oss att det tar innan systemet slutar fungera? A B Johan Westerborn Markovprocesser (29) Föreläsning 3