Markovprocesser SF1904

Relevanta dokument
Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

Markovprocesser SF1904

Markovprocesser SF1904

TAMS79: Föreläsning 10 Markovkedjor

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

Matematisk statistik för D, I, Π och Fysiker

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

P =

Stokastiska processer

Tentamen i FMS180/MASC03 Markovprocesser

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

P = b) Vad betyder elementet på platsen rad 1 kolumn 3 i matrisen P 319? (2 p)

Fö relä sning 2, Kö system 2015

Stokastiska processer och simulering I 24 augusti

Tiden i ett tillstånd

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

Stokastiska processer och simulering I 24 maj

Markovkedjor. Patrik Zetterberg. 8 januari 2013

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

SF1901 Sannolikhetsteori och statistik I

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

Grafer och grannmatriser

Poisson Drivna Processer, Hagelbrus

3 Diskreta Markovkedjor, grundläggande egenskaper Grundläggande begrepp Fördelningen för X n Absorption...

e x/1000 för x 0 0 annars

Föreläsning 9, FMSF45 Markovkedjor

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

Utdrag ur TAMS15: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79

1 Stokastiska processer. 2 Poissonprocessen

Uppgift 2 Betrakta vädret under en följd av dagar som en Markovkedja med de enda möjliga tillstånden. 0 = solig dag och 1 = regnig dag

Matematisk statistik för D, I, Π och Fysiker

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

Övningstentamen i matematisk statistik

Tentamen LMA 200 Matematisk statistik,

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

Kunna beräkna P (spärr) för system med begränsat antal kunder och köplatser. Kunna beräkna medelantal upptagna betjänare.

Konvergens och Kontinuitet

SF1901: Sannolikhetslära och statistik

Tentamen LMA 200 Matematisk statistik, data/elektro

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

Markovkedjor i kontinuerlig tid med tillämpning för motorproteiner. Jonathan Fagerström, Avhandling Pro Gradu

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Tentamen MVE301 Sannolikhet, statistik och risk

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Bayesianska numeriska metoder II

SF1911: Statistik för bioteknik

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar.

SF1901 Sannolikhetsteori och statistik I

Föreläsning 2, FMSF45 Slumpvariabel

Föresläsningsanteckningar Sanno II

att genomföra laborationen) kan du sedan spara filen med ev. ändringar på ditt eget konto med Save As, såsom anges i introduktionslaborationen.

Om Markov Chain Monte Carlo

Uppgift 3: Den stokastiska variabeln ξ har frekvensfunktionen 0 10 f(x) =

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Kunna beräkna spärren i ett M/M/m*upptagetsystem. Känna till begreppet utnyttjning av en betjänare och beräkna den.

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Stokastiska Processer

1 Föreläsning V; Kontinuerlig förd.

FÖRELÄSNING 4:

Kunna dra slutsatser om ett systems betjäningstider och antalet köplatser genom att tolka diagram.

Statistiska metoder för säkerhetsanalys

Finansiell statistik FÖRELÄSNING 11

Kurssammanfattning MVE055

Lösningsförslag till tentamen i SF1861 Optimeringslära för T. Torsdag 28 maj 2010 kl

DEL I 15 poäng totalt inklusive bonus poäng.

Matematisk statistik 9 hp, HT-16 Föreläsning 16: Markovkedjor

SF1901: Sannolikhetslära och statistik

Kap 2. Sannolikhetsteorins grunder

Kunna beräkna spärren i ett M/M/m*upptagetsystem.

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Lösningsförslag, tentamen, Differentialekvationer och transformer II, del 1, för CTFYS2 och CMEDT3, SF1629, den 19 oktober 2011, kl. 8:00 13:00.

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Föreläsning 8 för TNIU23 Integraler och statistik

Föreläsning 8, Matematisk statistik Π + E

Problemsamling i Sannolikhetsteori

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

Exempel för diskreta och kontinuerliga stokastiska variabler

Lösningar till uppgifter från Milton-Arnold, kap 3 4 Matematisk statistik

Stokastiska vektorer

Föreläsning 5, Matematisk statistik Π + E

Dagens program. Linjära ekvationssystem och matriser

Tentamen LMA 200 Matematisk statistik,

Transkript:

Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 4 Markovprocesser 20 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 4

Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (2) Föreläsning 4

Förra Föreläsningen Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (3) Föreläsning 4

Förra Föreläsningen Intro till Markovprocesser Vi studerar nu Markovprocesser, vilket är en stokastisk process i kontinuerlig tid. Många definitioner är snarlika motsvarande definitioner för Markovkedjor. p ij (t) = P(X(t) = j X(0) = i) och P(t) = (p ij (t)) ij. Chapman-Kolmogorovs ekvationer finns på motsvarande sätt som i Markovkedjor. Tiden mellan hopp måste vara strikt större än noll (reguljär Markovprocess). Tiden mellan hopp är Exponentialfördelad då det är den enda (kontinuerliga) fördelningen som saknar minne. Johan Westerborn Markovprocesser (4) Föreläsning 4

Intensitetsmatrisen Förra Föreläsningen Intensitetsmatrisen Q = (q ij ) ij introducerades där: Elementet på plats i, j defineras som q ij = p ij p ij (h) p ij (0) (0) = lim. h 0 + h qij för j i är intensiteten med vilken processen rör sig från tillstånd i till j. q i = i j q ij är uthoppsintensiteten för tillstånd i. q ii = q i är diagnoalelementen. Radsumman i Q är noll. I Markovkedjorna karaktäriserar vi processen med hjälp av P och p (0). Vad gäller för Markovprocesserna? Johan Westerborn Markovprocesser (5) Föreläsning 4

Intensitetsmatrisen Förra Föreläsningen Intensitetsmatrisen Q = (q ij ) ij introducerades där: Elementet på plats i, j defineras som q ij = p ij p ij (h) p ij (0) (0) = lim. h 0 + h qij för j i är intensiteten med vilken processen rör sig från tillstånd i till j. q i = i j q ij är uthoppsintensiteten för tillstånd i. q ii = q i är diagnoalelementen. Radsumman i Q är noll. I Markovkedjorna karaktäriserar vi processen med hjälp av P och p (0). Vad gäller för Markovprocesserna? Johan Westerborn Markovprocesser (5) Föreläsning 4

Förra Föreläsningen Bakåt och framåt ekvationerna I matrisform kan vi skriva intensitetsmatrisen som Q = lim h 0 + P(h) I h Vi kan då skriva upp följande ekvationer P (t) = P(t)Q = QP(t) p (t) = p(0)p(t)q = p(t)q Första ekvationerna kallas för Kolmogorovs framåt och bakåt ekvationer. De har lösningen P(t) = exp(qt) = (Qt) k k=0 Matrisen Q tillsammans med p(0) karakteriserar Markovprocessen. k! Johan Westerborn Markovprocesser (6) Föreläsning 4

Förra Föreläsningen Bakåt och framåt ekvationerna I matrisform kan vi skriva intensitetsmatrisen som Q = lim h 0 + P(h) I h Vi kan då skriva upp följande ekvationer P (t) = P(t)Q = QP(t) p (t) = p(0)p(t)q = p(t)q Första ekvationerna kallas för Kolmogorovs framåt och bakåt ekvationer. De har lösningen P(t) = exp(qt) = (Qt) k k=0 Matrisen Q tillsammans med p(0) karakteriserar Markovprocessen. k! Johan Westerborn Markovprocesser (6) Föreläsning 4

Förra Föreläsningen Bakåt och framåt ekvationerna I matrisform kan vi skriva intensitetsmatrisen som Q = lim h 0 + P(h) I h Vi kan då skriva upp följande ekvationer P (t) = P(t)Q = QP(t) p (t) = p(0)p(t)q = p(t)q Första ekvationerna kallas för Kolmogorovs framåt och bakåt ekvationer. De har lösningen P(t) = exp(qt) = (Qt) k k=0 Matrisen Q tillsammans med p(0) karakteriserar Markovprocessen. k! Johan Westerborn Markovprocesser (6) Föreläsning 4

Förra Föreläsningen Bakåt och framåt ekvationerna I matrisform kan vi skriva intensitetsmatrisen som Q = lim h 0 + P(h) I h Vi kan då skriva upp följande ekvationer P (t) = P(t)Q = QP(t) p (t) = p(0)p(t)q = p(t)q Första ekvationerna kallas för Kolmogorovs framåt och bakåt ekvationer. De har lösningen P(t) = exp(qt) = (Qt) k k=0 Matrisen Q tillsammans med p(0) karakteriserar Markovprocessen. k! Johan Westerborn Markovprocesser (6) Föreläsning 4

Föreläsningsplan Innbäddade Markovkedjan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (7) Föreläsning 4

Uthoppsmatrisen Innbäddade Markovkedjan Låt t 0, t 1,... vara tidpunkterna då Markovprocessen {X(t); t 0} med intensitetsmatris Q hoppar. Vi låter { X n ; n = 0, 1,...} vara en process där X n = X(t n ). Då är X n en Markovkedja med övergångsmatris P = ( p ij ). Där övergångssannolikheterna är proportionella mot intensiteterna, p ij = q ij q i. Bra övning att visa följande: Låt T 1 Exp(λ 1 ) och T 2 Exp(λ 2 ) då är P(T 1 < T 2 ) = λ 1 λ 1 + λ 2 Johan Westerborn Markovprocesser (8) Föreläsning 4

Uthoppsmatrisen Innbäddade Markovkedjan Låt t 0, t 1,... vara tidpunkterna då Markovprocessen {X(t); t 0} med intensitetsmatris Q hoppar. Vi låter { X n ; n = 0, 1,...} vara en process där X n = X(t n ). Då är X n en Markovkedja med övergångsmatris P = ( p ij ). Där övergångssannolikheterna är proportionella mot intensiteterna, p ij = q ij q i. Bra övning att visa följande: Låt T 1 Exp(λ 1 ) och T 2 Exp(λ 2 ) då är P(T 1 < T 2 ) = λ 1 λ 1 + λ 2 Johan Westerborn Markovprocesser (8) Föreläsning 4

Uthoppsmatrisen Innbäddade Markovkedjan Låt t 0, t 1,... vara tidpunkterna då Markovprocessen {X(t); t 0} med intensitetsmatris Q hoppar. Vi låter { X n ; n = 0, 1,...} vara en process där X n = X(t n ). Då är X n en Markovkedja med övergångsmatris P = ( p ij ). Där övergångssannolikheterna är proportionella mot intensiteterna, p ij = q ij q i. Bra övning att visa följande: Låt T 1 Exp(λ 1 ) och T 2 Exp(λ 2 ) då är P(T 1 < T 2 ) = λ 1 λ 1 + λ 2 Johan Westerborn Markovprocesser (8) Föreläsning 4

Tillförlitlighet forts. Exempel (Tillförlitlighet) Innbäddade Markovkedjan En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ. När en komponent är trasig lagas den med intensitet µ. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Bestäm P. A B Johan Westerborn Markovprocesser (9) Föreläsning 4

Innbäddade Markovkedjan Att simulera en Markovprocess Med den inbäddade Markovkedjan är det enkelt att simulera en Markovprocess på följande sätt: Låt X(0) = X(0) i med sannolikhet p i (0); Låt T 0 0; for n = 1, 2,... do Låt Y n Exp(q Xn 1 ); end Låt T n T n 1 + Y n ; Låt X n = X(T n ) j med sannolikhet q Xn 1,j /q Xn 1 ; Där X(t) är Markovprocessen, X n är den innbäddade Markovkedjan och T n är tiden för hopp n. Johan Westerborn Markovprocesser (10) Föreläsning 4

Absorption Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (11) Föreläsning 4

Absorption Absorption i Markovprocesser Ett absorberande tillstånd är ett tillstånd från vilket man ej kan gå till ett annat tillstånd. Det betyder att q ij = 0 för alla j i, vilket också betyder att q i = q ii = 0 för ett absorberande tillstånd i (rad av nollor i Q). Begreppet genomgångstillstånd och A-kedja defineras som hos Markovkedjorna. Vi inför, analogt med Markovkedjorna, a ij = P(absorberas i tillstånd j X(0) = i), och T i som tid till absorption givet start i tillstånd i och t i = E[T i ]. Vi kan beräkna dessa på samma sätt som i Markokedjorna om vi inser att förväntad tid i tillstånd i är 1 q i och använder den innbäddade Markovkedjan. Johan Westerborn Markovprocesser (12) Föreläsning 4

Absorption Absorption i Markovprocesser Sats (6.5) Låt a ij vara absorptionssannolikheterna och t i vara förväntad tid till absorption i en A-kedja med intensitetsmatris Q. Då gäller för alla absorberande tillstånd j a ij = q ij q i + t i = 1 q i + k G\{i} k G\{i} där G är alla genomgångstillstånd. q ik q i a kj, q ik q i t k, i G i G Bevisas på samma sätt som för Markovkedjor. Johan Westerborn Markovprocesser (13) Föreläsning 4

Tillförlitlighet forts. Exempel (Tillförlitlighet) Absorption En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ. När en komponent är trasig lagas den med intensitet µ. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Antag att systemet börjar med två fungerande komponenter, hur lång tid förväntar vi oss att det tar innan systemet slutar fungera? A B Johan Westerborn Markovprocesser (14) Föreläsning 4

Stationär fördelning Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (15) Föreläsning 4

Stationär fördelning Stationär fördelning En Markovprocess kan precis som en Markovkedja ha en stationär fördelning. Låt π vara en stationär fördelning, då måste Derivera uttrycket och vi får π = πp(t), t 0 0 = πq Löst uttryckt, detta betyder att i en stationär fördelning är nettoförändringen noll. Frågor som kvarstår är: Kommer vi hamna i en stationära fördelningen? Är den stationära fördelningen entydig? Johan Westerborn Markovprocesser (16) Föreläsning 4

Stationär fördelning Stationär fördelning En Markovprocess kan precis som en Markovkedja ha en stationär fördelning. Låt π vara en stationär fördelning, då måste Derivera uttrycket och vi får π = πp(t), t 0 0 = πq Löst uttryckt, detta betyder att i en stationär fördelning är nettoförändringen noll. Frågor som kvarstår är: Kommer vi hamna i en stationära fördelningen? Är den stationära fördelningen entydig? Johan Westerborn Markovprocesser (16) Föreläsning 4

Stationär fördelning Global balans Sats (6.6) π är en stationär fördelning till en reguljär Markovprocess med tillståndsrum E om och endast om πq = 0. Denna ekvation kan skrivas som π i q ij = 0, j E i E π i = 1, i E π i 0, i E. Första ekvationen kallas för global balans. Johan Westerborn Markovprocesser (17) Föreläsning 4

Stationär fördelning Lokal balans Definition (Lokal balans) En sannolikhetsfördelning π uppfyller lokal balans om π i q ij = π j q ji, i, j E π i q ij kan benämnas med flödet från i till j. Vid lokal balans är flödet från i till j lika med flödet från j till i. Om π uppfyller lokal balans uppfyller den också global balans π är en stationär fördelning. Alla stationära fördelningar uppfyller inte lokal balans. Johan Westerborn Markovprocesser (18) Föreläsning 4

Stationär fördelning Ergodicitet Sats (6.8) En ändlig, irreducibel Markovprocess {X(t); t 0} är ergodisk och gränsfördelningen är den entydiga stationära fördelningen π. Kvoten π i = 1/q i E[T i ] där T i är återkomsttiden för tillstånd i. Förväntad tid i tillstånd j mellan två besök i tillstånd i är π j /(q i π i ). Johan Westerborn Markovprocesser (19) Föreläsning 4

Tillförlitlighet forts. Exempel (Tillförlitlighet) Stationär fördelning En maskin består av två komponenter, A och B som är parallellkopplade. De går sönder oberoende av varandra med intenistet λ = 1 2. När en komponent är trasig lagas den med intensitet µ = 2. Man har tillgång till två reperatörer så alla komponenter kan repareras parallellt. Man är intresserad av att veta om systemet fungerar eller ej. Antag att maskinen producerar 4 enheter per tidsenhet när allt fungerar och 3 enheter per tidsenhet när bara ena fungerar. Vad är den förväntade produktionen när man kollar långt in i framtiden? Om manskinen är trasig, hur många enheter förväntas tillverkas innan maskinen är trasig igen? Johan Westerborn Markovprocesser (20) Föreläsning 4

Poissonprocessen Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade Markovkedjan 3 Absorption 4 Stationär fördelning 5 Poissonprocessen Johan Westerborn Markovprocesser (21) Föreläsning 4

Poissonprocessen Poissonprocessen En speciell Markovprocess som används flitigt inom många olika områden är Poissonprocessen. Används ofta när man vill räkna händelser: Ankomster till en affär. Radioaktivt sönderfall. Olyckor. Definition (6.5) Poissonprocessen {N(t), t 0} är en Markovprocess med uppräkneligt tillståndsrum, N(0) = 0 med följande övergångsintensiteter λ j = i + 1 q ij = λ j = i 0 annars. Johan Westerborn Markovprocesser (22) Föreläsning 4

Poissonprocessen Poissonprocessen Sats (6.3) Följande definitioner är ekvivalenta. a) {N(t), t 0} är en Poissonprocess. b) {N(t), t 0} är en Markovprocess med N(0) = 0 och övergångssannolikheter p ij (t) = (λt)j i (j i)! e λt, om j i c) {N(t), t 0} är en stokastisk process sådan att 1) För alla 0 s 1 < t 1... s n < t n är N(t 1 ) N(s 1 ), N(t 2 ) N(s 2 ),..., N(t n ) N(s n ) oberoende stokastiska variabler. 2) N(t) N(s) är Po (λ(t s)) fördelad. 3) N(0) = 0. Johan Westerborn Markovprocesser (23) Föreläsning 4