Markovprocesser SF1904

Relevanta dokument
Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

TAMS79: Föreläsning 10 Markovkedjor

Markovprocesser SF1904

Markovprocesser SF1904

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

Stokastiska processer

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

3 Diskreta Markovkedjor, grundläggande egenskaper Grundläggande begrepp Fördelningen för X n Absorption...

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

Matematisk statistik för D, I, Π och Fysiker

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

Stokastiska processer och simulering I 24 maj

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

Tentamen i FMS180/MASC03 Markovprocesser

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Stokastiska processer och simulering I 24 augusti

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Föreläsning 9, FMSF45 Markovkedjor

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

Grafer och grannmatriser

P =

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

Markovprocesser SF1904

Fö relä sning 2, Kö system 2015

Uppgift 2 Betrakta vädret under en följd av dagar som en Markovkedja med de enda möjliga tillstånden. 0 = solig dag och 1 = regnig dag

Om Markov Chain Monte Carlo

P = b) Vad betyder elementet på platsen rad 1 kolumn 3 i matrisen P 319? (2 p)

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

Utdrag ur TAMS15: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79

e x/1000 för x 0 0 annars

Laboration i Automationsteknik FK: Del 1: Polplacering. Del 2: Markovkedjor

Tentamen i matematisk statistik, TAMS15/TEN (4h)

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

Informationsteori. Repetition Kanalkapaciteten C. Repetition Källkodhastigheten R 2. Repetition Kanalkodhastigheten R 1. Huffmans algoritm: D-när kod

Matematisk statistik 9 hp, HT-16 Föreläsning 16: Markovkedjor

Lösningar till tentan i Automationsteknik FK

SF1901 Sannolikhetsteori och statistik I

Tentamen LMA 200 Matematisk statistik,

Tiden i ett tillstånd

SF1901: Sannolikhetslära och statistik

SF1901 Sannolikhetsteori och statistik I

Föreläsning 2, Matematisk statistik för M

Vektorrum. EX. Plan och linjer i rummet genom origo. Allmänt; mängden av lösningar till AX = 0.

Matematisk statistik - Slumpens matematik

Satsen om total sannolikhet och Bayes sats

1 Förberedelser. 2 Att starta MATLAB, användning av befintliga m-filer. 3 Geometriskt fördelad avkomma

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning

Föreläsning 2, FMSF45 Slumpvariabel

Markov Chain Monte Carlo, contingency tables and Gröbner bases

Enklare matematiska uppgifter

Matematiska uppgifter

Grundläggande matematisk statistik

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

= y(0) för vilka lim y(t) är ändligt.

Markovkedjor i kontinuerlig tid med tillämpning för motorproteiner. Jonathan Fagerström, Avhandling Pro Gradu

Finansiell statistik FÖRELÄSNING 11

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

Om skattningar av sannolikheter för extrema händelser

6. Matriser Definition av matriser 62 6 MATRISER. En matris är ett rektangulärt schema av tal: a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n A =

Respondent-driven sampling med viktade vänskapsband - en simuleringsstudie

Bayesianska numeriska metoder II

ANVISNINGAR TILL INLÄMNINGSUPPGIFTER I TILLFÖRLITLIGHETSTEORI. På inlämningsuppgiften ska alltid namn och elevnummer finnas med.

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

SF1901: Sannolikhetslära och statistik

Reglerteori. Föreläsning 3. Torkel Glad

SANNOLIKHETSTEORI TILLÄGGSMATERIAL TILL BLOM, BOK A. Våren Matematikcentrum Matematisk statistik

Betingning och LOTS/LOTV

Kolmogorovs Axiomsystem Kolmogorovs Axiomsystem Varje händelse A tilldelas ett tal : slh att A inträar Sannolikheten måste uppfylla vissa krav: Kolmog

Föreläsning 17, Matematisk statistik Π + E

Grundläggande matematisk statistik

Serier. egentligen är ett gränsvärde, inte en summa: s n, där s n =

4 Diskret stokastisk variabel

1 Linjära ekvationssystem. 2 Vektorer

Lycka till!

Tal och polynom. Johan Wild

Föreläsning 7: Punktskattningar

Linjär Algebra, Föreläsning 8

Kurssammanfattning MVE055

Föreläsn. anteckn. HT13. Vecka 6-7. Egenvärden och Egenvektorer. Slumpvandringar på Grafer. Kap. 8-9

Datakompression. Harald Nautsch ISY Bildkodning, Linköpings universitet.

Kursinnehåll. Datakompression. Föreläsningar, preliminärt program. Examination

Analys av DNA-kopietal med dolda markovmodeller

40 5! = 1, ! = 1, Om man drar utan återläggning så kan sannolikheten beräknas som 8 19

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

Utfall, Utfallsrummet, Händelse. Sannolikhet och statistik. Utfall, Utfallsrummet, Händelse. Utfall, Utfallsrummet, Händelse

Föreläsning 5, Matematisk statistik Π + E

Grundläggande matematisk statistik

Föreläsn. anteckn. TMV206-VT13. Vecka 6-7. Egenvärden och Egenvektorer. Kap. 8-9

Moment 5.5 Övningsuppgifter I 5.60a. 5.60b, 5.60.c, 61

Transkript:

Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2

Föreläsningsplan 1 Förra Föreläsningen 2 Absorption 3 Mer om klassifikation av tillstånd 4 Konvergens av Markovkedjor Johan Westerborn Markovprocesser (2) Föreläsning 2

Förra Föreläsningen Föreläsningsplan 1 Förra Föreläsningen 2 Absorption 3 Mer om klassifikation av tillstånd 4 Konvergens av Markovkedjor Johan Westerborn Markovprocesser (3) Föreläsning 2

Diskret Markovkedja Förra Föreläsningen Vi betraktar nu processer {X n ; n = 0, 1,...} i diskret tid som tar värden i ett ändligt (eller uppräkneligt) tillståndsrum E. Vi låter E vara en heltalsmängd; E = {1, 2,..., N}, ändligt tillståndsrum. E = {1, 2,...}, uppräkneligt tillståndsrum. Definition (Markovegenskapen) {X n ; n N} är en Markovkedja om P(X n+1 = j X 0 = i 0,..., X n = i n ) = P(X n+1 = j X n = i n ), för alla n och alla i 0,..., i n E Johan Westerborn Markovprocesser (4) Föreläsning 2

Förra Föreläsningen Tidshomogenitet, Övergångssanolikheter och Övergångsmatris Definition Låt {X n ; n N} vara en Markovkedja. Om de betingade sannolikheterna P(X n+1 = j X n = i) inte beror på n (för alla i, j E) sägs kedjan vara tidshomogen. I detta fall definierar vi övergångssannolikheterna p ij = P(X 1 = j X 0 = i), övergångsmatrisen P är matrisen vars element med index (i, j) är p ij. Johan Westerborn Markovprocesser (5) Föreläsning 2

Förra Föreläsningen Chapman-Kolmogorov Följande resultat är centralt för att kunna använda Markovkedjor. Sats (Chapman-Kolmogorovs ekvationer, 3.1) a) p (m+n) ij = k E p(m) ik p (n) kj b) P (m+n) = P (m) P (n) c) P (n) = P n d) p (n) = p (0) P (n) = p (0) P n Johan Westerborn Markovprocesser (6) Föreläsning 2

Stationär fördelning Förra Föreläsningen Definition (Stationär fördelning, 5.1) En fördelning π = (π 1, π 2,...) är en stationär fördelning till en Markovkedja med övergångsmatris P om Sats (5.1) πp = π π i = 1 i π i 0 för alla i E En Markovkedja med ändligt tillståndsrum har alltid minst en stationär fördelning. Johan Westerborn Markovprocesser (7) Föreläsning 2

Absorption Föreläsningsplan 1 Förra Föreläsningen 2 Absorption 3 Mer om klassifikation av tillstånd 4 Konvergens av Markovkedjor Johan Westerborn Markovprocesser (8) Föreläsning 2

Absorption Klassificering av tillstånd Vi säger att tillstånd i leder till tillstånd j om det är möjligt att i ett ändligt antal steg komma från i till j. Ett tillstånd som bara leder till sig själv kallas för ett absorberande tillstånd. Att tillstånd i är absorberande betyder att pii = 1. En Markovkedja kan ha inga, ett eller flera absorberande tillstånd. Intressanta frågor är: Kommer vi hamna i ett absorberande tillstånd? Hur lånd tid tar det innan vi hamnar där? Om det finns flera, vad är sannolikheten att vi hamnar i ett specifikt absorberande tillstånd? Johan Westerborn Markovprocesser (9) Föreläsning 2

Absorption Klassificering av tillstånd Definition (3.5) En Markovkedja kallas A-kedja om varje tillstånd i antingen är absorberande eller leder till ett absorberande tillstånd. Definition (3.6) Ett tillstånd i som leder till ett tillstånd från vilket kedjan ej kan återvända till i kallas ett genomgångstillstånd Tillståndsrummet E i en A-kedja kan alltså delas upp i en mängd av absorberande tillstånd A och en mängd genomgångstillstånd G, E = A G Johan Westerborn Markovprocesser (10) Föreläsning 2

Absorption Exempel Exempel (Tärningsspel, uppg. 16) A och B deltar i ett tärningsspel, som tillgår på följande sätt: Om tärningen visar 1 eller 2 så vinner kastaren, om den visar 3 får hen göra ytterligare ett kast. Visar tärningen 4 eller 5 får den andre kasta, och kommer 6 upp förlorar kastaren. Antag att A börjar kasta. Ställ upp problemet och beräkna a) sannolikheten att B vinner. b) väntevärdet för det antal spelomgångar som krävs för att avsluta spelet. Johan Westerborn Markovprocesser (11) Föreläsning 2

Absorption Absorptionssannolikheterna Sats (3.3) Absorptionssannolikheterna a ij, där a ij är sannolikheten för absorption i tillstånd j givet start i tillstånd i i en ändlig Markovkedja, uppfyller för alla j A förljande ekvationssystem, a ij = p ij + k G p ik a kj, i G. j A a ij = 1, dvs sannolikheten är 1 att kedjan absorberas, vilket tillstånd man än startar vid. Johan Westerborn Markovprocesser (12) Föreläsning 2

Absorption Absorptionstiderna Sats (3.4) Låt i en Markovkedja T i vara tiden tills kedjan absorberas vid start i tillstånd i G. Låt även t i = E[T i ] vara förväntade tiderna tills absorption vid start i tillstånd i. Då uppfyller dessa följande ekvationssystem, t i = 1 + k G p ik t k, i G. Johan Westerborn Markovprocesser (13) Föreläsning 2

Föreläsningsplan Mer om klassifikation av tillstånd 1 Förra Föreläsningen 2 Absorption 3 Mer om klassifikation av tillstånd 4 Konvergens av Markovkedjor Johan Westerborn Markovprocesser (14) Föreläsning 2

Mer om klassifikation av tillstånd Kommunicerande tillstånd Definition (4.1) Ett tillstånd i sägs leda till tillstånd j om det är möjligt att gå från tillstånd i till j i noll, ett eller flera tidssteg, skrivs i j. Två tillstånd sägs kommunicera om i j och j i, skrivs i j Egenskapen definierar en ekvivalensrelation på tillstånden i en Markovkedja. Johan Westerborn Markovprocesser (15) Föreläsning 2

Mer om klassifikation av tillstånd Exempel 6 2 7 1 4 5 3 8 Johan Westerborn Markovprocesser (16) Föreläsning 2

Mer om klassifikation av tillstånd Mer om klassificering av tillstånd Definition (4.2) En delmängd sägs vara sluten om inget tillstånd i leder ut från delmängden. Definition (4.3) En mängd av tillstånd vilka kommunicerar med varandra kallas en irreducibel tillståndsmängd. Johan Westerborn Markovprocesser (17) Föreläsning 2

Mer om klassifikation av tillstånd Exempel 6 2 7 1 4 5 3 8 Johan Westerborn Markovprocesser (18) Föreläsning 2

Mer om klassifikation av tillstånd Period Definition (4.4) Låt D i vara mängden av alla heltal n så att det är möjligt att från tillståndet i återvända till detta tillstånd i n tidssteg. Med period d i menas den största gemensamma delaren till talen i D i. Om d i = 1 kallas i för aperiodisk. Johan Westerborn Markovprocesser (19) Föreläsning 2

Mer om klassifikation av tillstånd Exempel 2 5 1 4 3 6 Johan Westerborn Markovprocesser (20) Föreläsning 2

Föreläsningsplan Konvergens av Markovkedjor 1 Förra Föreläsningen 2 Absorption 3 Mer om klassifikation av tillstånd 4 Konvergens av Markovkedjor Johan Westerborn Markovprocesser (21) Föreläsning 2

Stationär fördelnig Påminner om definitionen Konvergens av Markovkedjor Definition (Stationär fördelning, 5.1) En fördelning π = (π 1, π 2,...) är en stationär fördelning till en Markovkedja med övergångsmatris P om πp = π π i = 1 i π i 0 för alla i E Sats (5.1) En Markovkedja med ändligt tillståndsrum har alltid minst en stationär fördelning. Johan Westerborn Markovprocesser (22) Föreläsning 2

Konvergens av Markovkedjor När hamnar vi i en stationär fördelning? Betrakta de två Markovkedjorna nedan. Hur beter de sig efter lång tid? 1 2 1 5 1 1 4 1 2 1 1 3 1 2 6 Johan Westerborn Markovprocesser (23) Föreläsning 2

En periodisk kedja Konvergens av Markovkedjor 1 0.9 0.8 1 2 3 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal tidssteg Figure: Fördelningsvektorer för olika tidssteg. Trots att stationär fördelning finns nås den aldrig. Johan Westerborn Markovprocesser (24) Föreläsning 2

En aperiodisk kedja Konvergens av Markovkedjor 1 0.9 0.8 4 5 6 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 2 4 6 8 10 12 14 16 18 20 Antal tidssteg Figure: Fördelningsvektorer för olika tidssteg. Stationära fördelningen nås i detta fall. Johan Westerborn Markovprocesser (25) Föreläsning 2

Konvergens av Markovkedjor Ergodicitet Definition (5.2) En Markovkedja {X n ; n 0} sägs vara ergodisk om en gränsfördelning p existerar och den är oberoende av startfördelning. Följande sats är en av huvudsatserna i teorin för Markovkedjor Sats (5.2) En ändlig, irreducibel, aperiodisk Markovkedja är ergodisk och dess gränsfördelning är den entydiga, stationära fördelningen. Johan Westerborn Markovprocesser (26) Föreläsning 2

Konvergens av Markovkedjor Exempel Studera hur kedjan beter sig efter lång tid. 0.5 0 0.5 P = 0.1 0.8 0.1 0 0.2 0.8 Typsik tentaformulering: Undersök om Markovkedjan har en asymptotisk fördelning och beräkna i så fall denna. Johan Westerborn Markovprocesser (27) Föreläsning 2

Konvergens av Markovkedjor Icke irreducibelt exempel Studera hur kedjan beter sig efter lång tid. 1 0 0 0 P = 0.2 0.5 0.2 0.1 0 0 0.3 0.7 0 0 0.5 0.5 Beräkna lim n P(X n = i X 0 = j) för i, j E. Johan Westerborn Markovprocesser (28) Föreläsning 2

Stationär fördelnig Konvergens av Markovkedjor Sats (5.3) En ändlig, irreducibel kedja har en entydlig stationär fördelning π och det gäller att π i = 1 E(T i ) där T i är tiden mellan två besök i tillstånd i. Kvoten π j π i är förväntad tid i tillstånd j mellan två besök i tillstånd i. Johan Westerborn Markovprocesser (29) Föreläsning 2

Konvergens av Markovkedjor Exempel Exempel En lektor och småbarnsfar pendlar från dag till dag mellan tre tillstånd: 1 = pigg, 2 = trött, 3 = dödstrött Tillstånden varierar som en Markovkedja med övergångsmatrisen 1/6 1/3 1/2 P = 1/2 1/4 1/4 1/2 1/5 3/10 Hur många dagar i snitt är det mellan varje dag lektorn är pigg? Hur många av dessa dagar i snitt är lektorn dödstrött? Johan Westerborn Markovprocesser (30) Föreläsning 2

Konvergens av Markovkedjor Ickeändlig Markovkedja En ickeändlig Markovkedja kan också vara ergodisk och ha en stationär fördelning. Sats (5.6) Låt P vara övergångsmatrisen till en irreducibel, aperiodisk Markovkedja. Betrakta följande ekvationssystem, x = (x 1, x 2,...). x = xp x i 0 i = 1, 2,... Då gäller att Markovkedjan är ergodisk och har en stationär fördelning om 0 < i=1 x i < Om lösningen satisfierar i=1 x i = så har kedjan ingen stationär fördelning och är inte ergodisk. Johan Westerborn Markovprocesser (31) Föreläsning 2

Konvergens av Markovkedjor Exempel Exempel (5.5) En partikel vandrar på de naturliga talen N = (0, 1, 2,...) och låt den gå ett steg till höger med sannolikhet p och ett steg till vänster med sannolikhet q = 1 p. I punkten 0 stannar partikeln kvar med sannolikhet q. Avgör för vilka värden på p som kedjan är ergodisk och beräkna då den stationära fördelningen. Johan Westerborn Markovprocesser (32) Föreläsning 2