P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

Relevanta dokument
Markovprocesser SF1904

Markovprocesser SF1904

TAMS79: Föreläsning 10 Markovkedjor

Markovprocesser SF1904

Markovprocesser SF1904

Stokastiska processer

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Matematisk statistik för D, I, Π och Fysiker

Markovprocesser SF1904

Tentamen i FMS180/MASC03 Markovprocesser

Markovprocesser SF1904

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Fö relä sning 2, Kö system 2015

Markovprocesser SF1904

Grafer och grannmatriser

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

Markovprocesser SF1904

Markovprocesser SF1904

Stokastiska processer och simulering I 24 augusti

Stokastiska processer och simulering I 24 maj

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

M/M/m/K kösystem. M/M/m/K kösystem

P =

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

Finansiell statistik FÖRELÄSNING 11

Serier. egentligen är ett gränsvärde, inte en summa: s n, där s n =

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Föreläsning 9, FMSF45 Markovkedjor

Tiden i ett tillstånd

Armin Halilovic: EXTRA ÖVNINGAR

. Mängden av alla möjliga tillstånd E k kallas tillståndsrummet.

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

TATM79: Föreläsning 1 Notation, ekvationer, polynom och summor

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

Om Markov Chain Monte Carlo

SF1901: Sannolikhetslära och statistik

Föreläsning G70 Statistik A

SF1901 Sannolikhetsteori och statistik I

e x/1000 för x 0 0 annars

Vektorgeometri för gymnasister

Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

Laboration i Automationsteknik FK: Del 1: Polplacering. Del 2: Markovkedjor

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

Konvergens och Kontinuitet

Kurs: HF1012 Matematisk statistik Lärare: Armin Halilovic

SF1901: Sannolikhetslära och statistik

Maclaurins och Taylors formler. Standardutvecklingar (fortsättning), entydighet, numerisk beräkning av vissa uttryck, beräkning

gränsvärde existerar, vilket förefaller vara en naturlig definition (jämför med de generaliserade integralerna). I exemplet ovan ser vi att 3 = 3 n n

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Linjära avbildningar. Definition 1 En avbildning mellan två vektorrum, F : V U, kallas linjär om. EX. Speglingar, rotationer, projektioner i R 3.

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

1 Förberedelser. 2 Att starta MATLAB, användning av befintliga m-filer. 3 Geometriskt fördelad avkomma

SF1911: Statistik för bioteknik

Matematisk statistik för D, I, Π och Fysiker

Om konvergens av serier

SF1901: Sannolikhetslära och statistik

SF1901 Sannolikhetsteori och statistik I

LAPLACES OCH POISSONS EKVATIONER

SF1624 Algebra och geometri Tentamen med lösningsförslag onsdag, 11 januari 2017

TATA42: Föreläsning 5 Serier ( generaliserade summor )

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

SF1901 Sannolikhetsteori och statistik I

Föreläsning 5, Matematisk statistik Π + E

SF1625 Envariabelanalys

1. Inledning, som visar att man inte skall tro på allt man ser. Betrakta denna följd av tal, där varje tal är dubbelt så stort som närmast föregående

Lösningsförslag till Tentamen: Matematiska metoder för ekonomer

Föreläsning 2, Matematisk statistik för M

Bayesianska numeriska metoder II

Vektorgeometri för gymnasister

motiveringar. Lämna tydliga svar. 1 (arcsin x) 2 dx: (0.6)

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

Föresläsningsanteckningar Sanno II

SF1901 Sannolikhetsteori och statistik I

Föreläsn. anteckn. TMV206-VT13. Vecka 6-7. Egenvärden och Egenvektorer. Kap. 8-9

Härledning av Black-Littermans formel mha allmänna linjära modellen

P = b) Vad betyder elementet på platsen rad 1 kolumn 3 i matrisen P 319? (2 p)

Kunna dra slutsatser om ett systems betjäningstider och antalet köplatser genom att tolka diagram.

LÖSNINGAR TILL UPPGIFTER TILL RÄKNEÖVNING 1

Stokastiska Processer

Vektorgeometri för gymnasister

Föreläsning 13 Linjär Algebra och Geometri I

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

Lektionsanteckningar 11-12: Normalfördelningen

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

inte följa någon enkel eller fiffig princip, vad man nu skulle mena med det. All right, men

Föreläsning 6, Matematisk statistik Π + E

Introduktion till Markovkedjor. Mattias Arvidsson

Kinesiska restsatsen

kvoten mellan två på varandra följande tal i en talföljd är konstant alltid lika stor.

Kontinuitet och gränsvärden

Material till kursen SF1679, Diskret matematik: Lite om kedjebråk. 0. Inledning

Euklides algoritm för polynom

ANVISNINGAR TILL INLÄMNINGSUPPGIFTER I TILLFÖRLITLIGHETSTEORI. På inlämningsuppgiften ska alltid namn och elevnummer finnas med.

Explorativ övning 5 MATEMATISK INDUKTION

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Transkript:

Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen µ (), så kan vi beräkna kedjans ändligtdimensionella fördelningar för k N och j,..., j k S. P(X nk = j k,..., X n = j ) Antag att n n 1,... n k N. Då har vi P(X nk = j k,..., X n = j ) = P(X n k = j k,..., X n = j ) [ ] P(X n = j ) = etc... P(X n = j ) = P(X n k = j k, X nk 1 = j k 1,..., X n = j ) P(X nk 1 = j k 1,..., X n = j )... P(X n 1 = j 1, X n = j ) P(X n = j ) P(X n = j ) = P(X nk = j k X nk 1 = j k 1 )... P(X n1 = j 1 X n = j )P(X n = j ) = jk 1,j k (n k n k 1 )... j,j 1 (n 1 n ) ( µ () P n ) j där i,j(n) = ij (n) = (P n ) i,j och där vi mellan andra och tredje raden utnyttjade definitionen av betingad sannolikhet P(X nk = j k, X nk 1 = j k 1,..., X n = j ) P(X nk 1 = j k 1,..., X n = j ) = P(X nk = j k X nk 1 = j k 1,..., X n = j ) samt Markovegenskaen P(X nk = j k X nk 1 = j k 1,..., X n = j ) = P(X nk = j k X nk 1 = j k 1 ) och analogt för de andra termerna. Alltså: de ändligtdimensionella fördelningarna till en Markovkedja bestäms av startfördelningen µ () och övergångsmatrisen P. En radvektor π är en stationär fördelning om 1. π i för alla i S 1

. i S π i = 1 3. πp = π Notera att de två första kraven endast säger att π är en fördelning för Markovkedjan. Det viktiga är krav nummer tre, att fördelningen π är invariant under avbildningen P. Notera vidare att detta innebär att om µ n = π för något n så har vi µ (n) = µ (n ) P n n = πp n n = πp P n n 1 = πp n n 1 =... = π Om kedjan någon gång får den stationära fördelningen så kommer den att ha denna fördelning för alla efterföljande tidunkter. Observera att det är fördelningen som är samma; det innebär inte att man stannar i samma tillstånd. Varning: Alla kedjor har inte stationära fördelningar. Om ij (n) = (P n ) ij > för något n så säger vi att i S kommunicerar med j S Om även j S kommunicerar med i S så sägs i och j kommunicera med varandra. Att ett tillstånd i S kommunicerar med j S innebär alltså att det är möjligt (sannolikheten är ositiv) att gå från i till j inom ändlig tid å något sätt, dvs möjligen genom att assera andra tillstånd å vägen. Om det är så att alla ar i, j S kommunicerar med varandra, så sägs kedjan vara irreducibel. Det innebär alltså att vi kan nå alla tillstånd från vilket tillstånd som helst, å ett ändligt antal tidsenheter dock så tar det generellt sätt olika lång tid gå mellan de olika aren. Kedjan i exemlet med slumvandraren från förra föreläsningen är irreducibel ty vi kan ta oss från ett tillstånd till vilket annat inom två tidsenheter. Kedjan med övergångsmatris 1 q 1 q 1 1 är dock inte irreducibel. Den kan reduceras ner till två olika kedjor beroende å utfallet av X. Ett viktigt verktyg för att åskådliggöra en Markovkedja är genom att rita u dess tillståndsgraf. Man ritar u varje tillstånd som en cirkel, sedan drar man ilar från varje tillstånd i S till de tillstånd j S som är sådana att ij är ositiv, dvs sådana som man kan gå till från i direkt, å en tidsenhet. Om man i övergångsgrafen för ett tillstånd i s, hittar en väg till ett annat tillstånd j S genom att följa ilarna i grafen, så kommunicerar i med j och ij (n) > för något n (vilket är lika med antalet ilar vi var tvungna att följa för att komma till j). Observera att det räcker att man kan hitta en väg för att visa att ett tillstånd kommunicerar med ett annat. Låt, för j S, N(j) = {n 1 : jj (n) > }

dvs de möjliga tiderna tills kedjan kan återkomma till j S. Nu definieras erioden för j S, d(j), som den största gemensamma delaren för N(j). Tillståndet j S sägs vara aeriodiskt om d(j) = 1 och eriodiskt om d(j) > 1. Vidare sägs Markovkedjan vara aeriodisk om alla tillstånd är aeriodiska. I exemlet med slumvandraren är alla tillstånd eriodiska med eriod, eftersom vi endast kan ta oss tillbaka till starttillståndet i jämna multilar av. Sålunda är denna kedja ej aeriodisk. Nu kommer en mycket användbar sats: Sats: I en irreducibel tidsdiskret Markovkedja har alla tillstånd samma eriod. För att kontrollera om en irreducibel kedja är aeriodisk så räcker det alltså att ta reda å erioden för ett tillstånd. Om den är 1 så är kedjan aeriodisk, och annars inte. För ett tillstånd j S definieras rekurrenstiden T j = min{n 1 : X n = j} Rekurrenstiden är alltså den tid det tar att komma till tillståndet j S. Medelrekurrenstiden definieras som m j = E{T j X = j} alltså hur lång tid det tar i genomsnitt att komma tillbaka till j S om vi börjar kedjan i j S. Sats: En irreducibel kedja har stationär fördelning π om och endast om alla medelrekurrenstider m j är ändliga. I så fall är π entydigt bestämd av π j = 1 m j. För exemlet med slumvandraren har vi ju att P = och för denna kedja ufyller π = ( 1 4, 1 4, 1 4, 1 4 ) kravet π = πp, så π är en stationär fördelning. Ur detta tillsammans med ovanstående sats får vi att medelrekurrenstiderna m j = E{T j X = j} = 1 π j = 4 för alla j {1,, 3, 4}. Det tar alltså i genomsnitt 4 tidsenheter innan man kommer tillbaka till sin starttillstånd. Om vi istället väljer att beräkna medelrekurrenstiderna först och sedan använda satsen ovan för att beräkna den stationära fördelningen, så får vi P(T 1 = k X = 1) = P(X k = 1, k 1 r=1 {X r 1} X = 1) = (k 1 ) = P(X k = 1 X (k 1) = 3) P(X r = 3 X (r 1) = 3) P(X = 3 X = 1) = = 1 (1) k = k r= 3

och vi har att antalet tidssteg om längd tills vi träffar tillstånd 1 igen, givet att vi börjar i X = 1, är Geo(1/)-fördelat. Eftersom en Geo(1/)-fördelad s.v. har väntevärde så har vi m 1 = E{T 1 X = 1} = E{Antalet tidssteg om längd X = 1} = = 4 Samma räknningar gäller för alla j så har vi att m j = 4 för alla j och satsen ger oss att π j = m 1 j = 1 4 för alla j {1,, 3, 4} vilket ju är samma resultat som vi enkelt fick direkt genom att titta å övergångsmatrisen P. Om S är ändlig, dvs S = {s 1,..., s k } för något k <, och Markovkedjan är irreducibel och aeriodisk, så kan man visa att m j = E{T j X = j} < j S = {s 1,..., s k } och således, med hjäl av ovanstående sats, att Markovkedjan har unik stationär fördelning π, bestämd av π j = m 1 j Ett exemel å en ändlig [ ] kedja som inte har unik stationär fördelning är kedjan med 1 övergångsmatris P =. 1 Varför är vi intresserade av den stationära fördelningen? Antag att en Markovkedja, {X n } n=1 åbörjades för länge sedan, och vi är intresserade av sannolikheten att den nu befinner sig i ett visst tillstånd j. Eftersom kedjan ågått länge borde sannolikheten att den befinner sig i tillståndet just nu, eller om en tidsenhet vara ungefär det samma. Matematiskt betyder detta att Markov kedjans fördelning konvergerar mot någon fördelning µ som inte beror å tiden: dvs: µ (n) D µ då n lim P(X n = j) = µ(j). n Antag att kedjan har en sådan asymtotisk födelning. Det förljer då att: µp D µ (n) P = µ (n+1) D µ. Alltså ufyller µ vilkoret µp = µ och är en stationär fördelning för Markov kedjan. Förut så visade vi att om X n är finit och irreducibel så har den recis en stationär fördelning, och det är den den måste konvergera till. Det är viktigt att observera att inte alla Markovkedjor konvergerar å det här viset: om kedjan, till exemel, är eriodisk och endast kan befinna sig i tillstånd j å jämna tider är ju sannolikheten att den är där nu, och om en tidsenhet inte den samma. Sats: En irreducibel, aeriodisk Markov kedja {X n } n=1 med finit tillståndsrum konvergerar mot sin unika stationära fördelning π: X n D π då n 4

Beviset för detta är mycket vackert, men ingår inte i denna kurs. Exemel: Selarens Fördärvelse En erson selar å ett kasino. Han börjar med i dollar, och i varje selomgång vinner han en dollar med sannolikhet eller förlorar en med sannolikhet q = 1. Selet fortsätter tills han når N dollar, eller är ruinerad. Han förmögenhet efter n omgångar skrivs X n och är en tidshomogen Markovkedja å S = {,..., N} med övergångs-matris: 1... q q... P = q.. q 1 Observerar att och N är absorberande tillstånd - när rocessen väl nått dem kan den aldrig lämna. Låt nu w i beteckna sannolikheten att vi någonsin når N om vi börjar i tillstånd i. w i = P(X n når N X = i) = P(X n når N X = i, X 1 = i + 1)P i,i+1 + P(X n når N X = i, X 1 = i 1)P i,i 1 = w i+1 + w i 1 q Det sista steget kräver (så klart) Markov egenskaen! En omskrivning av ovan ger att w i+1 w i = q (w i w i 1 ) för i = 1,,..., N 1. Vi vet även att w =, så w w 1 = q ( ) q (w 1 w ) = w 1 w 3 w = q ( ) q (w w 1 ) = w 1. w N w N 1 = q (w N 1 w N ) = ( ) q N 1 w 1 Genom att summera termerna längst till vänster och höger, så får vi att ( (q ) ( ) q ( ) ) q N 1 w i w = w 1 + +... +. Högerledet är en så kallad geometrisk summa, för vilken det finns en känd formel. Det följer att: w i = { 1 (q/) i 1 q/ P 1 om 1 ip 1 om = q = 1 5

Eftersom vi vet att w N = 1, kan vi lösa ut w 1 ur formeln, och får: 1 (q/) i om 1 w i = 1 (q/) N i N om = q = 1 Detta ger oss alltså sannolikheten att selaren någonsin når N dollar. Alternativet är att han blir ruinerad innan detta inträffar. Så varför är detta intressant? Antag att han börjar med $, och selar tills de är borta eller han når $4. Det följer då av insättning i ovan beräkning att om =.5 så är sannolikheterna för de möjliga utfallen båda en halv. Det verkar rätt. Men vad händer om kasinon har ett litet övertag? Antag att =.45. Selet kan tyckas vara nästan jämnt, men från ovan beräkning får vi att w = 1 (.55/.45) 4.18. 1 (.55/.45) Det vill säga, selaren har mindre en % sannolikhet att ha engar kvar när han lämnar kasinot. (Observera att om selaren hade satsat alla engarna å fösta kastet i stället för en dollar i taget, hade han klarat sig mycket bättre!) 6