Markovprocesser SF1904

Relevanta dokument
Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

Markovprocesser SF1904

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

Markovprocesser SF1904

Markovprocesser SF1904

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

TAMS79: Föreläsning 10 Markovkedjor

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

Stokastiska processer

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

Matematisk statistik för D, I, Π och Fysiker

Markovkedjor. Patrik Zetterberg. 8 januari 2013

3 Diskreta Markovkedjor, grundläggande egenskaper Grundläggande begrepp Fördelningen för X n Absorption...

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

Uppgift 2 Betrakta vädret under en följd av dagar som en Markovkedja med de enda möjliga tillstånden. 0 = solig dag och 1 = regnig dag

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

Markovprocesser SF1904

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Preliminär elmarknadsstatistik per månad för Sverige 2014

P =

e x/1000 för x 0 0 annars

SF1901 Sannolikhetsteori och statistik I

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

Föreläsning 9, FMSF45 Markovkedjor

Stokastiska processer och simulering I 24 augusti

Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)

Stokastiska processer och simulering I 24 maj

Preliminär elmarknadsstatistik per månad för Sverige 2014

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

Grafer och grannmatriser

Faderns blodgrupp Sannolikheten att barnet skall få blodgrupp A0 A0 1/2 AA 1 AB 1/2 Övriga 0

aug 2017 Kurskod HF1012 Halilovic internet. Betygsgränser: För (betyg Fx). Sida 1 av 13

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

Sannolikhet och statistik 1MS005

Tentamen LMA 200 Matematisk statistik,

Tentamen i FMS180/MASC03 Markovprocesser

2016, Arbetslösa samt arbetslösa i program i GR i åldrarna år

SF1901 Sannolikhetsteori och statistik I

Tentamen LMA 200 Matematisk statistik,

Matematisk statistik - Slumpens matematik

Bestäm med hjälp av en lämplig och välmotiverad approximation P (X > 50). (10 p)

P = b) Vad betyder elementet på platsen rad 1 kolumn 3 i matrisen P 319? (2 p)

Uppgift 1. f(x) = 2x om 0 x 1

Stockholms Universitet Statistiska institutionen Patrik Zetterberg

b) Beräkna sannolikheten för att en person med språkcentrum i vänster hjärnhalva är vänsterhänt. (5 p)

(a) Avgör om A och B är beroende händelser. (5 p) (b) Bestäm sannolikheten att A inträffat givet att någon av händelserna A och B inträffat.

Finansiell statistik FÖRELÄSNING 11

Introföreläsning i S0001M, Matematisk statistik LP3 VT18

KURSPROGRAM HT-10 MATEMATISK STATISTIK AK FÖR CDI, FMS 012

Fö relä sning 1, Kö system vä ren 2014

Skriftlig Tentamen i Finansiell Statistik Grundnivå 7.5 hp, HT2012

EN BÄTTRE BALANS MED SVAGT SJUNKANDE TRÄVARUPRISER 2015 OCH EN NY PRISUPPGÅNG I MITTEN AV 2016

Introföreläsning i S0001M Matematisk statistik Läsperiod 2, HT 2018

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

TENTAMEN I MATEMATISK STATISTIK 19 nov 07

Avd. Matematisk statistik

Satsen om total sannolikhet och Bayes sats

Carl Olsson Carl Olsson Linjär Algebra / 18

TENTAMEN Tillämpad Systemanalys 5hp

TENTAMEN Tillämpad Systemanalys 5hp

Fö relä sning 1, Kö system 2015

b) Teknologen Osquarulda känner inte till ML-metoden, men kom på intuitiva grunder fram till att p borde skattas med p = x 1 + 2x 2

Föreläsning 2, Matematisk statistik för M

Matematisk statistik 9hp för: C,D,I, Pi

Preliminär elmarknadsstatistik per månad för Sverige 2013

STOCKHOLMS UNIVERSITET HT 2011 Statistiska institutionen Bertil Wegmann

EN BÄTTRE BALANS MED SVAGT SJUNKANDE TRÄVARUPRISER 2015 OCH EN NY PRISUPPGÅNG I MITTEN AV 2016

EN BÄTTRE BALANS MED SVAGT SJUNKANDE TRÄVARUPRISER 2015 OCH EN NY PRISUPPGÅNG I MITTEN AV 2016

b) Om vi antar att eleven är aktiv i en eller flera studentföreningar vad är sannolikheten att det är en kille? (5 p)

TMS136. Föreläsning 2

Avd. Matematisk statistik

1 Föreläsning I, Mängdlära och elementär sannolikhetsteori,

Fö relä sning 2, Kö system 2015

Matematisk statistik, LMA 200, för DAI och EI den 25 aug 2011

Matematisk Statistik och Disktret Matematik, MVE051/MSG810, VT19

KURSPROGRAM HT-18 MATEMATISK STATISTIK AK FÖR D, I OCH PI, FMSF45 & MASB03

SF1901: SANNOLIKHETSTEORI OCH STATISTIK GRUNDLÄGGANDE SANNOLIKHETSTEORI, BETINGAD SANNOLIKHETER, OBEROENDE. Tatjana Pavlenko.

Individ nr Första testet Sista testet

b) antalet timmar Lukas måste arbeta för att sannolikheten att han ska hinna med alla 112 datorerna ska bli minst (3 p)

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

TENTAMEN Datum: 14 feb 2011

TMS136. Föreläsning 2

Matematisk statistik 9 hp, HT-16 Föreläsning 16: Markovkedjor

Avd. Matematisk statistik

SF1901: Sannolikhetslära och statistik

Fysikens matematiska metoder hösten 2006

Vecka dec 01-jan 02-jan 03-jan 04-jan Måndag Tisdag Onsdag Torsdag Fredag

(a) sannolikheten för att läkaren ställer rätt diagnos. (b) sannolikheten för att en person med diagnosen ej sjukdom S ändå har sjukdomen, dvs.

(b) Bestäm sannolikheten att minst tre tåg är försenade under högst tre dagar en given vecka.

Tentamen i Statistik, STA A13 Deltentamen 1, 4p 12 november 2005, kl

Tentamen i Matematisk statistik Kurskod S0001M

4 Diskret stokastisk variabel

Transkript:

Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser Johan Westerborn Markovprocesser (1) Föreläsning 1

Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (2) Föreläsning 1

Kursinformation Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (3) Föreläsning 1

Kursinformation Kursregistrering Kursregistrering sker via Mina Sidor Funkar det inte? Följ instruktionerna på första sidan. Kontakta sen Anne Riddarström (annrid@kth.se) med personnummer och kurskoden. Johan Westerborn Markovprocesser (4) Föreläsning 1

Kursinformation Kursmaterial Enger och Grandell, Markovprocesser och köteori. Finns att köpa i kårbokhandeln. Finns som pdf på kurshemsidan. Kursen omfattar hela kompendiet. På kurshemsidan finns bland annat, Föreläsnings slides. Formelsamling och tabeller, skiljer sig från SF1901. Lathund för miniräknare. Tilläggsmaterial. Gamla tentor. Johan Westerborn Markovprocesser (5) Föreläsning 1

Kursinformation Schema och examination Schemat omfattar 6 stycken föreläsningar. Sista föreläsningen 9e maj, Johan Westerborn. 9 stycken övningar i två grupper, Björn-Olof Skytt, Felix Rios. Examination sker genom skriftlig tentamen den 1a juni. Examinator är Jimmy Olsson. Johan Westerborn Markovprocesser (6) Föreläsning 1

Tentamensinformation Kursinformation Tentamen består av 5 frågor, korrekt löst uppgift ger 10 poäng. Normalt krävs 20 poäng för godkänt Preliminära betygsgränser A 43, B 38, C 32, D 26, E 20. Preliminärt komplettring för de som får 18-19 poäng. Tillåtna hjälpmedel vid tentamen Mathematics Handbook (Beta) Miniräknare (dock ej egen manual) Institutionens manual till TI-82 Stats (Finns på kurshemsidan) Formel- och tabellsamlingen (Finns på kurshemsidan) Obligatoriskt att anmäla sig till tentamen via Mina Sidor Johan Westerborn Markovprocesser (7) Föreläsning 1

Kursinformation Denna kurs I kursen behandlas tre olika områden, där alla är typer av stokastiska processer. Markovkedjor: Stokastiska processer i diskret tid som rör sig utan minne, t.ex. slumpvandringar. Föreläsning 1 och 2 Markovprocesser: Stokastiska processer i kontinuerlig tid som rör sig utan minne, t.ex. Poissonprocessen. Föreläsning 3 och 4 Köteori: Applicering av markovprocesser på kö-system. Föreläsning 5 och 6 Johan Westerborn Markovprocesser (8) Föreläsning 1

Föreläsningsplan Stokastiska processer 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (9) Föreläsning 1

Stokastisk process Stokastiska processer Definition En familj av stokastiska variabler {X(t); t T } kallas en stokastisk process. Om T = {0, 1, 2,...} = N talat vi om diskret tid. Om T = [0, ) = R + talar vi om kontinuerlig tid. De värden som X(t) kan anta kallas tillståndsrummet, betecknas E Johan Westerborn Markovprocesser (10) Föreläsning 1

Stokastiska processer Exempel 1, slumpvandring 3 2 1 X(t) 0 1 2 3 0 5 10 15 20 25 t Figur: X(t) = X(t 1) + ξ t, där ξ t är 1 med sannolikhet 0.5 och -1 med sannolikhet 0.5 Johan Westerborn Markovprocesser (11) Föreläsning 1

Exempel 2, aktiepris Stokastiska processer 600 580 560 S(t) 540 520 500 480 Apr May Jun Jul Aug Sep Oct Nov Dec Jan Feb Mar t Figur: S(t) är priset på Googles aktie i dollar. Data från Yahoo! Finance. Johan Westerborn Markovprocesser (12) Föreläsning 1

Stokastiska processer Exempel 3, populationstillväxt 22 20 18 16 X(t) 14 12 10 8 6 0 0.5 1 1.5 2 2.5 3 t Figur: X(t), är populationsstorleken vid tidpunkt t. Johan Westerborn Markovprocesser (13) Föreläsning 1

Stokastiska processer Exempel 4, Brownsk rörselse 0.02 0.015 0.01 0.005 0-0.005-0.01-0.015-0.02-0.005 0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 Figur: X(t), är en Brownsk rörelse. Johan Westerborn Markovprocesser (14) Föreläsning 1

Föreläsningsplan Betingade sannolikheter 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (15) Föreläsning 1

Betingade sannolikheter Repetition av betingade sannolikheter Definition Låt A och B vara två händelser och antag att P(B) > 0. Då är den betingade sannolikheten för A givet B P(A B) = P(A B) P(B) Johan Westerborn Markovprocesser (16) Föreläsning 1

Betingade sannolikheter Lagen om total sannolikhet Sats Låt H 1, H 2,... vara en följd av ändligt många eller uppräkneligt många parvis disjunkta händelser vars union är hela utfallsrummet. Då gäller för en händelse A P(A) = P(A H i )P(H i ). i=1 Johan Westerborn Markovprocesser (17) Föreläsning 1

Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (18) Föreläsning 1

Grundläggande begrepp Vi betraktar nu processer {X n ; n = 0, 1,...} i diskret tid som tar värden i ett ändligt (eller uppräkneligt) tillståndsrum E. Vi låter E vara en heltalsmängd; E = {1, 2,..., N}, ändligt tillståndsrum. E = {1, 2,...}, uppräkneligt tillståndsrum. Definition (Markovegenskapen) {X n ; n N} är en Markovkedja om P(X n+1 = j X 0 = i 0,..., X n = i n ) = P(X n+1 = j X n = i n ), för alla n och alla i 0,..., i n E Johan Westerborn Markovprocesser (19) Föreläsning 1

Tidshomogenitet, Övergångssanolikheter och Övergångsmatris Definition Låt {X n ; n N} vara en Markovkedja. Om de betingade sannolikheterna P(X n+1 = j X n = i) inte beror på n (för alla i, j E) sägs kedjan vara tidshomogen. I detta fall definierar vi övergångssannolikheterna p ij = P(X 1 = j X 0 = i), övergångsmatrisen P är matrisen vars element med index (i, j) är p ij. Johan Westerborn Markovprocesser (20) Föreläsning 1

Exempel Exempel (Sparka boll) Kalle, Lisa och Mats sparkar boll tillsammans. Kalle passar till Lisa med sannolikheten 0.6 och till Mats med sannolikheten 0.4. Lisa passar till Kalle med sannolikheten 0.3 och till Mats med sannolikheten 0.7. Mats passar till Kalle med sannolikheten 0.4, till Lisa med sannolikheten 0.4 och till sig själv med sannolikheten 0.2. Vi kan studera bollens position som en Markovkedja. Johan Westerborn Markovprocesser (21) Föreläsning 1

Tidsutveckling Vi har hittills studerat hopp efter ett tidssteg. Låt p (n) ij = P(X n = j X 0 = i), sannolikheten att gå från i till j i n steg. Vi kan då definiera övergångsmatrisen av ordning n, P (n), som matrisen vars element med index (i, j) är p (n) ij. För n = 0 definierar vi p (0) ij = 1 om i = j och p (0) ij = 0 om i j, vi får då P (0) = I enhetsmatrisen. Johan Westerborn Markovprocesser (22) Föreläsning 1

Fördelningsvektorn Definition Startfördelningen p (0) är fördelningen för X 0 och den ges av vektorn där p (0) k p (0) = (p (0) 1, p(0) 2, p(0) 3...), = P(X 0 = k). Fördelningen för X n ges av vektorn där p (n) k = P(X n = k) p (n) = (p (n) 1, p(n) 2, p(n) 3,...), Johan Westerborn Markovprocesser (23) Föreläsning 1

Exempel Exempel (Sparka boll fortsättning) Kalle, Lisa och Mats sparkar boll tillsammans. Kalle passar till Lisa med sannolikheten 0.6 och till Mats med sannolikheten 0.4. Lisa passar till Kalle med sannolikheten 0.3 och till Mats med sannolikheten 0.7. Mats passar till Kalle med sannolikheten 0.4, till Lisa med sannolikheten 0.4 och till sig själv med sannolikheten 0.2. Antag nu att Kalle börjar med bollen. Vad är sannolikheten att Lisa har bollen efter 2 passningar? Johan Westerborn Markovprocesser (24) Föreläsning 1

Chapman-Kolmogorov Följande resultat är centralt för att kunna använda Markovkedjor. Sats (Chapman-Kolmogorovs ekvationer, 3.1) a) p (m+n) ij = k E p(m) ik p (n) kj b) P (m+n) = P (m) P (n) c) P (n) = P n d) p (n) = p (0) P (n) = p (0) P n Johan Westerborn Markovprocesser (25) Föreläsning 1

Exempel Exempel (Sparka boll fortsättning) Kalle, Lisa och Mats sparkar boll tillsammans. Kalle passar till Lisa med sannolikheten 0.6 och till Mats med sannolikheten 0.4. Lisa passar till Kalle med sannolikheten 0.3 och till Mats med sannolikheten 0.7. Mats passar till Kalle med sannolikheten 0.4, till Lisa med sannolikheten 0.4 och till sig själv med sannolikheten 0.2. Antag nu att Kalle börjar med bollen. Vad är sannolikheten att Lisa har bollen efter 4 passningar? Vad händer efter lång tid? Johan Westerborn Markovprocesser (26) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position i starten, p (0) = (1, 0, 0). Johan Westerborn Markovprocesser (27) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter en passning, p (1) = p (0) P = (0, 0.6, 0.4). Johan Westerborn Markovprocesser (28) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter två passningar, p (2) = p (0) P 2 = (0.34, 0.16, 0.5). Johan Westerborn Markovprocesser (29) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter två passningar, p (3) = p (0) P 3 = (0.248, 0.404, 0.348). Johan Westerborn Markovprocesser (30) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter fyra passningar, p (4) = p (0) P 4 = (0.2604, 0.2880, 0.4516). Johan Westerborn Markovprocesser (31) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter fem passningar, p (5) = p (0) P 5 = (0.267, 0.3369, 0.3961). Johan Westerborn Markovprocesser (32) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter sex passningar, p (6) = p (0) P 6 = (0.2595, 0.3187, 0.4218). Johan Westerborn Markovprocesser (33) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter sju passningar, p (7) = p (0) P 7 = (0.2643, 0.3244, 0.4112). Johan Westerborn Markovprocesser (34) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter åtta passningar, p (8) = p (0) P 8 = (0.2618, 0.3231, 0.4151). Johan Westerborn Markovprocesser (35) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter nio passningar, p (9) = p (0) P 9 = (0.263, 0.3231, 0.4139). Johan Westerborn Markovprocesser (36) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter tio passningar, p (10) = p (0) P 10 = (0.2625, 0.3233, 0.4142). Johan Westerborn Markovprocesser (37) Föreläsning 1

Exempel fort. 1 0.9 0.8 Kalle Lisa Mats 0.7 Sannolikheten 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 9 10 Antal passningar Figur: Fördelningen av bollens position efter ett visst antal passningar. Sannolikheten planar ut till vektorn π = ( 26 99, 32 99, 41 99 ) Johan Westerborn Markovprocesser (38) Föreläsning 1

Stationär fördelning Definition (Stationär fördelning, 5.1) En fördelning π = (π 1, π 2,...) är en stationär fördelning till en Markovkedja med övergångsmatris P om Sats (5.1) πp = π π i = 1 i π i 0 för alla i E En Markovkedja med ändligt tillståndsrum har alltid minst en stationär fördelning. Johan Westerborn Markovprocesser (39) Föreläsning 1

Absorption Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade sannolikheter 4 5 Absorption Johan Westerborn Markovprocesser (40) Föreläsning 1

Absorption Klassificering av tillstånd Vi säger att tillstånd i leder till tillstånd j om det är möjligt att i ett ändligt antal steg komma från i till j. Ett tillstånd som bara leder till sig själv kallas för ett absorberande tillstånd. Att tillstånd i är absorberande betyder att pii = 1. En Markovkedja kan ha inga, ett eller flera absorberande tillstånd. Intressanta frågor är: Kommer vi hamna i ett absorberande tillstånd? Hur lånd tid tar det innan vi hamnar där? Om det finns flera, vad är sannolikheten att vi hamnar i ett specifikt absorberande tillstånd? Johan Westerborn Markovprocesser (41) Föreläsning 1

Absorption Klassificering av tillstånd Definition (3.5) En Markovkedja kallas A-kedja om varje tillstånd i antingen är absorberande eller leder till ett absorberande tillstånd. Definition (3.6) Ett tillstånd i som leder till ett tillstånd från vilket kedjan ej kan återvända till i kallas ett genomgångstillstånd Tillståndsrummet E i en A-kedja kan alltså delas upp i en mängd av absorberande tillstånd A och en mängd genomgångstillstånd G, E = A G Johan Westerborn Markovprocesser (42) Föreläsning 1

Absorption Exempel Exempel (Tärningsspel, uppg. 16) A och B deltar i ett tärningsspel, som tillgår på följande sätt: Om tärningen visar 1 eller 2 så vinner kastaren, om den visar 3 får hen göra ytterligare ett kast. Visar tärningen 4 eller 5 får den andre kasta, och kommer 6 upp förlorar kastaren. Antag att A börjar kasta. Ställ upp problemet och beräkna a) sannolikheten att B vinner. b) väntevärdet för det antal spelomgångar som krävs för att avsluta spelet. Johan Westerborn Markovprocesser (43) Föreläsning 1