Utdrag ur TAMS5: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79 John M. Noble, Institute of Applied Mathematics, University of Warsaw, ul. Banacha, -97 Warszawa Revised: J. Thim
ii
Innehåll Stokastiska processer och Markovkedjor. Allmänt om stokastiska processer.................................. Väntevärde och Korrelation................................ Stationära processer....................................... 3.. Svag-stationära processer................................ 3.3 Diskret Markovkedja....................................... 4.4 Markovkedjor i diskret tid.................................... 4.4. n-stegs transitionsannolikheter............................. 5.4. Stationära tillståndssannolikheter............................ 6.4.3 Villkor för stationära tillståndssannolikheter...................... 7.5 Övningar: stokastiska processer och Markovkedjor...................... Stokastiska processer med kontinuerlig tid 7. Poissonprocess.......................................... 7.. Fördelning av X(t) för givet t.............................. 7.. Tid till den första händelsen............................... 9..3 Oberoende poissonprocesser............................... 9..4 Tiden till den första händelsen, betingat på exakt en händelse............. Diskret Markovprocess med kontinuerlig tid............................ Transitionsintensitet................................... 3.3 Övningar: stokastiska processer med kontinuerlig tid..................... 5 3 Kösystem 9 3. Inledning............................................. 9 3. Little s sats............................................ 9 3.3 M/M/ kö............................................ 3 3.3. Fördelningar förbundna med M/M/......................... 33 3.4 Födelsedödsprocess........................................ 34 3.4. M/M/ kö med ändlig kapacitet............................ 35 3.4. Multi-server Systemen : M/M/c, M/M/c/c och M/M/.............. 36 3.5 Övningar: kösystem....................................... 38 iii
iv
Kapitel Stokastiska processer och Markovkedjor. Allmänt om stokastiska processer Definition. (Stokastisk process). En stokastisk process {X(t) : t I} är en familj av slumpvariabler med index t i indexmängden I. Processen tar värden i tillståndsrummet E. Utfallet då processen observeras kallas en realisering av processen. En stokastisk process med indexmängd I sägs ha diskret tid om I är en diskret mängd, typiskt I = {,,,...}, och den sägs ha kontinuerlig tid om I är en kontinuerlig mängd, typiskt ett interval I [, + ). En stokastisk process med tillståndsrum E sägs vara diskret om E är en diskret mängd, typiskt E = {E, E, E,...} och den sägs vara kontinuerlig om E är en kontinuerlig mängd, till exempel E = [, + ). Till varje utfall ω Ω förbinds en funktion x(ω,.) : I E, provfunktionen, en tidsfunktion så att x(ω, t) ger värdet av utfallet vid tid t. Exempel.. I ett quaternary phase shift keying (QPSK) system, måste en av fyra symboler s, s, s, s 3, var och en med lika sannolikhet överföras på T sekunder. Om s j överförs, skickas vågfunktionen ( π x(t, s j ) = cos T t + j π ) i tidsintervallet [, T ]. I exemplet är försöket att överföra en symbol över [, T ] och varje provfunktion har en löptid T... Väntevärde och Korrelation Väntevärdet av en stokastisk process X är den deterministiska funktionen µ X, definerad som µ X (t) = E[X(t)]. Definition. (Autokovarians och autokorrelation). Autokovariansfunktionen av en stokastisk process X defineras som K X (t, r) = K(X(t), X(t + r)) = E[X(t)X(t + r) E[X(t)]E[X(t + r)]. Autokorrelation av en stokastisk process X defineras som Det följer att R X (t, r) = E[X(t)X(t + r)]. K X (t, r) = R X (t, r) µ X (t)µ X (t + r).
A sequence of stock prices (X n ) n, where S n denotes the price on day n can be considered as a stochastic process. In some time series models, a stochastic process is decomposed as X n = T n + S n + W n where S n denotes a seasonal component which oscillates, T n denotes a trend, which is an average, after adjusting for seasonal effects and W n is considered to be random effects, where W n are independent identically distributed with E[W n ] = and V (W n ) = σ. In time series, one tries to estimate the seasonal component S n and the trend T n by using a filter, which is a linear combination of the observations. For example, one might try to estimate T n using the filter Y n = (X n 9 +... + X n + X n ), averaging over the previous observations. The number of points used for averaging depends on the length of the period of the seasonal component and the level of noise. Constructing appropriate filters to estimate the trend and the seasonal component is the subject of Time Series analysis and is not dealt with here. One question of interest is how a filter affects the noise. In the example below, the following result is very useful: for three random variables X, Y, Z, K(X + Y, Z) = K(X, Z) + K(Y, Z). This follows directly from the definition; E[(X + Y )Z] = E[XZ + Y Z] = E[XZ] + E[Y Z] so that K(X + Y, Z) = E[(X + Y )Z] E[X + Y ]E[Z] = E[XZ] + E[Y Z] E[X]E[Z] E[Y ]E[Z] = K(X, Z) + K(Y, Z). Exempel.. En input till ett digitalt filter är en oberoende identiskt fördelad sekvens (X, X, X, X 3,...) med E[X j ] = och V (X j ) =. Uteffekten är en sekvens (Y, Y, Y 3,...) där Y n = 3 (X n + X n + X n ) n =, 3, 4,... Beräkna väntevärdsfunktionen E[Y n ] och autokovariansfunktionen C Y (n, k). Lösning E[Y n ] = 3 (E[X n] + E[X n ] + E[X n ]) =. K Y (n, k) = K( 3 (X n + X n + X n ), 3 (X n+k + X n+k + X n+k )) = 9 (K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k ) +K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k ) +K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k )). K(X m, X m ) =, K(X m, X n ) = m n.
K Y (n, k) = 3 k = 9 k = ± 9 k = ± annars. When the filter is applied to the noise, the variance reduces (here by a factor of 3), but there are correlations between the outputs.. Stationära processer Definition.3 (Stationära processer). En process X är stationär om p(x(t ) A,..., X(t n ) A n ) = p(x(t + τ) A,..., X(t n + τ) A n ) för alla (t,..., t n ), τ, A... A n E n och n. D.v.s. X(τ +.) har samma fördelning som X(.) för alla τ. Sats.4. För en stationär process X och alla t uppfyller väntevärdsfunktionen, autokorrelationsfunktionen och autokovariansfunktionen µ X (t) = µ X R X (t, r) = R X (, r) = R X (r) K X (t, r) = R X µ X = K X (r). Bevis Detta följer omedelbart från definitionen... Svag-stationära processer Det finns många tillämpningar när en forskare inte har en fullständig sannolikhetsmodell, utan bara en aning om väntevärdet, variansen och korrelationen. Definition.5 (Svag-stationära processor). X är svag-stationär om och bara om för alla t, E[X(t)] = µ X R X (t, r) = R X (, r) = R X (r). Sats.6. Låt X vara en svag-stationär process. Autokorrelationfunktionen R X uppfyller:. R X (). R X (r) = R X ( r) 3. R X (r) R X (). Bevis. R X () = R X (t, ) = E[X (t)]. R X (t, r) = E[X(t)X(t + r)] = E[X(t + r)x(t)] = R X (t + r, r) Då, R X (r) = R X ( r). 3. Vi kan uppskatta K X (t, r) σ X(t) σ X(t+r) = K X (). Då, R X (r) R X (). R X (r) = (K X (r) + µ X) (K X () + µ X) = R X (). 3
.3 Diskret Markovkedja Markov-kedjeteori finns mycket mer i detailj i NMAC Markov-kedjor och köteori Den enklaste stokastiska processen är en Bernoulliprocess. Det vill säga, en sekvens av oberoende identiskt fördelade variabler. Men det finns många viktiga situationer när en sådan model inte ger en bra approximation till livslevande situationer. År 93 läste Andriej Andriejevicz Markov (856-9) en bok, Eugene Onegin, av Alexander Puszkin (799-837). Han studerade de första bokstäverna. Han betecknade en vokal med och en konsonant med och han studerade sekvensen. Han beräknade att om man läste en vokal, så var sannolikheten.87 att nästa bokstav skulle vara en konsonant, men om man läste en konsonant, så var sannolikheten bara.337 att nästa bokstav skulle vara en konsonant. Självklart kunde inte sekvensen förstås med modellen att bokstäverna var en sekvens av oberoende identiskt fördelad variabler. Men han beräknade också att nästa bokstav var beroende bara av vad man läste nu och inte de föregående bokstäverna. Eugene Onegin var det första exemplet på det som blev bekant som en Markovkedja. Övergångssannolikheterna för Eugene Onegin är vokal konsonant vokal.8.87 konsonant.663.337 Han beräknade ockå att andelen konsonanter var.568 och andelen vokaler var.43. Definition.7 (Markovprocess). En slumpprocess X(t) är en Markovprocess om processens framtid givet det närvarande är oberoende av processens förflutna. D.v.s., givet t <... < t k < t k+, en godtycklig sekvens av tider, p(a X(t k+ ) < b X(t k ) = x k,..., X(t ) = x ) = p(a X(t k+ ) < b X(t k ) = x k ). De här egenskapna kallas Markovegenskaper. En Markov process med ett uppräkningsbart tillståndsrum E = {E, E, E,...} kallas en Markovkedja..4 Markovkedjor i diskret tid Låt X n vara en Markov-kedja i diskret tid som börjar vid tid n = med ingångssannolikheter p j () = p(x = E j ) j =,,,... Den gemensamma sannolikhetsfunktionen för de första n + värdena är p(x n = E in,..., X = E i ) = p(x n = E in X n = E in )... p(x = E i X = E i ) p(x = E i ). Då är den gemensamma sannolikhetsfunktionen för en särskild sekvens produkten av ingångssannolikheten multiplicerad med de följande ett-stegs transitionsannolikheterna. Nu, anta att ettstegstransitionssannolikheterna inte ändras med tiden. Definition.8 (Tidshomogen Markovkejda). Markovkedjan kallas tidshomogen om ettstegstransitionsannolikheterna inte ändras med tiden. D.v.s., för alla n. p(x n+ = E j X n = E i ) = p ij Tänk på p ij som sannolikheten att flytta från tillstånd E i, till tillstånd E j i ett steg. För en tidshomogen kedja, är sannolikhetsfunktionen för X n helt specifierad av ingångssannolikheterna p i () och matrisen av ettstegstransitionssannolikheterna P när P ij = p ij. Matrisen P kallas transitionsmatrisen. Varje rad i P måste summera till, därför att 4
= j p(x n+ = E j X n = E i ) = j p ij. Exempel.3. Anta ett system som har tre möjliga tillstånd, märkt, och. Till exempel, på dag noll, har en bil två reservdäck. Sannolikheten att bilen ska behöva ett nytt däck på dag n är p och sannolikheten att bilen inte behöver nytt däck är q = p. Låt Y n vara antalet reservdäck som är kvar efter dag n. Då, är (Y n ) n en Markovkedja med transitionsmatris P = p q p q Ett-stegs transitionssannolikheterna kan representeras på följande sätt:. q q p p Exempel.4. Låt S n = X + X +... + X n där X, X,... är oberoende Bernoulliförsök. I ett steg kan S n antingen stanna kvar med sannolikhet p eller öka med med sannolikhet p. Transitionssannolikhetsmatrisen är p p... p p... P = p...........4. n-stegs transitionsannolikheter För att beräkna den gemensamma sannolikhetsfunktionen för godtyckliga tider, behöver man transitionssannolikheterna för ett godtyckligt antal steg. Låt P (n) = {p ij (n)} vara matrisen med n-stegs sannolikheterna, där Då den är tidshomogen, följer det att p ij (n) = p(x n+k = E j X k = E i ), n, i, j. För två steg, p(x n+k = E j X k = E i ) = p(x n = E j X = E i ) för alla. p ij () = p(x = E j X = E i ) = k p(x = E j X = E k, X = E i ) p(x = E k X = E i ) = k p ik ()p kj (). På samma sätt P () = P. p ij (n) = p(x n = E j X = E i ) = k p(x n = E j X = E k, X = E i )p(x = E k X = E i ) = k p(x n = E j X = E k )p(x = E k X = E i ) = k p ik ()p kj (n ). 5
Så P (n) = P P (n ) och, från induktion, P (n) = P n. Definition.9 (Chapman-Kolmogorov ekvationer). För en Markovprocess är relationen en Chapman-Kolmogorov ekvation. P (m + n) = P (m)p (n) Betrakta igen exemplet med bildäck. Man kan beräkna (övning: använd induktion) att P (n) = q n q n. q n npq n npq n q n så, när n, P (n) Det innebär att p j (n) för varje j. Oavsett av hur många däck det finns från början, så har man inga däck kvar slutligen. Tillstånd är ett absorberande tillstånd. Definition. (Absorberande tillstånd). Ett tillstånd E j som uppfyller p jj = kallas ett absorberande tillstånd..4. Stationära tillståndssannolikheter För många, men inte alla system, då n, konvergerar n-steg transitionmatrisen till en matris där alla rader är lika, och lika med sannolikhetsfunktionen. Det vill säga,. p ij (n) π j för alla i och j; j π j =. Kom ihåg att P (n) = P n. Det följer att P (n) = P (n )P. (.) Låt π = (π, π,...) vara radvektorn lim n + P,. (n). Då, när n + i ekvation (.), kan man hitta de stationära tillstånds sannolikheterna från ekvationen π = πp. I däckexemplet, är det stationära tillståndet trivialt; man har inga däck kvar med sannolikhet. Exempel.5. Anta att antalet signaler som kommer kan modelleras på följande sätt. Om ingen signal finns i tidsperiod n, så är sannolikheten för ingen signal i tidsperiod n + lika med α och sannolikheten att det finns en signal är α. På samma sätt, om tidsperiod n har en signal, så är sannolikheten att det finns en signal i perioden n + lika med β och sannolikheten att ingen signal finns β. Transitionsmatrisen är ( ) α α P = β β 6
Den stationära tillståndsfördelningen π är lösningen till Det vill säga, π(i P ) =. ( α α π β β Det följer att απ + βπ =, som ger π = α β π. Med π + π =, följer det att π = ) =. β α + β, π = α α + β. Anmärkning Det är vanligt för Markovkedjor att de stationära tillståndsekvationerna inte har full rang. Man måste lägga till ekvationen π k = för att beräkna den stationära tillståndsfördelningen. Anmärkning Det finns Markovkedjor som inte har någon stationär fördelning. Till exempel, låt S n = X +... + X n där X j är oberoende Bernoulliförsök. Då ökar S n till oändligheten och för varje j, p j (n) n +..4.3 Villkor för stationära tillståndssannolikheter Definition. (Tillgängligt). Ett tillstånd E j är tillgängligt från tillstånd E i om P ij (n) > för något n. Definition. (Kommunicering). Två tillstånd E i och E j kommunicerar om de är tillgängliga för varandra. Man skriver E i E j. Lemma.3. Kommunicering uppfyller följande egenskaper:. Tillstånd E i kommunicerar med tillstånd E i för alla i.. Om tillstånd E i kommunicerar med tillstånd E j, sen kommunicerar tillstånd E j med tillstånd E i. 3. Om tillstånd E i kommunicerar med tillstånd E j och tillstånd E j kommunicerar med tillstånd E k, så kommunicerar tillstånd E i med tillstånd E k. Bevis De första två är tydliga; bara den tredje måste bevisas. Anta att E i kommunicerar med E j och E j kommunicerar med E k. Då existerar heltal m och n så att P ji (n) > och P kj (m) >. Så, P ki (m + n) = P kl (m)p li (n) P kj (m)p ji (n) > l= och tillstånd E k är tillgängligt från tillstånd E i. På samma sätt är tillstånd E i tillgängligt från tillstånd E k. Definition.4 (Klass). Två tillstånd som kommunicerar sägs vara i samma klass. Det är tydligt att två klasser är antingen lika eller oförenliga. Definition.5 (Reducibel, irreducibel). En Markovkedja är irreducibel om alla tillstånd kommunicerar med varandra. Annars är den reducibel. Exempel.6. 7
Betrakta en Markovkedja som består av fyra tillstånd,,, och 3, med transitionsmatris Man kan skissa ett diagram. P = / / / / /4 /4 /4 /4. / / /4 / /4 / /4 3 /4 Klasserna för den här Markovkedjan är {, }, {} och {3}. Tillstånd 3 är ett absorberande tillstånd; det finns inget annat tillstånd som är tillgängligt från det. Låt f (n) jj = p(x n = E j, X m E j m =,..., n X = E j ). f (n) jj är sannolikheten att processen vid tidpunkten n för första gången efter starten i E j på nytt befinner sig i E j. Definition.6 (Beständighet). Om f jj := n= f (n) jj =, säges tillstånd E j vara beständigt. Om f jj := n= f (n) jj < säges E j vara obeständigt. Ett beständigt tillstånd är positivt beständigt om väntevärdet för tid T j för kedjan att befinna sig i tillstånd E j igen uppfyller och noll-beständigt om E[T j ] = +. Vi anger utan bevis en värdefull sats: E[T j ] = n= nf (n) jj < + Sats.7. Om två tillstånd kommunicerar med varandra, är antingen båda tillstånden positivt beständiga eller båda noll-beständiga eller båda obeständiga. Bevis NMAC Definition.8 (Tillståndsperiod). Tillstånd E i har en period d om P ii (n) = för alla n som inte är delbart med d och d är det största heltalet med den här egenskapen. Ett tillstånd med period sägs vara icke-periodisk. Definition.9 (Ergodisk). Ett positivt beständigt icke-periodiskt tillstånd sägs vara ergodiskt. En ergodisk Markovkedja är en kedja där alla tillstånd är ergodiska. Sats.. För en oreducerbar ergodisk Markovkedja existerar lim n + P ij (n) och är oberoende av i. Vidare, om man sätter π j = lim n + P ij (n), följer det att π är den unika icke-negativa lösning av som uppfyller kravet j= π j =. π = πp 8
Bevis Hoppas över (det finns i kursen NMAC). Exempel.7. Låt övergångsmatrisen vara P = 3 3 3 4 4 Undersök vilka tillstånd är beständiga och vilka är obeständiga. Lösning f () = och alltså f := = ; således är E ett beständigt tillstånd. Låt oss därnäst undersöka E. Om processen startar i E, kan det inte vara där även vid t =, ty p = ; alltså blir f () =. f () = p p + p p = 3 + 3 3 4 = 4. n= f (n) Allmänt återvänder den till E vid tidpunkt n, där n med sannolikheten Följaktligen är f := f (n) = ( 3 n= ) ( 4 f (n) = n= ) n ( ) 3 = 4 ( ) n = 4 ( ) n. 4 /4 (/4) = 3 <. Tillståndet E är alltså obeständigt. På liknande sätt visas att E obeständigt. Exempel.8 (Reducibla och irreducibla Markovkedjor). 3 3 3 4 4 P = Q = 3 4 4 3 3 4 5 5 P är overgångsmatrisen för en irreducibel Markovkedja. Q är reducibel, ty man kan inte komma från E eller E 3 till E eller E 4 (eller vice versa); det kan delas i två irreducibla delkedjor med tillstånden (E, E 3 ) och (E, E 4 ) och tillhörande övergångsmatriser är ) ) Q = ( 3 3 Q = ( 4 Sats.7 visar att, i en irreducibel kedja, så är antingen alla tillstånd beståndiga eller alla tillstånd obsetändiga. Exempel.9. Antag att P = Kedjan är irreducibel. Om den är i E kan det återvända dit endast efter, 4, 6,... steg och E är därför ett periodiskt tillstånd med period d = ; på samma sätt är det övriga tillstånden. 4 5 3 4 5 Låt π = ( 4, 4, 4, 4 ). Det följer att πp = π, men om man börjar med ingångslag p = (,,, ), då är P (n) = för alla n; P (n) π. 9
Låt π = (,,, ) och π = (,,, ). Det följer att π = π P π = π P π = π P π = π P. Både π och π är stationära fördelningar för Markov-kedjan med övergångsmatris P =..5 Övningar: stokastiska processer och Markovkedjor Översikt Autokovarians Autokorrelation K X (t, r) = E[X(t)X(t + r)] E[X(t)]E[X(t + r)] R X (t, r) = E[X(t)X(t + r)] P ettstegsövergångsmatris för en Markovkedja i diskret tid P (m) m-stegsövergångsmatris: Chapman- Kolmogorov ekvation - P (m + n) = P (m)p (n) Irreducibel - alla tillstånd kommunicerar med varandra. Tillståndsperiod, icke-periodiskt tillstånd. Tillstånd E i har en period d om P ii (n) = för alla n som inte är delbart med d och d är det största heltalet med den här egenskapen. Ett tillstånd med period sägs vara icke-periodiskt. Låt T j beteckna tiden för kedjan, som börjar i E j att återvända till E j. Tillståndet E j är beständigt om p(t j < + ) =, positivt beständigt om E[T j ] < + och obeständigt om p(t j < + ) <. Ergodisk - Ett positivt beständigt icke periodiskt tillstånd sägs vara ergodiskt. En ergodisk Markovkedja är en kedja där alla tillstånd är ergodiska. För en ergodisk irreducibel kedja, gäller: P ij (n) n + π(i P ) = π j, π uppfyller
Övningar. För k, låt Y k beteckna antalet misslyckanden mellan succé k och succé k för en Bernoulli process med parameter p. Låt Y beteckna antalet misslyckanden innan den första succén. Vad är sannolikhetsfunktion för Y k? Är {Y, Y,...} en oberoende identiskt fördelad sekvens?. Input för ett digitalt filter är en sekvens av slumpvariabler X, X, X,.... Uteffekten är sekvensen W, W, W 3,..., där W n = (X n + X n ) n =,, 3,... X, X, X,... är oberoende, identiskt fördelade med E[X i ] =, V (X i ) =. Beräkna E[W i ], V (W i ), K(W i, W i+ ), ρ Wi,W i+. 3. Låt X, X, X,... vara input för ett digitalt filter, där X, X, X,... är oberoende, identiskt fördelad variabler, med E[X i ] =, V (X i ) =. Låt Y, Y, Y 3,... uppfylla Y n = X n+ + X n + X n n =,, 3,... Beräkna autokovariansfunktionen K Y (m, k) för m, m + k. 4. Inputen X, X, X,... och uteffekten Y, Y, Y,... uppfyller: Y är oberoende av (X n ) n, { Yn = (X n + Y n ) n (Y n ) n är stationära Input variablerna är oberoende, identiskt fördelade med E[X i ] = och V (X i ) = σ. Beräkna E[Y i ], V (Y i ), K(Y i, Y i+ ) och ρ Yi,Y i+ för i. 5. Låt Z, Z,... vara oberoende identiskt fördelade slumpvariabler med E[Z n ] = och V (Z n ) = σ. Slumpsekvensen X, X,... uppfyller: X oberoende av {Z, Z,...}, { Xn = cx n + Z n n =,, 3,... (X n ) n svag-stationära där c är konstant som uppfyller c <. Beräkna σ så att R X (n, k) = a c k. 6. Tre vita och tre svarta kulor delas i två urnor, så att varje urna innehåller tre kulor. Systemet är i tillstånd j för j =,,, 3 om den första urnan innehåller j vita kulor. För varje steg, tas två kulor, en från varje urna, och kulorna byter plats. Låt X n beteckna systemets tillstånd efter steg n. (a) Är {X n : n =,,,...} en Markovkedja? Motivera. Om det är en Markovkedja, beräkna dess ett-stegs transitionssannolikhetsmatris. (b) Beräkna de stationära tillstånds sannolikheterna; d.v.s. beräkna π. 7. Anta att tre pojkar A, B and C kastar en boll, den ena till den andra. Om A har bollen, kastar han den till B med sannolikhet. och till C med sannolikhet.8. Om B har bollen, kastar han den till A med sannolikhet.6 och till C med sannolikhet.4. Om C har bollen, kastar han den till A eller B, var och en med sannolikhet /. (a) Anta att processen är en Markovkedja och beräkna ett-stegs transition - sannolikhets matrisen. (b) Om varje pojke har bollen med samma sannolikhet från början (t = ), vilken pojke har den högsta sannolikheten att ha bollen vid tid?
8. Anta att vädret kan ha ett av två olika tillstånd; antingen soligt eller molnigt. Anta att vädret på följande morgon kan ses som en tids-homogen Markovkedja med ett-stegs transitions sannolikheterna givna i matrisen nedanför. S C S.7.3 C.6.4 (a) Om det är molnigt en dag, vad är sannolikheten att det också är molnigt nästa dag? (b) Om det är soligt en dag, vad är sannolikheten att det också är soligt de nästa två dagarna. (c) Om det är molnigt en dag, vad är sannolikheten att det ska bli soligt minst en av de nästa tre dagarna? (d) Beräkna den stationära tillstånds sannolikheten π. 9. Låt E i vara ett obeständigt tillstånd i en Markov-kedja och f ii sannolikheten att processen, vid start i E i, återvänder till E i. Sätt X i lika med antalet gånger som processen återvänder. Bestäm fördelningen för X i samt dess väntevärde.. En Markov-kedja har övergångsmatrisen P = 3 3 Undersök om kedjan har någon asymptotisk fördelning och bestäm i så fall denna.. En ändlig Markov-kedja har en övergångsmatris som är dubbelstokastisk. Därmed menas att inte bara alla radsummor utan även kolonnsummor är lika med ett. Visa att om en sådan kedja har en asymptotisk fördelning så är denna fördelning likformig.. Låt P = fördelningen om den existerar. Motbevisa annars existens. 3. Låt P = ( 3/4 /4 / / ( 3/4 /4 ). Klassificera beständigheten hos alla tillstånd och beräkna den asymptotiska ). Klassificera beständigheten hos alla tillstånd och beräkna den asymptotiska fördelningen om den existerar. Motbevisa annars existens.
Svar. Y k G(p) Ja, {Y, Y, Y 3,...} är oberoende identiskt fördelad variabler.. E[W i ] = (E[X i] + E[X i ]) =. V (W i ) = 4 V (X i + X i ) = 4 (V (X i) + V (X i ) + K(X i, X i )) = K(W i, W i+ ) = 4 K(X i + X i, X i+ + X i ) = 4 (K(X i, X i+ ) + V (X i ) + K(X i, X i+ ) + K(X i, X i )) = 4. 3. ρ Wi,W i+ = K(W i, W i+ ) V (Wi )V (W i+ ) = /4 / =. K Y (m, k) = K(Y m, Y m+k ) = K(X m+ + X m + X m, X m+k+ + X m+k + X m+k ) = K(X m+, X m+k+ ) + K(X m+, X m+k ) + K(X m+, X m+k ) +K(X m, X m+k+ ) + K(X m, X m+k ) + K(X m, X m+k ) +K(X m, X m+k+ ) + K(X m, X m+k ) + K(X m, X m+k ) K(X j, X k ) = för j = k och för j k. Då, 3 k = k = K Y (m, k) = k = annars 4. E[Y n ] = E[Y n ]. (Y n ) n är stationära; då E[Y n ] = µ för alla n, µ = µ, µ =. E[Y ] =. Då, E[Y n ] = för alla n. Y n är en funktion av X,..., X n. Då, Y n X n, och V (Y n ) = 4 (V (X n) + V (Y n )). Låt V (Y n ) = a. Då, V (Y n ) = 4 V (Y n ) + 4 σ. a = 4 a + 4 σ V (Y n ) = 3 σ. K(Y n, Y n+ ) = E[Y n Y n+ ] E[Y n ]E[Y n ] = E[Y n Y n+ ] E[Y n Y n+ ] = 4 (E[X nx n+ ] + E[X n Y n ] + E[X n+ Y n ] + E[Y n Y n ]). E[X n X n+ ] = E[X n ]E[X n+ ] =. E[X n+ Y n ] = E[X n Y n ] = E[X n] = σ. 3
E[Y n Y n ] = E[X ny n ] + E[Y n ] = V (Y n ). Då, E[Y n+ Y n ] = V (Y n) = a. ρ Yn,Yn+ = K(Y n, Y n+ ) V (Yn )V (Y n+ ) = a a a =. 5. Låt E[X n ] = µ. R X (n, ) = V (X n ) = a. Z n är oberoende av X n. Då, E[X n ] = ce[x n ] + E[Z n ] µ = cµ µ = ( c < ). E[X n] = c E[X n ] + E[Z n ]. E[Z n ] = V (Z n ) = E[Z n] = σ E[X n ] = V (X n ) = E[X n] = a. a = c a + σ a = c σ. Visa att R X (n, k) = a c k : för k =, R X (n, ) = a. För k, R X (n, k) = E[X n X n+k ] = ce[x n X n+k ] + E[X n Z n+k ] = cr X (n, k ). Då, för k, R X (n, k) = R X (n, )c k = a c k. För n + k och (X n ) n svag-stationära, R X (k) = R X (n, k) = E[X n X n+k ] = ce[x n+k X n ] = cr X (n, k + ) = cr X (k + ) då, För alla k n +, R X (k) = c k R X () = c k R X (). R X (k) = a c k. 6. (a) Ja, det är en Markovkedja; nästa steg beror bara på tillståndet som finns nu, och inte på det förflutna. (b) P = 4 9 9 4 9 4 9 4 9 9 5 4 (π, π, π, π 3 ) 9 9 9 5 4 9 9 9 =. so π = π 3 =, π = π = 9. π = 9π, π = 9π 3 9π 5π + 4π = π = 9π, π = π 3. π + π + π + π 3 = 4
7. (a) P =..8.6.4.5.5 (b) P =.5.4.8..3.48.3..6 (π A (), π B (), π C ()) = (π A (), π B (), π C ())P = (.34,.7333...,.38666...) så har C den högsta sannolikheten att ha bollen. 8. (a) p(molnigt molnigt) =.4 (b).7 =.49 (c) p(s S S 3 C ) = p(c C C 3 C ) = p 3 CC =.4 3 =.936 (d) (.3.3 (π S, π C ).6.6 ) = (π S, π C ) = ( 3, 3 ). 9. p Xi (k) = ( f ii )f k ii k =,,,... d.v.s. X i Ge( f ii ). E[X i ] = f ii f ii. Irreducibel och aperiodisk kejda, så asymptotisk fördelning existerar. Alternativt, räkna ut P så ser vi att till exempel kolumn ett har alla element noll-skilda. π(i P ) = (π, π, π 3 ) = (,, ) 3 3 π π π 3 π π 3 3 = 3 = π + π 3 =. π + π + π 3 = π 3 = π, π = 4 3 π 3 = 4 3 π π ( + 4 3 + ) = π = 3, π = 5, π 3 = 3.. Anta att kedjan har n tillstånd. Självklart, π = ( n,..., n) uppfyller krav: n π j P jk = n j= 5 n P jk = n = π k. j=
. Vi klassificerar tillstånden: f = 3 4 + 4 + 4 + = 3 4 + 8 k= ( ) k = 3 f = + 4 + 3 4 4 + + 3 4 3 4 4 + = + 8 4 + 4 =, k= ( ) 3 k =, 4 Både och är (positivt) beständiga. Eftersom till exempel första kolonnen i P har alla element skilda från noll existerar en asymptotisk fördelning. Vi finner denna genom att lösa π(p I) = med bivillkoret att π + π = (en sannolikhetsvektor). Svar: π = /3 och π = /3. 3. Vi klassificerar tillstånden: f = 3 4 + 4 =, f = + 4 + 3 4 4 + 3 4 3 4 4 + = 4 f =. k= ( ) 3 k =, 4 Både och är (positivt) beständiga. Tillstånd däremot är obeständigt. Eftersom första kolonnen i P har alla element skilda från noll existerar en asymptotisk fördelning. Vi finner denna genom att lösa π(p I) = med bivillkoret att π + π + π = (en sannolikhetsvektor). Svar: π =.8, π =. och π =. 6
Kapitel Stokastiska processer med kontinuerlig tid. Poissonprocess Ett mycket viktigt exempel på en diskret stokastisk process med kontinuerlig tid är poissonprocessen, som ofta används som modell för slumpmässigt inträffande händelser. Låt {X(t) : t } beteckna en stokastisk process med X() = och X(t) är antalet händelser som inträffar t.o.m. tidpunkten t. Detta är en växande diskret process som ibland ökar ett steg. Den har kontinuerlig tid, ty ökningarna ( sprången ) kan i princip inträffa när som helst. En poissonprocess är en process där händelser inträffar på ett spontant sätt enligt reglerna som beskrivs nedanför. Definition. (Poissonprocess). En stokastisk process {X(t) : t } är en poissonprocess om X() = och X(t) är antalet händelser som inträffar i intervallet [, t) enligt följande regler:. Sannolikheten att en händelse inträffar i ett kort tidsintervall [t, t + δ] är lika med λδ + o(δ),. Sannolikheten att två eller fler händelser inträffar i ett tidsintervall [t, t + δ] är lika med o(δ). 3. För u < v < s < t, är X(t) X(s) oberoende av X(v) X(u). D.v.s., processen har oberoende ökningar. En process som uppfyller dessa krav kallas en poissoprocess med parameter λ. Anmärkning Notering o(δ) betecknar en kvantitet som uppfyller: lim δ o(δ) δ =... Fördelning av X(t) för givet t Anta att vi börjar observera en poissonprocess vid tidpunkt och vi observerar antalet händelser som inträffar i intervallet [, t]. Antalet är en observation från slumpvariabeln X(t). Sats.. Låt {X(t) : t } vara en poissonprocess med parameter λ. Slumpvariabeln X(t) har en poisson fördelning med parameter λt. Bevis Betrakta G t (s) = E[s X(t) ], den sannolikhetsgenererande funktionen för X(t). Då X() =, följer det att G (s) för alla s. Först, självklart, X(t + h) = X(t) s X(t+h) X(t) =. X(t + h) X(t) = s X(t+h) X(t) = s. Man använder oberoendet för oförenliga tidsintervall. Det ger att X(t + h) X(t) är oberoende av X(t). För s [, ], s k p(x(t + h) X(t) = k) p(x(t + h) X(t) ) = o(h). k= 7
Också, p(x(t + h) X(t) = ) = λh + o(h) och p(x(t + h) X(t) = ) = λh + o(h). Det följer att G t+h (s) G t (s) = E[s X(t+h) s X(t) ] = E[s X(t) (s X(t+h) X(t) )] = E[s X(t) ]E[s X(t+h) X(t) ] = G t (s)e[s X(t+h) X(t) ] = G t (s) ( s p(x(t + h) X(t) = ) + s p(x(t + h) X(t) = ) ( ) ) + s k p(x(t + h) X(t) = k) k= = G t (s)( λh + sλh + o(h)) = (s )G t (s)λh + o(h). Det följer att så att G t+h (s) G t (s) h = λ(s )G t (s) + o(h) h Det följer att { Gt(s) t = λ(s )G t (s) G (s) =. G t (s) = exp{(λt)(s )}, som är den sannolikhetsgenerererande funktionen för en poissonfördelad slumpvariabel med parameter λt. Egenskaper Då X(t) P oiss(λt), följer det att E[X(t)] = λt och V (X(t)) = λt. Parametern λ är intensiteten. Det är väntevärdet för antalet händelser per tidsenhet. Exempel.. Telexmeddelanden kommer till ett kontor enligt en poissonprocess med intensiteten tre per timme.. Vad är sannolikheten att precis två meddelanden kommer mellan kl. 9. och kl 9.4 på en given dag?. Vad är sannolikheten att inte mer än tre meddelanden kommer mellan kl.. och kl..? 3. Vad är sannolikheten att inget meddelandet kommer mellan kl.. och kl..3 på en given dag? Lösning. Parametern är 3, det är meddelanden per timme, och 4 minuter är /3 av en timme. Så, antalet meddelanden som kommer fördelas enligt P oiss(λt) = P oiss(3 /3) = P oiss(). Det följer att p(x(/3) = ) =! e = e.. För ett tvåtimmars tidsintervall, X() P oiss(6). Det följer att p(x() 3) = 3 i= 6 i i! e 6. 3. För en halvtimme, λt = 3/. Det följer att p(x(/) = ) = exp{ 3/}. 8
.. Tid till den första händelsen Sats.3. För en poissonprocess {X(t) : t }, låt T vara tiden tills den första händelsen inträffar. Det gäller att T Exp(λ). D.v.s., F T (t) = p(t t) = e λt t. Bevis p(t > t) = p(tiden till nästa händelse är större än t) = p(ingen händelse i tidsintervallet [, t]) = p(x(t) = ) = exp{ λt}. Det följer att p(t t) = exp{ λt}. Det följer att T uppfyller: E[T ] = λ = µ, V (T ) = λ = µ...3 Oberoende poissonprocesser Anta att en situation kan beskrivas med en poissonprocess, och anta att det finns k olika typer av händelser. Till exempel, antag att antalet bilar som passar en särskild punkt på en väg kan modelleras enligt en poissonprocess med parameter λ. Anta vidare att varje bil är antingen svensk, tysk, fransk eller japansk och olika typer av bilar kan antas oberoende. Betrakta en poissonprocess X med parameter λ, där en händelse av typ i händer med sannolikhet p i. Det finns k olika typer och k i= p i = och typer av händelser kan ske oberoende av varandra. Låt X i (t) beteckna antalet händelser av typ i som har hänt vid tidpunkt t. Det följer att antalet händelser av typ i i oförenliga tidsintervall är oberoende, och för varje h >, och p(x i (t + h) X i (t) ) p(x(t + h) X(t) ) = o(h) p(x i (t + h) X i (t) = ) = p(x i (t + h) X i (t) = X(t + h) X(t) = n)p(x(t + h) X(t) = n) n= = p i (λh + o(h)) + o(h) = p i λ + o(h). Det följer att processen X i uppfyller kraven för en poissonprocess med intensitetet λp i. Det vill säga att den totala poissonprocessen är summan av k oberoende poissonprocesser som pågår samtidigt, med parametrar λp,..., λp k. Också, om X,..., X k är oberoende poissonprocesser med parametrar λ,..., λ k respektive, följer det att X +... + X k är en poissonprocess med intensitet λ +... + λ k. Sats.4. Låt X,..., X k vara k oberoende poissonprocesser med parametrar λ,..., λ k respektive. Det följer att X +... + X k är en poissonprocess med parameter λ +... + λ k. Bevis Vi måste bevisa att processen uppfyller kraven i definitionen.. En händelse av typ j ger ett språng i processen X j för j =,..., k. Det följer att p(en händelse av typ j inträffar i tidsintervallet (t,t+h)) = λ j h + o(h) 9
Först, måste man bevisa att sannolikheten att mer än en händelse av vilken typ som helst i ett tidsinterval (t, t + h) är o(h). För varje j =,..., k, sannolikheten att två händelser av typ j inträffar är o(h). Då händelser av typ i och typ j är oberoende, följer det att sannolikheten för en eller fler av typ i och en eller fler av typ j för i j är (λ i h + o(h))(λ j h + o(h)) = λ i λ j h + λ i ho(h) + λ j ho(h) + (o(h)) = o(h). För den andra punkten, måste vi visa att, för ett kort tidsintervall, sannolikheten att exakt en händelse inträffar är ( k j= λ j)h + o(h). Låt A j = {exakt en händelse inträffar; det är av typ j} och B j = {en händelse av typ j inträffar; ingen restriktion på andra typer} Det följer från: p(en händelse händer) = p( k j=a j ) = = = k p(a j ) j= k p(b j ) p(en delmängd av två eller fler) j= k j= λ j h + o(h). Det följer att sannolikheten för att ingen händelse inträffar är ( k j= λ j processen uppfyller kraven för en poissonprocess med parameter k j= λ j. Exempel.. ) h + o(h). Det följer att Kunder kommer till en bank enligt en poissonprocess med i genomsnitt tio kunder varje minut. En proportion.6 av kunderna vill ta ut pengar (typ A),.3 vill sätta in pengar (typ B) och. vill genomföra en mer komplicerad transaktion. (typ C).. Vad är sannolikheten att mer än fem kunder kommer under 3 sekunder?. Vad är sannolikheten att under en minut sex typ A, tre typ B och en typ C kund kommer? 3. Om tjugo kunder kommer under två minuter, vad är sannolikheten att exakt en är typ C? 4. Vad är sannolikheten att de första tre kunderna vill ta ut pengar? 5. Hur länge tid måste man vänta så att sannolikheten är.9 att minst en typ A och en typ B har kommit? Lösning. Man söker det totala antalet kunder. Antalet är X, som fördelas enligt X P oiss( /) = P oiss(5) (tio per minut; tidsintervall är en halv minut). Det följer att som man kan hitta i poissontabeller. p(x > 5) = p(x 5) = 5 i= 5 i i! e 5,. Typ A kunder kommer med en intensitet.6 = 6 kunder per minut. p(6 typ A kommer) = 66 6! e 6
(Om Y P oiss(6), så p(y = k) = 6k k! e 6 ). Typ B kunder kommer med en intensitet 3 kunder varje minut och typ C med en intensitet kund varje minut. Det följer att p(3 typ B kommer) = 33 3! e 3 och p( typ C kommer) =! e = e. Kunder av typ A, B och C är oberoende av varandra. Det följer att p(6 typ A, 3 typ B och typ C) = p(6 typ A) p(3 typ B) p( typ C) som ger 6 6 6! e 6 33 3! e 3 e = 66 3 3 e. 6!3! 3. För varje kund, p(typ C) =.. Det följer att sannolikheten för exakt en typ C kund är ( ) (.) (.9) 9. Det följer av att om X är antalet typ C kunder, så är X Bi(,.). 4. Sannolikheten att de första tre bara vill ta ut pengar är.6 3. 5. p(minst en typ A kommer innan tidpunkt t) = e.6t p(minst en typ B kommer innan tidpunkt t) = e.3t. Oberoende ger p(minst ett typ A och minst ett typ B kommer innan tidpunkt t) = ( e.6t )( e.3t ), Då, måste vi lösa Låt x = exp{.3t}. Det följer att ( e.6t )( e.3 t) =.9. ( x )( x) =.9 En numeriska lösning ger x.9, som ger t.795 minuter, som är cirka 48 sekunder...4 Tiden till den första händelsen, betingat på exakt en händelse Om man vet att exakt en händelse har inträffat vid tidpunkt t, vad är fördelningen för tiden när händelsen inträffade? Följande sats ger svaret. Sats.5. Låt T vara tiden för den första händelsen. Givet att exakt en händelse har inträffat i tidsintervallen [, t], har T likformig fördelning på [, t].
Bevis För varje s (, t), p(t < s X(t) = ) p({t < s} {X(t) = }) = = p(x(t) = ) = p(x(s) = )p(x(t s) = ) p(x(t) = ) p({en händelse i (, s)} {ingen händelse i (s, t)}) p(x(t) = ) = (λs)e λs e λ(t s) (λt)e λt som är fördelningsfunktionen för en U(, t) slumpvariabel. = s t. Diskret Markovprocess med kontinuerlig tid En Markovprocess med kontinuerlig tid är en process {X(t) : t } som uppfyller för varje t < t <... < t n < t n+ och varje x,..., x n i processens tillståndsrum och A n+ en delmängd av processens tillståndsrum, p(x(t n+ ) A n+ X(t ) = x,..., X(t n ) = x n ) = p(x(t n+ ) A n+ X(t n ) = x n ). En diskret tidshomogen Markovprocess med kontinuerlig tid är en process X som uppfyller p(x(t + s) = j X(s) = i) = p(x(t) = j X() = i) = p ij (t) för varje (i, j) i tillståndsrummet för processen och varje s och t. Poissonprocessen är Poissonprocessen är ett exempel på en Markovprocess. Transitionssannolikheterna för j i. Det följer att p ij (t) = p(j i händelser i tidsintervall [, t]) = (λt)j i (j i)! exp{ λt} P (t) = För t, e λt λt. Det följer att e λt (λt)e λt (λt) e λt (λt) 3 3! e λt... e λt (λt)e λt (λt) e λt... e λt λte λt.... P (δ).. λδ λδ... λδ λδ... λδ... när man inte tar någon hänsyn till termer av högre ordning........... Sats.6 (Tillståndsockupationstider). Låt {X(t), t } vara en Markovprocess med kontinuerlig tid. Låt T i vara tiden för X att vara i tillstånd i innan den flyttar till ett annat tillstånd. Då är T i en exponentialfördelad slumpvariabel.,. Bevis Anta att processen har varit i tillståndet i under en tid av längden s. Det följer att p(t i > t + s T i > s) = p(t i > t + s X(s) = i) = p(t i > t X() = i). Bara en exponentialfördelad slumpvariabel uppfyller minnelös-egenskapen. Det följer att det finns en ν i > så att p(t i > t) = exp{ ν i t}.
Den genomsnittliga tillståndsockupationstiden är /ν i. Satsen ger ett sätt att betrakta en Markovkedja med kontinuerlig tid. Varje gång kedjan väljer ett tillstånd j, väljs en exponentialfördelad tid T j Exp(ν j ), oberoende av andra ockupationstider. När tiden är slut, väljer processen ett nytt tillstånd k enligt en Markovkedja med diskret tid med ettstegstransitionssannolikhet q ij. Transitions matrisen q definerar processen som kallas en lagrad diskret tid Markovkedja... Transitionsintensitet Sannolikheten att processen stannar i tillstånd i för ett kort tidsintervall (t, t + h] ges av p(t i > h) = exp{ ν i h} ν i h + o(h). Sannolikheten för två eller fler språng i ett tidsintervall (t, t + h] är o(h). Det följer att p ii (h) = ν i h + o(h). Kvantiteten ν i är intensiteten för processen X att lämna tillstånd i. När den lämnar i, går processen till tillstånd j med sannolikhet q ij. För i j, följer det att Låt p ij (h) = ν i q ij h + o(h). γ ij = ν i q ij. Kvantiteten γ ij är intensiteten för processen X att hoppa från tillstånd i till tillstånd j. Låt γ ii := ν i, så att p(x(t + h) = i X(t) = i) = ν i h + o(h) = + γ ii h + o(h). Det följer att p i (t + h) = p(x(t + h) = i) + o(h) = j p(x(t + h) = i X(t) = j)p(x(t) = j) + o(h) = j p ji (h)p j (t) + o(h) = i j p j (t)γ ji h + ( + γ ii h)p i (t) + o(h) som ger p i (t + h) p i (t) = j γ ji p j (t)h + o(h), Det följer att d dt p i(t) = j γ ji p j (t). Exempel.3 (Ett enkelt kösystem). Betrakta ett kösystem som har bara två tillstånd. Antingen är systemmet tomt (tillstånd ) eller upptaget (tillstånd ). Tomtiden är exponentialfördelad med parameter α, medan upptagettiden är exponentialfördelad med parameter β. Beräkna p (t) och p (t). 3
Lösning Vi använder ν = α, ν = β och γ = α, γ = β, γ = α, γ = β. Ekvationerna är d dt p (t) = αp (t) + βp (t) d dt p (t) = αp (t) βp (t). Också, p + p =. Det ger d dt p (t) = β (α + β)p (t) så att p (t) = där C = p () β/(α + β). Det följer att och β + C exp{ (α + β)t}, α + β p (t) t + p (t) β α + β α α + β. Ekvationen p (t) + p (t) = gäller för alla t.. Många system når balans när t. Det innebär att lim t d dt p i(t) = = lim t j γ ji p j (t). Med π j = lim t p j (t), är ekvationerna Det kan skrivas som γ ji π j =. j ν i π i = i j γ ji π j. Dessa ekvationer kallas balanserande tillståndsekvationer. Sannolikhetsfunktionen π över tillståndsrummet är den stationära fördelningen för Markovkedjan. Om man börjar med en Markovkedja med utgångsfördelning π, följer det att p i (t) = π i för alla t. 4
.3 Övningar: stokastiska processer med kontinuerlig tid Översikt Poissonprocessen Händelser (= impulser) inträffar slumpmässigt i tiden. Låt X(t) vara antalet händelser (= impulser) i tidsintervallet (, t). Då är {X(t) : t } en Poissonprocess med intensiteten λ om följande tre villkor är uppfyllda:. Antalet impulser i oförenliga tidsintervall är oberoende.. p(x(t + h) X(t) = ) = λh + o(h) p(x(t + h) X(t) ) = o(h) h >. 3. X() =. X(t) P oiss(λt) och allmänt gäller att antalet impulser under en tid av längden t är P oiss(λt) dvs X(t + s) X(s) är P oiss(λt). Tiderna mellan impulser i en Poissonprocess är oberoende och exponentialfördelade slumpvariabler med väntevärde /λ. Markov-process med kontinuerlig tid p(x(t + h) = j X(t) = i) = γ ij h + o(h) h > ν i = j i γ ij. Stationära fördelningen dvs π n = lim t + p(x(t) = n) n =,,,... satisfierar då ν i π i = γ ji π j j i Födelsedödsprocessen γ j,j+ = λ j, γ j,j = µ j, µ = p(x(t + h) = n + X(t) = n) = λ n h + o(h) p(x(t + h) = n X(t) = n) = µ n h + o(h) p( X(t + h) X(t) ) = o(h) h > λ µ λ λ λ 3 µ 4 µ µ 3 3 FD-processens stationära fördelning dvs π n = lim t + p(x(t) = n) n =,,,... satisfierar då följande balansekvationer, som erhålls ur ovanstående flödesschema. { π λ = π µ π n (λ n + µ n ) = π n λ n + π n+ λ n+ n vilket kan förenklas till π n+ µ n+ = π n λ n n med lösning π n = λ... λ n µ... µ n π där π = + λ µ + λ λ µ µ + λ λ λ µ µ µ 3 +... 5
Övningar. Händelser inträffar enligt en Poisson-process med parameter λ = händelser per timme. (a) Vad är sannolikheten att ingen händelse inträffar mellan kl. : och kl. :? (b) Man börjar kl. :. Vad är den förväntade tiden tills den fjärde händelsen inträffar? (c) Vad är sannolikheten att två eller fler händelser inträffar mellan kl. 8: och kl. :?. Kunder kommer till en bank enligt en Poisson-process med frekvens λ. Anta att en kund kommer under den första timmen. Vad är sannolikheten att han kommer under de första tjugo minuterna? 3. Anta att folk anländer till en busshållplats enligt en Poisson-process med frekvens λ. Bussen avgår vid tidpunkt t. Anta att exakt en person har kommit vid tidpunkt t. Låt X beteckna tiden han har väntat. (a) Vad är E[X]? (b) Vad är V (X)? 4. Åke och Torbjörn säljer kaffeburkar. Åke tar 7.9 kronor burken, medan Torbjörn tar 9.5 kronor. Till Åke anländer kunder enligt en poissonprocess med intensiteten tolv kunder per timme, medan kunder anländer till Torbjörn enligt en poissonprocess med intensiteten åtta kunder per timme. De båda poissonprocesserna antas vara oberoende. Varje kund köper en burk. Vad är sannolikheten att Åke efter sju timmars försäljning har sålt för mer pengar än Torbjörn? 5. Anrop till en telefonväxel kommer vid tidpunkter som beskrivs av en poissonprocess med intensiteten.6. Om man vet att det i tidsintervallet [, 5] har kommit minst ett anrop, hur stor är den härav betingade sannolikheten att det i det nämnda intervallet har kommit precis ett anrop? 6. Till en viss telefonstation sker anrop enligt en poissonprocess med intensiteten λ = 4 stycken per minut. Antag att ett anrop leder till att ett samtal kopplas upp, att alla samtal varar i exakt minuter och 3 sekunder och bestäm under dessa antaganden sannolikheten att det i ett visst ögonblick skall vara uppkopplat minst 5 samtal. Rimliga approximationer är tillåtna. 7. Kunder antas anlända till ett företag enligt en poissonprocess med intensitet. kunder per timme. En dag motsvarar åtta timmar. Beräkna ett intervall [a, b] som med cirka 9% sannolikhet stänger in antalet kunder som anländer under 5 dagar. 8. En bilfärja skall byggas för ett färjeställe. Bilarna anländer dit enligt en poissonprocess med intensiteten.5 bilar per minut. Det tar tio minuter för färjan att gå fram och tillbaka. Hur många bilar måste färjan byggas för, om sannolikheten för att den skall bli fullbelagd skall vara mindre än 5%? 9. Personer anländer enligt en poissonprocess med intensiteten λ till ett litet hus med ett enda betjäningsställe. Är huset upptaget går anländande gäster därifrån med oförrättat ärende. Varje person som kommer in utnyttjar huset en tid som är exponentialfördelad med parameter µ. Bestäm den stationära fördelningen för antalet personer i huset ( eller förstås).. Till en parkeringsplats med endast fyra platser anländer bilar enligt en poissonprocess med intensiteten två bilar per timme. Om en ankommande bilförare finner någon plats ledig, parkerar han där, men han åker därifrån om alla platser är upptagna. Varje bil som står parkerad kan antas ha sannolikheten h + o(h) att under ett tidsintervall av längden h timmar lämna parkeringsplatsen, och man kan även anta att bilarnas parkeringstider är oberoende av varandra. Om X(t) betecknar antalet parkerade bilar vid tiden t så beräkna den stationära fördelningen (π, π, π, π 3, π 4 ). 6
Svar. (a) e. 3 (b) E[T + T + T 3 + T 4 ] = 4. Förväntad tiden är kl. 4: (c) 5e 4 3. Betingad fördelning för ankomst tiden är T U(, t). Låt S = t T, tiden att han måste vänta. (a) E[S] = t E[T ] = t t = t. (b) V (S) = V (T ) = t 4. X P oiss(84) N(84, 84), Y P oiss(56) N(56, 56) 7.9X 9.5Y N(3.6, 96) ( 7.9X 9.5Y 3.6 p(7.9x > 9.5Y ) = p(7.9x 9.5Y > ) = p.5 Φ(.3) = Φ(.3).9 > 3.6 ).5 5. X antalet som kommer i intervallet [, 5]. Det följer att X P oiss(.8). Det följer att p(exakt ett minst ett) =.8e.8.36. e.8 6. X antalet anrop som kommer i ett tidsintervall [t.5, t] har fördelning X P oiss() som är approximativt N(, ). Det följer att p(x 5) Φ(.45).7. 7. X = antal kunder under 5 dagar. X P oiss(8) N(8, 8). Intervalet blir då 8 ±.645 8 = [65, 95]. 8. X = antal bilar till färjan under minuter. Bestäm n så att p(x n) <.5. n = enligt tabell. 9. Ställ upp de stationära tillstånd ekvationerna: ν = λ, γ = λ, ν = µ, γ = µ. Det följer att som ger λπ = µπ π + π = π = µ λ + µ, π = λ λ + µ.. ν =, ν = +, ν = + = 4, ν 3 = + 3 = 5, ν 4 =. γ j,j+ = för j =,,, 3, γ j,j = j för j =,, 3, 4. Ekvationerna är π = π 3π = π + π 4π = 3π 3 + π 5π 3 = 4π 4 + π 4π 4 = π 3. 4 π j = j= (π, π, π, π 3, π 4 ) = (3, 6, 6, 4, ). 7
8
Kapitel 3 Kösystem 3. Inledning Kapitlet ger en kort inledning till kösystem, med betoning på modeller där systemet kan modelleras av en Markovkedja. Ett kösystem har en ankomstsprocess (till exempel kunder anländer enligt en Poissonprocess), en betjäningsordning (till exempel, betjäningstiden är exponentialfördelad), antalet betjäningsställen och den totala kapaciteten av systemet. Viktiga frågor är: systemets stationära fördelning, fördelningen för den totala tiden en kund är i systemet, tiden en kund står i kö. 3. Little s sats Little s sats är en intuitiv och mycket användbar koppling mellan det genomsnittliga antalet kunder i systemet och ankomstsintensiteten och den genomsnittliga tiden en kund står i systemet. Sats 3. (Little s sats). Låt N vara antalet kunder i systemet och λ den genomnittliga ankomstintensiteten. Låt T vara tiden en kund är i systemet. Om systemet når en stationär fördelning, gäller det att E[N] = λe[t ]. Ingenting antas om fördelningar för N eller T utom att systemet når en stationär för- Anmärkning delning. Bevis (skiss) Låt N(t) vara antalet kunder vid tidpunkt t. Betrakta ett system som är tomt vid tidpunkt t = och beteckna kunders ankomsttider med S, S,.... Låt A(t) antalet kunder som har anlänt innan tidpunkt t och D(t) antalet som har lämnat systemet innan tidpunkt t. Kund i är i systemet under en tid T i och lämnar vid tidpunkt D i = S i + T i. Antalet kunder i systemet vid tidpunkt t är antalet som har anlänt och ännu inte lämnat systemet. N(t) = A(t) D(t). Betrakta det statistiskt genomsnittliga antalet kunder i systemet under tidsintervallet (, t], som är givet av N(t) := t ˆ t N(s) ds. Varje kund ger T i till integranden. Betrakta en tidpunkt t som uppfyller N(t ) =. Vid tidpunkten t, N(t) = t A(t) T i och den genomsnittliga ankomstintensiteten till tidpunkt t är i= λ(t) := A(t). t 9
Man kan se det genomsnittliga antalet kunder som A(t) N(t) = λ(t) T i. A(t) Om vi låter T (t) vara den genomsnittliga tiden per kund för de första A(t) kunderna, följer det att i= och T (t) = A(t) A(t) i= T i N(t) = λ(t) T (t). Antagandet att en stationär fördelning nås innebär att då tiden t +, ger de stora talens lag E[N] = λe[t ]. Tillämpningar av Little s sats Om man betraktar N q (t), antalet kunder som väntar i kön som hela systemet, och låter W beteckna väntetiden, ger Little s sats: E[N q ] = λe[w ]. På samma sätt, låt N s (t) antalet kunder som betjänas vid tidpunkt t och låt τ beteckna en betjäningstid. Little s sats ger: E[N s ] = λe[τ]. Om det finns bara en betjäning, kan N s (t) bara vara antingen eller. Det följer att E[N s ] representerar andelen av tiden som betjäningen är upptagen. Låt π = p(n(t) = ) beteckna den stationära sannolikheten att systemet är tomt. Det följer att som ger π = E[N s ] = λe[τ], π = λe[τ], därför att π andelen av tiden som betjäningen är ledig. Det leder till följande definition. Definition 3. (Utnyttjande). Utnyttjandet för ett en-betjänings system ρ defineras som ρ = λe[τ]. Utnyttjandet för ett system med c betjäningar, ρ, defineras som Exempel 3.. ρ = λe[τ]. c Ett kommunikationsnätverk tar emot meddelanden från R källor, med de genomsnittliga ankomstintensiteterna λ,..., λ R respektive. I genomsnitt, finns E[N i ] meddelanden från källan i i nätverket.. Använd Little s sats för att hitta den förväntade tiden E[T i ] som ett typ i meddelande finns i nätverket.. Låt λ vara den totala ankomstintensiteten in i nätverket. Använd Little s sats för att beräkna ett uttryck för den genomsnittliga tiden E[T ] som ett meddelande finns i nätverket, oavsett typ, i termer av E[N i ] : i =,..., R. 3