Utdrag ur TAMS15: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79

Storlek: px
Starta visningen från sidan:

Download "Utdrag ur TAMS15: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79"

Transkript

1 Utdrag ur TAMS5: Matematisk statistik I, grundkurs Extra kursmaterial för TAMS79 John M. Noble, Institute of Applied Mathematics, University of Warsaw, ul. Banacha, -97 Warszawa Revised: J. Thim

2 ii

3 Innehåll Stokastiska processer och Markovkedjor. Allmänt om stokastiska processer Väntevärde och Korrelation Stationära processer Svag-stationära processer Diskret Markovkedja Markovkedjor i diskret tid n-stegs transitionsannolikheter Stationära tillståndssannolikheter Villkor för stationära tillståndssannolikheter Övningar: stokastiska processer och Markovkedjor Stokastiska processer med kontinuerlig tid 7. Poissonprocess Fördelning av X(t) för givet t Tid till den första händelsen Oberoende poissonprocesser Tiden till den första händelsen, betingat på exakt en händelse Diskret Markovprocess med kontinuerlig tid Transitionsintensitet Övningar: stokastiska processer med kontinuerlig tid Kösystem 9 3. Inledning Little s sats M/M/ kö Fördelningar förbundna med M/M/ Födelsedödsprocess M/M/ kö med ändlig kapacitet Multi-server Systemen : M/M/c, M/M/c/c och M/M/ Övningar: kösystem iii

4 iv

5 Kapitel Stokastiska processer och Markovkedjor. Allmänt om stokastiska processer Definition. (Stokastisk process). En stokastisk process {X(t) : t I} är en familj av slumpvariabler med index t i indexmängden I. Processen tar värden i tillståndsrummet E. Utfallet då processen observeras kallas en realisering av processen. En stokastisk process med indexmängd I sägs ha diskret tid om I är en diskret mängd, typiskt I = {,,,...}, och den sägs ha kontinuerlig tid om I är en kontinuerlig mängd, typiskt ett interval I [, + ). En stokastisk process med tillståndsrum E sägs vara diskret om E är en diskret mängd, typiskt E = {E, E, E,...} och den sägs vara kontinuerlig om E är en kontinuerlig mängd, till exempel E = [, + ). Till varje utfall ω Ω förbinds en funktion x(ω,.) : I E, provfunktionen, en tidsfunktion så att x(ω, t) ger värdet av utfallet vid tid t. Exempel.. I ett quaternary phase shift keying (QPSK) system, måste en av fyra symboler s, s, s, s 3, var och en med lika sannolikhet överföras på T sekunder. Om s j överförs, skickas vågfunktionen ( π x(t, s j ) = cos T t + j π ) i tidsintervallet [, T ]. I exemplet är försöket att överföra en symbol över [, T ] och varje provfunktion har en löptid T... Väntevärde och Korrelation Väntevärdet av en stokastisk process X är den deterministiska funktionen µ X, definerad som µ X (t) = E[X(t)]. Definition. (Autokovarians och autokorrelation). Autokovariansfunktionen av en stokastisk process X defineras som K X (t, r) = K(X(t), X(t + r)) = E[X(t)X(t + r) E[X(t)]E[X(t + r)]. Autokorrelation av en stokastisk process X defineras som Det följer att R X (t, r) = E[X(t)X(t + r)]. K X (t, r) = R X (t, r) µ X (t)µ X (t + r).

6 A sequence of stock prices (X n ) n, where S n denotes the price on day n can be considered as a stochastic process. In some time series models, a stochastic process is decomposed as X n = T n + S n + W n where S n denotes a seasonal component which oscillates, T n denotes a trend, which is an average, after adjusting for seasonal effects and W n is considered to be random effects, where W n are independent identically distributed with E[W n ] = and V (W n ) = σ. In time series, one tries to estimate the seasonal component S n and the trend T n by using a filter, which is a linear combination of the observations. For example, one might try to estimate T n using the filter Y n = (X n X n + X n ), averaging over the previous observations. The number of points used for averaging depends on the length of the period of the seasonal component and the level of noise. Constructing appropriate filters to estimate the trend and the seasonal component is the subject of Time Series analysis and is not dealt with here. One question of interest is how a filter affects the noise. In the example below, the following result is very useful: for three random variables X, Y, Z, K(X + Y, Z) = K(X, Z) + K(Y, Z). This follows directly from the definition; E[(X + Y )Z] = E[XZ + Y Z] = E[XZ] + E[Y Z] so that K(X + Y, Z) = E[(X + Y )Z] E[X + Y ]E[Z] = E[XZ] + E[Y Z] E[X]E[Z] E[Y ]E[Z] = K(X, Z) + K(Y, Z). Exempel.. En input till ett digitalt filter är en oberoende identiskt fördelad sekvens (X, X, X, X 3,...) med E[X j ] = och V (X j ) =. Uteffekten är en sekvens (Y, Y, Y 3,...) där Y n = 3 (X n + X n + X n ) n =, 3, 4,... Beräkna väntevärdsfunktionen E[Y n ] och autokovariansfunktionen C Y (n, k). Lösning E[Y n ] = 3 (E[X n] + E[X n ] + E[X n ]) =. K Y (n, k) = K( 3 (X n + X n + X n ), 3 (X n+k + X n+k + X n+k )) = 9 (K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k ) +K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k ) +K(X n, X n+k ) + K(X n, X n+k ) + K(X n, X n+k )). K(X m, X m ) =, K(X m, X n ) = m n.

7 K Y (n, k) = 3 k = 9 k = ± 9 k = ± annars. When the filter is applied to the noise, the variance reduces (here by a factor of 3), but there are correlations between the outputs.. Stationära processer Definition.3 (Stationära processer). En process X är stationär om p(x(t ) A,..., X(t n ) A n ) = p(x(t + τ) A,..., X(t n + τ) A n ) för alla (t,..., t n ), τ, A... A n E n och n. D.v.s. X(τ +.) har samma fördelning som X(.) för alla τ. Sats.4. För en stationär process X och alla t uppfyller väntevärdsfunktionen, autokorrelationsfunktionen och autokovariansfunktionen µ X (t) = µ X R X (t, r) = R X (, r) = R X (r) K X (t, r) = R X µ X = K X (r). Bevis Detta följer omedelbart från definitionen... Svag-stationära processer Det finns många tillämpningar när en forskare inte har en fullständig sannolikhetsmodell, utan bara en aning om väntevärdet, variansen och korrelationen. Definition.5 (Svag-stationära processor). X är svag-stationär om och bara om för alla t, E[X(t)] = µ X R X (t, r) = R X (, r) = R X (r). Sats.6. Låt X vara en svag-stationär process. Autokorrelationfunktionen R X uppfyller:. R X (). R X (r) = R X ( r) 3. R X (r) R X (). Bevis. R X () = R X (t, ) = E[X (t)]. R X (t, r) = E[X(t)X(t + r)] = E[X(t + r)x(t)] = R X (t + r, r) Då, R X (r) = R X ( r). 3. Vi kan uppskatta K X (t, r) σ X(t) σ X(t+r) = K X (). Då, R X (r) R X (). R X (r) = (K X (r) + µ X) (K X () + µ X) = R X (). 3

8 .3 Diskret Markovkedja Markov-kedjeteori finns mycket mer i detailj i NMAC Markov-kedjor och köteori Den enklaste stokastiska processen är en Bernoulliprocess. Det vill säga, en sekvens av oberoende identiskt fördelade variabler. Men det finns många viktiga situationer när en sådan model inte ger en bra approximation till livslevande situationer. År 93 läste Andriej Andriejevicz Markov (856-9) en bok, Eugene Onegin, av Alexander Puszkin ( ). Han studerade de första bokstäverna. Han betecknade en vokal med och en konsonant med och han studerade sekvensen. Han beräknade att om man läste en vokal, så var sannolikheten.87 att nästa bokstav skulle vara en konsonant, men om man läste en konsonant, så var sannolikheten bara.337 att nästa bokstav skulle vara en konsonant. Självklart kunde inte sekvensen förstås med modellen att bokstäverna var en sekvens av oberoende identiskt fördelad variabler. Men han beräknade också att nästa bokstav var beroende bara av vad man läste nu och inte de föregående bokstäverna. Eugene Onegin var det första exemplet på det som blev bekant som en Markovkedja. Övergångssannolikheterna för Eugene Onegin är vokal konsonant vokal.8.87 konsonant Han beräknade ockå att andelen konsonanter var.568 och andelen vokaler var.43. Definition.7 (Markovprocess). En slumpprocess X(t) är en Markovprocess om processens framtid givet det närvarande är oberoende av processens förflutna. D.v.s., givet t <... < t k < t k+, en godtycklig sekvens av tider, p(a X(t k+ ) < b X(t k ) = x k,..., X(t ) = x ) = p(a X(t k+ ) < b X(t k ) = x k ). De här egenskapna kallas Markovegenskaper. En Markov process med ett uppräkningsbart tillståndsrum E = {E, E, E,...} kallas en Markovkedja..4 Markovkedjor i diskret tid Låt X n vara en Markov-kedja i diskret tid som börjar vid tid n = med ingångssannolikheter p j () = p(x = E j ) j =,,,... Den gemensamma sannolikhetsfunktionen för de första n + värdena är p(x n = E in,..., X = E i ) = p(x n = E in X n = E in )... p(x = E i X = E i ) p(x = E i ). Då är den gemensamma sannolikhetsfunktionen för en särskild sekvens produkten av ingångssannolikheten multiplicerad med de följande ett-stegs transitionsannolikheterna. Nu, anta att ettstegstransitionssannolikheterna inte ändras med tiden. Definition.8 (Tidshomogen Markovkejda). Markovkedjan kallas tidshomogen om ettstegstransitionsannolikheterna inte ändras med tiden. D.v.s., för alla n. p(x n+ = E j X n = E i ) = p ij Tänk på p ij som sannolikheten att flytta från tillstånd E i, till tillstånd E j i ett steg. För en tidshomogen kedja, är sannolikhetsfunktionen för X n helt specifierad av ingångssannolikheterna p i () och matrisen av ettstegstransitionssannolikheterna P när P ij = p ij. Matrisen P kallas transitionsmatrisen. Varje rad i P måste summera till, därför att 4

9 = j p(x n+ = E j X n = E i ) = j p ij. Exempel.3. Anta ett system som har tre möjliga tillstånd, märkt, och. Till exempel, på dag noll, har en bil två reservdäck. Sannolikheten att bilen ska behöva ett nytt däck på dag n är p och sannolikheten att bilen inte behöver nytt däck är q = p. Låt Y n vara antalet reservdäck som är kvar efter dag n. Då, är (Y n ) n en Markovkedja med transitionsmatris P = p q p q Ett-stegs transitionssannolikheterna kan representeras på följande sätt:. q q p p Exempel.4. Låt S n = X + X X n där X, X,... är oberoende Bernoulliförsök. I ett steg kan S n antingen stanna kvar med sannolikhet p eller öka med med sannolikhet p. Transitionssannolikhetsmatrisen är p p... p p... P = p n-stegs transitionsannolikheter För att beräkna den gemensamma sannolikhetsfunktionen för godtyckliga tider, behöver man transitionssannolikheterna för ett godtyckligt antal steg. Låt P (n) = {p ij (n)} vara matrisen med n-stegs sannolikheterna, där Då den är tidshomogen, följer det att p ij (n) = p(x n+k = E j X k = E i ), n, i, j. För två steg, p(x n+k = E j X k = E i ) = p(x n = E j X = E i ) för alla. p ij () = p(x = E j X = E i ) = k p(x = E j X = E k, X = E i ) p(x = E k X = E i ) = k p ik ()p kj (). På samma sätt P () = P. p ij (n) = p(x n = E j X = E i ) = k p(x n = E j X = E k, X = E i )p(x = E k X = E i ) = k p(x n = E j X = E k )p(x = E k X = E i ) = k p ik ()p kj (n ). 5

10 Så P (n) = P P (n ) och, från induktion, P (n) = P n. Definition.9 (Chapman-Kolmogorov ekvationer). För en Markovprocess är relationen en Chapman-Kolmogorov ekvation. P (m + n) = P (m)p (n) Betrakta igen exemplet med bildäck. Man kan beräkna (övning: använd induktion) att P (n) = q n q n. q n npq n npq n q n så, när n, P (n) Det innebär att p j (n) för varje j. Oavsett av hur många däck det finns från början, så har man inga däck kvar slutligen. Tillstånd är ett absorberande tillstånd. Definition. (Absorberande tillstånd). Ett tillstånd E j som uppfyller p jj = kallas ett absorberande tillstånd..4. Stationära tillståndssannolikheter För många, men inte alla system, då n, konvergerar n-steg transitionmatrisen till en matris där alla rader är lika, och lika med sannolikhetsfunktionen. Det vill säga,. p ij (n) π j för alla i och j; j π j =. Kom ihåg att P (n) = P n. Det följer att P (n) = P (n )P. (.) Låt π = (π, π,...) vara radvektorn lim n + P,. (n). Då, när n + i ekvation (.), kan man hitta de stationära tillstånds sannolikheterna från ekvationen π = πp. I däckexemplet, är det stationära tillståndet trivialt; man har inga däck kvar med sannolikhet. Exempel.5. Anta att antalet signaler som kommer kan modelleras på följande sätt. Om ingen signal finns i tidsperiod n, så är sannolikheten för ingen signal i tidsperiod n + lika med α och sannolikheten att det finns en signal är α. På samma sätt, om tidsperiod n har en signal, så är sannolikheten att det finns en signal i perioden n + lika med β och sannolikheten att ingen signal finns β. Transitionsmatrisen är ( ) α α P = β β 6

11 Den stationära tillståndsfördelningen π är lösningen till Det vill säga, π(i P ) =. ( α α π β β Det följer att απ + βπ =, som ger π = α β π. Med π + π =, följer det att π = ) =. β α + β, π = α α + β. Anmärkning Det är vanligt för Markovkedjor att de stationära tillståndsekvationerna inte har full rang. Man måste lägga till ekvationen π k = för att beräkna den stationära tillståndsfördelningen. Anmärkning Det finns Markovkedjor som inte har någon stationär fördelning. Till exempel, låt S n = X X n där X j är oberoende Bernoulliförsök. Då ökar S n till oändligheten och för varje j, p j (n) n Villkor för stationära tillståndssannolikheter Definition. (Tillgängligt). Ett tillstånd E j är tillgängligt från tillstånd E i om P ij (n) > för något n. Definition. (Kommunicering). Två tillstånd E i och E j kommunicerar om de är tillgängliga för varandra. Man skriver E i E j. Lemma.3. Kommunicering uppfyller följande egenskaper:. Tillstånd E i kommunicerar med tillstånd E i för alla i.. Om tillstånd E i kommunicerar med tillstånd E j, sen kommunicerar tillstånd E j med tillstånd E i. 3. Om tillstånd E i kommunicerar med tillstånd E j och tillstånd E j kommunicerar med tillstånd E k, så kommunicerar tillstånd E i med tillstånd E k. Bevis De första två är tydliga; bara den tredje måste bevisas. Anta att E i kommunicerar med E j och E j kommunicerar med E k. Då existerar heltal m och n så att P ji (n) > och P kj (m) >. Så, P ki (m + n) = P kl (m)p li (n) P kj (m)p ji (n) > l= och tillstånd E k är tillgängligt från tillstånd E i. På samma sätt är tillstånd E i tillgängligt från tillstånd E k. Definition.4 (Klass). Två tillstånd som kommunicerar sägs vara i samma klass. Det är tydligt att två klasser är antingen lika eller oförenliga. Definition.5 (Reducibel, irreducibel). En Markovkedja är irreducibel om alla tillstånd kommunicerar med varandra. Annars är den reducibel. Exempel.6. 7

12 Betrakta en Markovkedja som består av fyra tillstånd,,, och 3, med transitionsmatris Man kan skissa ett diagram. P = / / / / /4 /4 /4 /4. / / /4 / /4 / /4 3 /4 Klasserna för den här Markovkedjan är {, }, {} och {3}. Tillstånd 3 är ett absorberande tillstånd; det finns inget annat tillstånd som är tillgängligt från det. Låt f (n) jj = p(x n = E j, X m E j m =,..., n X = E j ). f (n) jj är sannolikheten att processen vid tidpunkten n för första gången efter starten i E j på nytt befinner sig i E j. Definition.6 (Beständighet). Om f jj := n= f (n) jj =, säges tillstånd E j vara beständigt. Om f jj := n= f (n) jj < säges E j vara obeständigt. Ett beständigt tillstånd är positivt beständigt om väntevärdet för tid T j för kedjan att befinna sig i tillstånd E j igen uppfyller och noll-beständigt om E[T j ] = +. Vi anger utan bevis en värdefull sats: E[T j ] = n= nf (n) jj < + Sats.7. Om två tillstånd kommunicerar med varandra, är antingen båda tillstånden positivt beständiga eller båda noll-beständiga eller båda obeständiga. Bevis NMAC Definition.8 (Tillståndsperiod). Tillstånd E i har en period d om P ii (n) = för alla n som inte är delbart med d och d är det största heltalet med den här egenskapen. Ett tillstånd med period sägs vara icke-periodisk. Definition.9 (Ergodisk). Ett positivt beständigt icke-periodiskt tillstånd sägs vara ergodiskt. En ergodisk Markovkedja är en kedja där alla tillstånd är ergodiska. Sats.. För en oreducerbar ergodisk Markovkedja existerar lim n + P ij (n) och är oberoende av i. Vidare, om man sätter π j = lim n + P ij (n), följer det att π är den unika icke-negativa lösning av som uppfyller kravet j= π j =. π = πp 8

13 Bevis Hoppas över (det finns i kursen NMAC). Exempel.7. Låt övergångsmatrisen vara P = Undersök vilka tillstånd är beständiga och vilka är obeständiga. Lösning f () = och alltså f := = ; således är E ett beständigt tillstånd. Låt oss därnäst undersöka E. Om processen startar i E, kan det inte vara där även vid t =, ty p = ; alltså blir f () =. f () = p p + p p = = 4. n= f (n) Allmänt återvänder den till E vid tidpunkt n, där n med sannolikheten Följaktligen är f := f (n) = ( 3 n= ) ( 4 f (n) = n= ) n ( ) 3 = 4 ( ) n = 4 ( ) n. 4 /4 (/4) = 3 <. Tillståndet E är alltså obeständigt. På liknande sätt visas att E obeständigt. Exempel.8 (Reducibla och irreducibla Markovkedjor) P = Q = P är overgångsmatrisen för en irreducibel Markovkedja. Q är reducibel, ty man kan inte komma från E eller E 3 till E eller E 4 (eller vice versa); det kan delas i två irreducibla delkedjor med tillstånden (E, E 3 ) och (E, E 4 ) och tillhörande övergångsmatriser är ) ) Q = ( 3 3 Q = ( 4 Sats.7 visar att, i en irreducibel kedja, så är antingen alla tillstånd beståndiga eller alla tillstånd obsetändiga. Exempel.9. Antag att P = Kedjan är irreducibel. Om den är i E kan det återvända dit endast efter, 4, 6,... steg och E är därför ett periodiskt tillstånd med period d = ; på samma sätt är det övriga tillstånden Låt π = ( 4, 4, 4, 4 ). Det följer att πp = π, men om man börjar med ingångslag p = (,,, ), då är P (n) = för alla n; P (n) π. 9

14 Låt π = (,,, ) och π = (,,, ). Det följer att π = π P π = π P π = π P π = π P. Både π och π är stationära fördelningar för Markov-kedjan med övergångsmatris P =..5 Övningar: stokastiska processer och Markovkedjor Översikt Autokovarians Autokorrelation K X (t, r) = E[X(t)X(t + r)] E[X(t)]E[X(t + r)] R X (t, r) = E[X(t)X(t + r)] P ettstegsövergångsmatris för en Markovkedja i diskret tid P (m) m-stegsövergångsmatris: Chapman- Kolmogorov ekvation - P (m + n) = P (m)p (n) Irreducibel - alla tillstånd kommunicerar med varandra. Tillståndsperiod, icke-periodiskt tillstånd. Tillstånd E i har en period d om P ii (n) = för alla n som inte är delbart med d och d är det största heltalet med den här egenskapen. Ett tillstånd med period sägs vara icke-periodiskt. Låt T j beteckna tiden för kedjan, som börjar i E j att återvända till E j. Tillståndet E j är beständigt om p(t j < + ) =, positivt beständigt om E[T j ] < + och obeständigt om p(t j < + ) <. Ergodisk - Ett positivt beständigt icke periodiskt tillstånd sägs vara ergodiskt. En ergodisk Markovkedja är en kedja där alla tillstånd är ergodiska. För en ergodisk irreducibel kedja, gäller: P ij (n) n + π(i P ) = π j, π uppfyller

15 Övningar. För k, låt Y k beteckna antalet misslyckanden mellan succé k och succé k för en Bernoulli process med parameter p. Låt Y beteckna antalet misslyckanden innan den första succén. Vad är sannolikhetsfunktion för Y k? Är {Y, Y,...} en oberoende identiskt fördelad sekvens?. Input för ett digitalt filter är en sekvens av slumpvariabler X, X, X,.... Uteffekten är sekvensen W, W, W 3,..., där W n = (X n + X n ) n =,, 3,... X, X, X,... är oberoende, identiskt fördelade med E[X i ] =, V (X i ) =. Beräkna E[W i ], V (W i ), K(W i, W i+ ), ρ Wi,W i+. 3. Låt X, X, X,... vara input för ett digitalt filter, där X, X, X,... är oberoende, identiskt fördelad variabler, med E[X i ] =, V (X i ) =. Låt Y, Y, Y 3,... uppfylla Y n = X n+ + X n + X n n =,, 3,... Beräkna autokovariansfunktionen K Y (m, k) för m, m + k. 4. Inputen X, X, X,... och uteffekten Y, Y, Y,... uppfyller: Y är oberoende av (X n ) n, { Yn = (X n + Y n ) n (Y n ) n är stationära Input variablerna är oberoende, identiskt fördelade med E[X i ] = och V (X i ) = σ. Beräkna E[Y i ], V (Y i ), K(Y i, Y i+ ) och ρ Yi,Y i+ för i. 5. Låt Z, Z,... vara oberoende identiskt fördelade slumpvariabler med E[Z n ] = och V (Z n ) = σ. Slumpsekvensen X, X,... uppfyller: X oberoende av {Z, Z,...}, { Xn = cx n + Z n n =,, 3,... (X n ) n svag-stationära där c är konstant som uppfyller c <. Beräkna σ så att R X (n, k) = a c k. 6. Tre vita och tre svarta kulor delas i två urnor, så att varje urna innehåller tre kulor. Systemet är i tillstånd j för j =,,, 3 om den första urnan innehåller j vita kulor. För varje steg, tas två kulor, en från varje urna, och kulorna byter plats. Låt X n beteckna systemets tillstånd efter steg n. (a) Är {X n : n =,,,...} en Markovkedja? Motivera. Om det är en Markovkedja, beräkna dess ett-stegs transitionssannolikhetsmatris. (b) Beräkna de stationära tillstånds sannolikheterna; d.v.s. beräkna π. 7. Anta att tre pojkar A, B and C kastar en boll, den ena till den andra. Om A har bollen, kastar han den till B med sannolikhet. och till C med sannolikhet.8. Om B har bollen, kastar han den till A med sannolikhet.6 och till C med sannolikhet.4. Om C har bollen, kastar han den till A eller B, var och en med sannolikhet /. (a) Anta att processen är en Markovkedja och beräkna ett-stegs transition - sannolikhets matrisen. (b) Om varje pojke har bollen med samma sannolikhet från början (t = ), vilken pojke har den högsta sannolikheten att ha bollen vid tid?

16 8. Anta att vädret kan ha ett av två olika tillstånd; antingen soligt eller molnigt. Anta att vädret på följande morgon kan ses som en tids-homogen Markovkedja med ett-stegs transitions sannolikheterna givna i matrisen nedanför. S C S.7.3 C.6.4 (a) Om det är molnigt en dag, vad är sannolikheten att det också är molnigt nästa dag? (b) Om det är soligt en dag, vad är sannolikheten att det också är soligt de nästa två dagarna. (c) Om det är molnigt en dag, vad är sannolikheten att det ska bli soligt minst en av de nästa tre dagarna? (d) Beräkna den stationära tillstånds sannolikheten π. 9. Låt E i vara ett obeständigt tillstånd i en Markov-kedja och f ii sannolikheten att processen, vid start i E i, återvänder till E i. Sätt X i lika med antalet gånger som processen återvänder. Bestäm fördelningen för X i samt dess väntevärde.. En Markov-kedja har övergångsmatrisen P = 3 3 Undersök om kedjan har någon asymptotisk fördelning och bestäm i så fall denna.. En ändlig Markov-kedja har en övergångsmatris som är dubbelstokastisk. Därmed menas att inte bara alla radsummor utan även kolonnsummor är lika med ett. Visa att om en sådan kedja har en asymptotisk fördelning så är denna fördelning likformig.. Låt P = fördelningen om den existerar. Motbevisa annars existens. 3. Låt P = ( 3/4 /4 / / ( 3/4 /4 ). Klassificera beständigheten hos alla tillstånd och beräkna den asymptotiska ). Klassificera beständigheten hos alla tillstånd och beräkna den asymptotiska fördelningen om den existerar. Motbevisa annars existens.

17 Svar. Y k G(p) Ja, {Y, Y, Y 3,...} är oberoende identiskt fördelad variabler.. E[W i ] = (E[X i] + E[X i ]) =. V (W i ) = 4 V (X i + X i ) = 4 (V (X i) + V (X i ) + K(X i, X i )) = K(W i, W i+ ) = 4 K(X i + X i, X i+ + X i ) = 4 (K(X i, X i+ ) + V (X i ) + K(X i, X i+ ) + K(X i, X i )) = ρ Wi,W i+ = K(W i, W i+ ) V (Wi )V (W i+ ) = /4 / =. K Y (m, k) = K(Y m, Y m+k ) = K(X m+ + X m + X m, X m+k+ + X m+k + X m+k ) = K(X m+, X m+k+ ) + K(X m+, X m+k ) + K(X m+, X m+k ) +K(X m, X m+k+ ) + K(X m, X m+k ) + K(X m, X m+k ) +K(X m, X m+k+ ) + K(X m, X m+k ) + K(X m, X m+k ) K(X j, X k ) = för j = k och för j k. Då, 3 k = k = K Y (m, k) = k = annars 4. E[Y n ] = E[Y n ]. (Y n ) n är stationära; då E[Y n ] = µ för alla n, µ = µ, µ =. E[Y ] =. Då, E[Y n ] = för alla n. Y n är en funktion av X,..., X n. Då, Y n X n, och V (Y n ) = 4 (V (X n) + V (Y n )). Låt V (Y n ) = a. Då, V (Y n ) = 4 V (Y n ) + 4 σ. a = 4 a + 4 σ V (Y n ) = 3 σ. K(Y n, Y n+ ) = E[Y n Y n+ ] E[Y n ]E[Y n ] = E[Y n Y n+ ] E[Y n Y n+ ] = 4 (E[X nx n+ ] + E[X n Y n ] + E[X n+ Y n ] + E[Y n Y n ]). E[X n X n+ ] = E[X n ]E[X n+ ] =. E[X n+ Y n ] = E[X n Y n ] = E[X n] = σ. 3

18 E[Y n Y n ] = E[X ny n ] + E[Y n ] = V (Y n ). Då, E[Y n+ Y n ] = V (Y n) = a. ρ Yn,Yn+ = K(Y n, Y n+ ) V (Yn )V (Y n+ ) = a a a =. 5. Låt E[X n ] = µ. R X (n, ) = V (X n ) = a. Z n är oberoende av X n. Då, E[X n ] = ce[x n ] + E[Z n ] µ = cµ µ = ( c < ). E[X n] = c E[X n ] + E[Z n ]. E[Z n ] = V (Z n ) = E[Z n] = σ E[X n ] = V (X n ) = E[X n] = a. a = c a + σ a = c σ. Visa att R X (n, k) = a c k : för k =, R X (n, ) = a. För k, R X (n, k) = E[X n X n+k ] = ce[x n X n+k ] + E[X n Z n+k ] = cr X (n, k ). Då, för k, R X (n, k) = R X (n, )c k = a c k. För n + k och (X n ) n svag-stationära, R X (k) = R X (n, k) = E[X n X n+k ] = ce[x n+k X n ] = cr X (n, k + ) = cr X (k + ) då, För alla k n +, R X (k) = c k R X () = c k R X (). R X (k) = a c k. 6. (a) Ja, det är en Markovkedja; nästa steg beror bara på tillståndet som finns nu, och inte på det förflutna. (b) P = (π, π, π, π 3 ) =. so π = π 3 =, π = π = 9. π = 9π, π = 9π 3 9π 5π + 4π = π = 9π, π = π 3. π + π + π + π 3 = 4

19 7. (a) P = (b) P = (π A (), π B (), π C ()) = (π A (), π B (), π C ())P = (.34, , ) så har C den högsta sannolikheten att ha bollen. 8. (a) p(molnigt molnigt) =.4 (b).7 =.49 (c) p(s S S 3 C ) = p(c C C 3 C ) = p 3 CC =.4 3 =.936 (d) (.3.3 (π S, π C ).6.6 ) = (π S, π C ) = ( 3, 3 ). 9. p Xi (k) = ( f ii )f k ii k =,,,... d.v.s. X i Ge( f ii ). E[X i ] = f ii f ii. Irreducibel och aperiodisk kejda, så asymptotisk fördelning existerar. Alternativt, räkna ut P så ser vi att till exempel kolumn ett har alla element noll-skilda. π(i P ) = (π, π, π 3 ) = (,, ) 3 3 π π π 3 π π 3 3 = 3 = π + π 3 =. π + π + π 3 = π 3 = π, π = 4 3 π 3 = 4 3 π π ( ) = π = 3, π = 5, π 3 = 3.. Anta att kedjan har n tillstånd. Självklart, π = ( n,..., n) uppfyller krav: n π j P jk = n j= 5 n P jk = n = π k. j=

20 . Vi klassificerar tillstånden: f = = k= ( ) k = 3 f = = =, k= ( ) 3 k =, 4 Både och är (positivt) beständiga. Eftersom till exempel första kolonnen i P har alla element skilda från noll existerar en asymptotisk fördelning. Vi finner denna genom att lösa π(p I) = med bivillkoret att π + π = (en sannolikhetsvektor). Svar: π = /3 och π = /3. 3. Vi klassificerar tillstånden: f = =, f = = 4 f =. k= ( ) 3 k =, 4 Både och är (positivt) beständiga. Tillstånd däremot är obeständigt. Eftersom första kolonnen i P har alla element skilda från noll existerar en asymptotisk fördelning. Vi finner denna genom att lösa π(p I) = med bivillkoret att π + π + π = (en sannolikhetsvektor). Svar: π =.8, π =. och π =. 6

21 Kapitel Stokastiska processer med kontinuerlig tid. Poissonprocess Ett mycket viktigt exempel på en diskret stokastisk process med kontinuerlig tid är poissonprocessen, som ofta används som modell för slumpmässigt inträffande händelser. Låt {X(t) : t } beteckna en stokastisk process med X() = och X(t) är antalet händelser som inträffar t.o.m. tidpunkten t. Detta är en växande diskret process som ibland ökar ett steg. Den har kontinuerlig tid, ty ökningarna ( sprången ) kan i princip inträffa när som helst. En poissonprocess är en process där händelser inträffar på ett spontant sätt enligt reglerna som beskrivs nedanför. Definition. (Poissonprocess). En stokastisk process {X(t) : t } är en poissonprocess om X() = och X(t) är antalet händelser som inträffar i intervallet [, t) enligt följande regler:. Sannolikheten att en händelse inträffar i ett kort tidsintervall [t, t + δ] är lika med λδ + o(δ),. Sannolikheten att två eller fler händelser inträffar i ett tidsintervall [t, t + δ] är lika med o(δ). 3. För u < v < s < t, är X(t) X(s) oberoende av X(v) X(u). D.v.s., processen har oberoende ökningar. En process som uppfyller dessa krav kallas en poissoprocess med parameter λ. Anmärkning Notering o(δ) betecknar en kvantitet som uppfyller: lim δ o(δ) δ =... Fördelning av X(t) för givet t Anta att vi börjar observera en poissonprocess vid tidpunkt och vi observerar antalet händelser som inträffar i intervallet [, t]. Antalet är en observation från slumpvariabeln X(t). Sats.. Låt {X(t) : t } vara en poissonprocess med parameter λ. Slumpvariabeln X(t) har en poisson fördelning med parameter λt. Bevis Betrakta G t (s) = E[s X(t) ], den sannolikhetsgenererande funktionen för X(t). Då X() =, följer det att G (s) för alla s. Först, självklart, X(t + h) = X(t) s X(t+h) X(t) =. X(t + h) X(t) = s X(t+h) X(t) = s. Man använder oberoendet för oförenliga tidsintervall. Det ger att X(t + h) X(t) är oberoende av X(t). För s [, ], s k p(x(t + h) X(t) = k) p(x(t + h) X(t) ) = o(h). k= 7

22 Också, p(x(t + h) X(t) = ) = λh + o(h) och p(x(t + h) X(t) = ) = λh + o(h). Det följer att G t+h (s) G t (s) = E[s X(t+h) s X(t) ] = E[s X(t) (s X(t+h) X(t) )] = E[s X(t) ]E[s X(t+h) X(t) ] = G t (s)e[s X(t+h) X(t) ] = G t (s) ( s p(x(t + h) X(t) = ) + s p(x(t + h) X(t) = ) ( ) ) + s k p(x(t + h) X(t) = k) k= = G t (s)( λh + sλh + o(h)) = (s )G t (s)λh + o(h). Det följer att så att G t+h (s) G t (s) h = λ(s )G t (s) + o(h) h Det följer att { Gt(s) t = λ(s )G t (s) G (s) =. G t (s) = exp{(λt)(s )}, som är den sannolikhetsgenerererande funktionen för en poissonfördelad slumpvariabel med parameter λt. Egenskaper Då X(t) P oiss(λt), följer det att E[X(t)] = λt och V (X(t)) = λt. Parametern λ är intensiteten. Det är väntevärdet för antalet händelser per tidsenhet. Exempel.. Telexmeddelanden kommer till ett kontor enligt en poissonprocess med intensiteten tre per timme.. Vad är sannolikheten att precis två meddelanden kommer mellan kl. 9. och kl 9.4 på en given dag?. Vad är sannolikheten att inte mer än tre meddelanden kommer mellan kl.. och kl..? 3. Vad är sannolikheten att inget meddelandet kommer mellan kl.. och kl..3 på en given dag? Lösning. Parametern är 3, det är meddelanden per timme, och 4 minuter är /3 av en timme. Så, antalet meddelanden som kommer fördelas enligt P oiss(λt) = P oiss(3 /3) = P oiss(). Det följer att p(x(/3) = ) =! e = e.. För ett tvåtimmars tidsintervall, X() P oiss(6). Det följer att p(x() 3) = 3 i= 6 i i! e För en halvtimme, λt = 3/. Det följer att p(x(/) = ) = exp{ 3/}. 8

23 .. Tid till den första händelsen Sats.3. För en poissonprocess {X(t) : t }, låt T vara tiden tills den första händelsen inträffar. Det gäller att T Exp(λ). D.v.s., F T (t) = p(t t) = e λt t. Bevis p(t > t) = p(tiden till nästa händelse är större än t) = p(ingen händelse i tidsintervallet [, t]) = p(x(t) = ) = exp{ λt}. Det följer att p(t t) = exp{ λt}. Det följer att T uppfyller: E[T ] = λ = µ, V (T ) = λ = µ...3 Oberoende poissonprocesser Anta att en situation kan beskrivas med en poissonprocess, och anta att det finns k olika typer av händelser. Till exempel, antag att antalet bilar som passar en särskild punkt på en väg kan modelleras enligt en poissonprocess med parameter λ. Anta vidare att varje bil är antingen svensk, tysk, fransk eller japansk och olika typer av bilar kan antas oberoende. Betrakta en poissonprocess X med parameter λ, där en händelse av typ i händer med sannolikhet p i. Det finns k olika typer och k i= p i = och typer av händelser kan ske oberoende av varandra. Låt X i (t) beteckna antalet händelser av typ i som har hänt vid tidpunkt t. Det följer att antalet händelser av typ i i oförenliga tidsintervall är oberoende, och för varje h >, och p(x i (t + h) X i (t) ) p(x(t + h) X(t) ) = o(h) p(x i (t + h) X i (t) = ) = p(x i (t + h) X i (t) = X(t + h) X(t) = n)p(x(t + h) X(t) = n) n= = p i (λh + o(h)) + o(h) = p i λ + o(h). Det följer att processen X i uppfyller kraven för en poissonprocess med intensitetet λp i. Det vill säga att den totala poissonprocessen är summan av k oberoende poissonprocesser som pågår samtidigt, med parametrar λp,..., λp k. Också, om X,..., X k är oberoende poissonprocesser med parametrar λ,..., λ k respektive, följer det att X X k är en poissonprocess med intensitet λ λ k. Sats.4. Låt X,..., X k vara k oberoende poissonprocesser med parametrar λ,..., λ k respektive. Det följer att X X k är en poissonprocess med parameter λ λ k. Bevis Vi måste bevisa att processen uppfyller kraven i definitionen.. En händelse av typ j ger ett språng i processen X j för j =,..., k. Det följer att p(en händelse av typ j inträffar i tidsintervallet (t,t+h)) = λ j h + o(h) 9

24 Först, måste man bevisa att sannolikheten att mer än en händelse av vilken typ som helst i ett tidsinterval (t, t + h) är o(h). För varje j =,..., k, sannolikheten att två händelser av typ j inträffar är o(h). Då händelser av typ i och typ j är oberoende, följer det att sannolikheten för en eller fler av typ i och en eller fler av typ j för i j är (λ i h + o(h))(λ j h + o(h)) = λ i λ j h + λ i ho(h) + λ j ho(h) + (o(h)) = o(h). För den andra punkten, måste vi visa att, för ett kort tidsintervall, sannolikheten att exakt en händelse inträffar är ( k j= λ j)h + o(h). Låt A j = {exakt en händelse inträffar; det är av typ j} och B j = {en händelse av typ j inträffar; ingen restriktion på andra typer} Det följer från: p(en händelse händer) = p( k j=a j ) = = = k p(a j ) j= k p(b j ) p(en delmängd av två eller fler) j= k j= λ j h + o(h). Det följer att sannolikheten för att ingen händelse inträffar är ( k j= λ j processen uppfyller kraven för en poissonprocess med parameter k j= λ j. Exempel.. ) h + o(h). Det följer att Kunder kommer till en bank enligt en poissonprocess med i genomsnitt tio kunder varje minut. En proportion.6 av kunderna vill ta ut pengar (typ A),.3 vill sätta in pengar (typ B) och. vill genomföra en mer komplicerad transaktion. (typ C).. Vad är sannolikheten att mer än fem kunder kommer under 3 sekunder?. Vad är sannolikheten att under en minut sex typ A, tre typ B och en typ C kund kommer? 3. Om tjugo kunder kommer under två minuter, vad är sannolikheten att exakt en är typ C? 4. Vad är sannolikheten att de första tre kunderna vill ta ut pengar? 5. Hur länge tid måste man vänta så att sannolikheten är.9 att minst en typ A och en typ B har kommit? Lösning. Man söker det totala antalet kunder. Antalet är X, som fördelas enligt X P oiss( /) = P oiss(5) (tio per minut; tidsintervall är en halv minut). Det följer att som man kan hitta i poissontabeller. p(x > 5) = p(x 5) = 5 i= 5 i i! e 5,. Typ A kunder kommer med en intensitet.6 = 6 kunder per minut. p(6 typ A kommer) = 66 6! e 6

25 (Om Y P oiss(6), så p(y = k) = 6k k! e 6 ). Typ B kunder kommer med en intensitet 3 kunder varje minut och typ C med en intensitet kund varje minut. Det följer att p(3 typ B kommer) = 33 3! e 3 och p( typ C kommer) =! e = e. Kunder av typ A, B och C är oberoende av varandra. Det följer att p(6 typ A, 3 typ B och typ C) = p(6 typ A) p(3 typ B) p( typ C) som ger 6 6 6! e ! e 3 e = e. 6!3! 3. För varje kund, p(typ C) =.. Det följer att sannolikheten för exakt en typ C kund är ( ) (.) (.9) 9. Det följer av att om X är antalet typ C kunder, så är X Bi(,.). 4. Sannolikheten att de första tre bara vill ta ut pengar är p(minst en typ A kommer innan tidpunkt t) = e.6t p(minst en typ B kommer innan tidpunkt t) = e.3t. Oberoende ger p(minst ett typ A och minst ett typ B kommer innan tidpunkt t) = ( e.6t )( e.3t ), Då, måste vi lösa Låt x = exp{.3t}. Det följer att ( e.6t )( e.3 t) =.9. ( x )( x) =.9 En numeriska lösning ger x.9, som ger t.795 minuter, som är cirka 48 sekunder...4 Tiden till den första händelsen, betingat på exakt en händelse Om man vet att exakt en händelse har inträffat vid tidpunkt t, vad är fördelningen för tiden när händelsen inträffade? Följande sats ger svaret. Sats.5. Låt T vara tiden för den första händelsen. Givet att exakt en händelse har inträffat i tidsintervallen [, t], har T likformig fördelning på [, t].

26 Bevis För varje s (, t), p(t < s X(t) = ) p({t < s} {X(t) = }) = = p(x(t) = ) = p(x(s) = )p(x(t s) = ) p(x(t) = ) p({en händelse i (, s)} {ingen händelse i (s, t)}) p(x(t) = ) = (λs)e λs e λ(t s) (λt)e λt som är fördelningsfunktionen för en U(, t) slumpvariabel. = s t. Diskret Markovprocess med kontinuerlig tid En Markovprocess med kontinuerlig tid är en process {X(t) : t } som uppfyller för varje t < t <... < t n < t n+ och varje x,..., x n i processens tillståndsrum och A n+ en delmängd av processens tillståndsrum, p(x(t n+ ) A n+ X(t ) = x,..., X(t n ) = x n ) = p(x(t n+ ) A n+ X(t n ) = x n ). En diskret tidshomogen Markovprocess med kontinuerlig tid är en process X som uppfyller p(x(t + s) = j X(s) = i) = p(x(t) = j X() = i) = p ij (t) för varje (i, j) i tillståndsrummet för processen och varje s och t. Poissonprocessen är Poissonprocessen är ett exempel på en Markovprocess. Transitionssannolikheterna för j i. Det följer att p ij (t) = p(j i händelser i tidsintervall [, t]) = (λt)j i (j i)! exp{ λt} P (t) = För t, e λt λt. Det följer att e λt (λt)e λt (λt) e λt (λt) 3 3! e λt... e λt (λt)e λt (λt) e λt... e λt λte λt.... P (δ).. λδ λδ... λδ λδ... λδ... när man inte tar någon hänsyn till termer av högre ordning Sats.6 (Tillståndsockupationstider). Låt {X(t), t } vara en Markovprocess med kontinuerlig tid. Låt T i vara tiden för X att vara i tillstånd i innan den flyttar till ett annat tillstånd. Då är T i en exponentialfördelad slumpvariabel.,. Bevis Anta att processen har varit i tillståndet i under en tid av längden s. Det följer att p(t i > t + s T i > s) = p(t i > t + s X(s) = i) = p(t i > t X() = i). Bara en exponentialfördelad slumpvariabel uppfyller minnelös-egenskapen. Det följer att det finns en ν i > så att p(t i > t) = exp{ ν i t}.

27 Den genomsnittliga tillståndsockupationstiden är /ν i. Satsen ger ett sätt att betrakta en Markovkedja med kontinuerlig tid. Varje gång kedjan väljer ett tillstånd j, väljs en exponentialfördelad tid T j Exp(ν j ), oberoende av andra ockupationstider. När tiden är slut, väljer processen ett nytt tillstånd k enligt en Markovkedja med diskret tid med ettstegstransitionssannolikhet q ij. Transitions matrisen q definerar processen som kallas en lagrad diskret tid Markovkedja... Transitionsintensitet Sannolikheten att processen stannar i tillstånd i för ett kort tidsintervall (t, t + h] ges av p(t i > h) = exp{ ν i h} ν i h + o(h). Sannolikheten för två eller fler språng i ett tidsintervall (t, t + h] är o(h). Det följer att p ii (h) = ν i h + o(h). Kvantiteten ν i är intensiteten för processen X att lämna tillstånd i. När den lämnar i, går processen till tillstånd j med sannolikhet q ij. För i j, följer det att Låt p ij (h) = ν i q ij h + o(h). γ ij = ν i q ij. Kvantiteten γ ij är intensiteten för processen X att hoppa från tillstånd i till tillstånd j. Låt γ ii := ν i, så att p(x(t + h) = i X(t) = i) = ν i h + o(h) = + γ ii h + o(h). Det följer att p i (t + h) = p(x(t + h) = i) + o(h) = j p(x(t + h) = i X(t) = j)p(x(t) = j) + o(h) = j p ji (h)p j (t) + o(h) = i j p j (t)γ ji h + ( + γ ii h)p i (t) + o(h) som ger p i (t + h) p i (t) = j γ ji p j (t)h + o(h), Det följer att d dt p i(t) = j γ ji p j (t). Exempel.3 (Ett enkelt kösystem). Betrakta ett kösystem som har bara två tillstånd. Antingen är systemmet tomt (tillstånd ) eller upptaget (tillstånd ). Tomtiden är exponentialfördelad med parameter α, medan upptagettiden är exponentialfördelad med parameter β. Beräkna p (t) och p (t). 3

28 Lösning Vi använder ν = α, ν = β och γ = α, γ = β, γ = α, γ = β. Ekvationerna är d dt p (t) = αp (t) + βp (t) d dt p (t) = αp (t) βp (t). Också, p + p =. Det ger d dt p (t) = β (α + β)p (t) så att p (t) = där C = p () β/(α + β). Det följer att och β + C exp{ (α + β)t}, α + β p (t) t + p (t) β α + β α α + β. Ekvationen p (t) + p (t) = gäller för alla t.. Många system når balans när t. Det innebär att lim t d dt p i(t) = = lim t j γ ji p j (t). Med π j = lim t p j (t), är ekvationerna Det kan skrivas som γ ji π j =. j ν i π i = i j γ ji π j. Dessa ekvationer kallas balanserande tillståndsekvationer. Sannolikhetsfunktionen π över tillståndsrummet är den stationära fördelningen för Markovkedjan. Om man börjar med en Markovkedja med utgångsfördelning π, följer det att p i (t) = π i för alla t. 4

29 .3 Övningar: stokastiska processer med kontinuerlig tid Översikt Poissonprocessen Händelser (= impulser) inträffar slumpmässigt i tiden. Låt X(t) vara antalet händelser (= impulser) i tidsintervallet (, t). Då är {X(t) : t } en Poissonprocess med intensiteten λ om följande tre villkor är uppfyllda:. Antalet impulser i oförenliga tidsintervall är oberoende.. p(x(t + h) X(t) = ) = λh + o(h) p(x(t + h) X(t) ) = o(h) h >. 3. X() =. X(t) P oiss(λt) och allmänt gäller att antalet impulser under en tid av längden t är P oiss(λt) dvs X(t + s) X(s) är P oiss(λt). Tiderna mellan impulser i en Poissonprocess är oberoende och exponentialfördelade slumpvariabler med väntevärde /λ. Markov-process med kontinuerlig tid p(x(t + h) = j X(t) = i) = γ ij h + o(h) h > ν i = j i γ ij. Stationära fördelningen dvs π n = lim t + p(x(t) = n) n =,,,... satisfierar då ν i π i = γ ji π j j i Födelsedödsprocessen γ j,j+ = λ j, γ j,j = µ j, µ = p(x(t + h) = n + X(t) = n) = λ n h + o(h) p(x(t + h) = n X(t) = n) = µ n h + o(h) p( X(t + h) X(t) ) = o(h) h > λ µ λ λ λ 3 µ 4 µ µ 3 3 FD-processens stationära fördelning dvs π n = lim t + p(x(t) = n) n =,,,... satisfierar då följande balansekvationer, som erhålls ur ovanstående flödesschema. { π λ = π µ π n (λ n + µ n ) = π n λ n + π n+ λ n+ n vilket kan förenklas till π n+ µ n+ = π n λ n n med lösning π n = λ... λ n µ... µ n π där π = + λ µ + λ λ µ µ + λ λ λ µ µ µ

30 Övningar. Händelser inträffar enligt en Poisson-process med parameter λ = händelser per timme. (a) Vad är sannolikheten att ingen händelse inträffar mellan kl. : och kl. :? (b) Man börjar kl. :. Vad är den förväntade tiden tills den fjärde händelsen inträffar? (c) Vad är sannolikheten att två eller fler händelser inträffar mellan kl. 8: och kl. :?. Kunder kommer till en bank enligt en Poisson-process med frekvens λ. Anta att en kund kommer under den första timmen. Vad är sannolikheten att han kommer under de första tjugo minuterna? 3. Anta att folk anländer till en busshållplats enligt en Poisson-process med frekvens λ. Bussen avgår vid tidpunkt t. Anta att exakt en person har kommit vid tidpunkt t. Låt X beteckna tiden han har väntat. (a) Vad är E[X]? (b) Vad är V (X)? 4. Åke och Torbjörn säljer kaffeburkar. Åke tar 7.9 kronor burken, medan Torbjörn tar 9.5 kronor. Till Åke anländer kunder enligt en poissonprocess med intensiteten tolv kunder per timme, medan kunder anländer till Torbjörn enligt en poissonprocess med intensiteten åtta kunder per timme. De båda poissonprocesserna antas vara oberoende. Varje kund köper en burk. Vad är sannolikheten att Åke efter sju timmars försäljning har sålt för mer pengar än Torbjörn? 5. Anrop till en telefonväxel kommer vid tidpunkter som beskrivs av en poissonprocess med intensiteten.6. Om man vet att det i tidsintervallet [, 5] har kommit minst ett anrop, hur stor är den härav betingade sannolikheten att det i det nämnda intervallet har kommit precis ett anrop? 6. Till en viss telefonstation sker anrop enligt en poissonprocess med intensiteten λ = 4 stycken per minut. Antag att ett anrop leder till att ett samtal kopplas upp, att alla samtal varar i exakt minuter och 3 sekunder och bestäm under dessa antaganden sannolikheten att det i ett visst ögonblick skall vara uppkopplat minst 5 samtal. Rimliga approximationer är tillåtna. 7. Kunder antas anlända till ett företag enligt en poissonprocess med intensitet. kunder per timme. En dag motsvarar åtta timmar. Beräkna ett intervall [a, b] som med cirka 9% sannolikhet stänger in antalet kunder som anländer under 5 dagar. 8. En bilfärja skall byggas för ett färjeställe. Bilarna anländer dit enligt en poissonprocess med intensiteten.5 bilar per minut. Det tar tio minuter för färjan att gå fram och tillbaka. Hur många bilar måste färjan byggas för, om sannolikheten för att den skall bli fullbelagd skall vara mindre än 5%? 9. Personer anländer enligt en poissonprocess med intensiteten λ till ett litet hus med ett enda betjäningsställe. Är huset upptaget går anländande gäster därifrån med oförrättat ärende. Varje person som kommer in utnyttjar huset en tid som är exponentialfördelad med parameter µ. Bestäm den stationära fördelningen för antalet personer i huset ( eller förstås).. Till en parkeringsplats med endast fyra platser anländer bilar enligt en poissonprocess med intensiteten två bilar per timme. Om en ankommande bilförare finner någon plats ledig, parkerar han där, men han åker därifrån om alla platser är upptagna. Varje bil som står parkerad kan antas ha sannolikheten h + o(h) att under ett tidsintervall av längden h timmar lämna parkeringsplatsen, och man kan även anta att bilarnas parkeringstider är oberoende av varandra. Om X(t) betecknar antalet parkerade bilar vid tiden t så beräkna den stationära fördelningen (π, π, π, π 3, π 4 ). 6

31 Svar. (a) e. 3 (b) E[T + T + T 3 + T 4 ] = 4. Förväntad tiden är kl. 4: (c) 5e 4 3. Betingad fördelning för ankomst tiden är T U(, t). Låt S = t T, tiden att han måste vänta. (a) E[S] = t E[T ] = t t = t. (b) V (S) = V (T ) = t 4. X P oiss(84) N(84, 84), Y P oiss(56) N(56, 56) 7.9X 9.5Y N(3.6, 96) ( 7.9X 9.5Y 3.6 p(7.9x > 9.5Y ) = p(7.9x 9.5Y > ) = p.5 Φ(.3) = Φ(.3).9 > 3.6 ).5 5. X antalet som kommer i intervallet [, 5]. Det följer att X P oiss(.8). Det följer att p(exakt ett minst ett) =.8e e.8 6. X antalet anrop som kommer i ett tidsintervall [t.5, t] har fördelning X P oiss() som är approximativt N(, ). Det följer att p(x 5) Φ(.45) X = antal kunder under 5 dagar. X P oiss(8) N(8, 8). Intervalet blir då 8 ± = [65, 95]. 8. X = antal bilar till färjan under minuter. Bestäm n så att p(x n) <.5. n = enligt tabell. 9. Ställ upp de stationära tillstånd ekvationerna: ν = λ, γ = λ, ν = µ, γ = µ. Det följer att som ger λπ = µπ π + π = π = µ λ + µ, π = λ λ + µ.. ν =, ν = +, ν = + = 4, ν 3 = + 3 = 5, ν 4 =. γ j,j+ = för j =,,, 3, γ j,j = j för j =,, 3, 4. Ekvationerna är π = π 3π = π + π 4π = 3π 3 + π 5π 3 = 4π 4 + π 4π 4 = π 3. 4 π j = j= (π, π, π, π 3, π 4 ) = (3, 6, 6, 4, ). 7

32 8

33 Kapitel 3 Kösystem 3. Inledning Kapitlet ger en kort inledning till kösystem, med betoning på modeller där systemet kan modelleras av en Markovkedja. Ett kösystem har en ankomstsprocess (till exempel kunder anländer enligt en Poissonprocess), en betjäningsordning (till exempel, betjäningstiden är exponentialfördelad), antalet betjäningsställen och den totala kapaciteten av systemet. Viktiga frågor är: systemets stationära fördelning, fördelningen för den totala tiden en kund är i systemet, tiden en kund står i kö. 3. Little s sats Little s sats är en intuitiv och mycket användbar koppling mellan det genomsnittliga antalet kunder i systemet och ankomstsintensiteten och den genomsnittliga tiden en kund står i systemet. Sats 3. (Little s sats). Låt N vara antalet kunder i systemet och λ den genomnittliga ankomstintensiteten. Låt T vara tiden en kund är i systemet. Om systemet når en stationär fördelning, gäller det att E[N] = λe[t ]. Ingenting antas om fördelningar för N eller T utom att systemet når en stationär för- Anmärkning delning. Bevis (skiss) Låt N(t) vara antalet kunder vid tidpunkt t. Betrakta ett system som är tomt vid tidpunkt t = och beteckna kunders ankomsttider med S, S,.... Låt A(t) antalet kunder som har anlänt innan tidpunkt t och D(t) antalet som har lämnat systemet innan tidpunkt t. Kund i är i systemet under en tid T i och lämnar vid tidpunkt D i = S i + T i. Antalet kunder i systemet vid tidpunkt t är antalet som har anlänt och ännu inte lämnat systemet. N(t) = A(t) D(t). Betrakta det statistiskt genomsnittliga antalet kunder i systemet under tidsintervallet (, t], som är givet av N(t) := t ˆ t N(s) ds. Varje kund ger T i till integranden. Betrakta en tidpunkt t som uppfyller N(t ) =. Vid tidpunkten t, N(t) = t A(t) T i och den genomsnittliga ankomstintensiteten till tidpunkt t är i= λ(t) := A(t). t 9

34 Man kan se det genomsnittliga antalet kunder som A(t) N(t) = λ(t) T i. A(t) Om vi låter T (t) vara den genomsnittliga tiden per kund för de första A(t) kunderna, följer det att i= och T (t) = A(t) A(t) i= T i N(t) = λ(t) T (t). Antagandet att en stationär fördelning nås innebär att då tiden t +, ger de stora talens lag E[N] = λe[t ]. Tillämpningar av Little s sats Om man betraktar N q (t), antalet kunder som väntar i kön som hela systemet, och låter W beteckna väntetiden, ger Little s sats: E[N q ] = λe[w ]. På samma sätt, låt N s (t) antalet kunder som betjänas vid tidpunkt t och låt τ beteckna en betjäningstid. Little s sats ger: E[N s ] = λe[τ]. Om det finns bara en betjäning, kan N s (t) bara vara antingen eller. Det följer att E[N s ] representerar andelen av tiden som betjäningen är upptagen. Låt π = p(n(t) = ) beteckna den stationära sannolikheten att systemet är tomt. Det följer att som ger π = E[N s ] = λe[τ], π = λe[τ], därför att π andelen av tiden som betjäningen är ledig. Det leder till följande definition. Definition 3. (Utnyttjande). Utnyttjandet för ett en-betjänings system ρ defineras som ρ = λe[τ]. Utnyttjandet för ett system med c betjäningar, ρ, defineras som Exempel 3.. ρ = λe[τ]. c Ett kommunikationsnätverk tar emot meddelanden från R källor, med de genomsnittliga ankomstintensiteterna λ,..., λ R respektive. I genomsnitt, finns E[N i ] meddelanden från källan i i nätverket.. Använd Little s sats för att hitta den förväntade tiden E[T i ] som ett typ i meddelande finns i nätverket.. Låt λ vara den totala ankomstintensiteten in i nätverket. Använd Little s sats för att beräkna ett uttryck för den genomsnittliga tiden E[T ] som ett meddelande finns i nätverket, oavsett typ, i termer av E[N i ] : i =,..., R. 3

TAMS79: Föreläsning 10 Markovkedjor

TAMS79: Föreläsning 10 Markovkedjor TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 13 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker Matematisk statistik för D, I, Π och Fysiker Föreläsning 9 Johan Lindström 16 oktober 2018 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03 F9 1/26 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 24 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 2 Maj 2016 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL 8.00 13.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna

Läs mer

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)

b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p) Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 9 JUNI 05 KL 4.00 9.00. Examinator: Boualem Djehiche tel. 790 78 75. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 4 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption

Läs mer

Stokastiska processer och simulering I 24 maj

Stokastiska processer och simulering I 24 maj STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd. Matematisk statistik 24 maj 2016 Lösningar Stokastiska processer och simulering I 24 maj 2016 9 14

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL

TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 208 KL 4.00 9.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 4 Markovprocesser 20 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 4 Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade

Läs mer

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010 TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010 1 1 Stokastiska processer Definition 1.1 En stokastisk process är en familj {X(t);t T } (kan även skrivas {X

Läs mer

Fö relä sning 2, Kö system 2015

Fö relä sning 2, Kö system 2015 Fö relä sning 2, Kö system 2015 Vi ska börja titta på enskilda kösystem som ser ut på följande sätt: Det kan finnas en eller fler betjänare och bufferten kan vara ändlig eller oändlig. Om bufferten är

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 6 Markovprocesser 9 Maj 2016 Johan Westerborn Markovprocesser (1) Föreläsning 6 Föreläsningsplan 1 Förra Föreläsningen 2 Johan Westerborn

Läs mer

Stokastiska processer

Stokastiska processer Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta

Läs mer

1 Stokastiska processer. 2 Poissonprocessen

1 Stokastiska processer. 2 Poissonprocessen 1 Stokastiska processer En stokastisk process är en stokastisk variabel X(t), som beror på en parameter t, kallad tiden. Tiden kan vara kontinuerlig, eller diskret (i vilket fall man brukar beteckna processen

Läs mer

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs

Matematisk statistik KTH. Formel- och tabellsamling i Matematisk statistik, grundkurs Matematisk statistik KTH Formel- och tabellsamling i Matematisk statistik, grundkurs Varterminen 2005 . Kombinatorik ( ) n = k n! k!(n k)!. Tolkning: ( n k mängd med n element. 2. Stokastiska variabler

Läs mer

Tentamen i matematisk statistik, TAMS15/TEN (4h)

Tentamen i matematisk statistik, TAMS15/TEN (4h) LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare

Läs mer

Stokastiska processer och simulering I 24 augusti

Stokastiska processer och simulering I 24 augusti STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016

Läs mer

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL

TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER FREDAGEN DEN 8 AUGUSTI 207 KL 08.00 3.00. Examinator: Boualem Djehiche tel. 790 78 75 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:

Läs mer

Kunna dra slutsatser om ett systems betjäningstider och antalet köplatser genom att tolka diagram.

Kunna dra slutsatser om ett systems betjäningstider och antalet köplatser genom att tolka diagram. Övning 3 Vad du ska kunna efter denna övning Kunna dra slutsatser om ett systems betjäningstider och antalet köplatser genom att tolka diagram Kunna beräkna medeltid i systemet och spärrsannolikhet när

Läs mer

Kunna dra slutsatser om t ex ett systems betjäningstider och antalet köplatser genom att tolka diagram.

Kunna dra slutsatser om t ex ett systems betjäningstider och antalet köplatser genom att tolka diagram. Övning 4 Vad du ska kunna efter denna övning Kunna dra slutsatser om t ex ett systems betjäningstider och antalet köplatser genom att tolka diagram Kunna beräkna medeltid i systemet och spärrsannolikhet

Läs mer

4 Diskret stokastisk variabel

4 Diskret stokastisk variabel 4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används

Läs mer

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1

P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1 Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen

Läs mer

e x/1000 för x 0 0 annars

e x/1000 för x 0 0 annars VK Matematiska institutionen avd matematisk statistik TENTAMEN I 5B506 MATEMATISK STATISTIK GRUNDKURRS FÖR D OCH F, 5B504 MATEMATISK STATISTIK GRUNDKURS FÖR ÄLDRE OCH 5B50 MARKOVPROCESSER ONSDAGEN DEN

Läs mer

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.

** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren. Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 19 AUGUSTI 2016 KL 08.00 13.00. Examinator: Jimmy Olsson tel. 790 72 01. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk

Läs mer

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel.

Övning 1(a) Vad du ska kunna efter denna övning. Problem, nivå A. Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Övning 1(a) Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen

Läs mer

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod.

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. I denna övning kallas ett kösystem som ingår i ett könät oftast nod. Övning 7 Vad du ska kunna efter denna övning Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. Kunna beräkna medeltiden som en kund tillbringar i ett könät utan återkopplingar.

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer

Läs mer

Markovprocesser SF1904

Markovprocesser SF1904 Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade

Läs mer

SF1901 Sannolikhetsteori och statistik I

SF1901 Sannolikhetsteori och statistik I SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska

Läs mer

P =

P = Avd. Matematisk statistik TENTAMEN I SF297 (f d 5B157) TILLFÖRLITLIGHETSTEORI LÖRDAGEN DEN 2 OKTOBER 21 KL 1. 18.. Examinator: Gunnar Englund, tel. 79716, e-postadress: gunnare@math.kth.se Tillåtna hjälpmedel:

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska

Läs mer

Poisson Drivna Processer, Hagelbrus

Poisson Drivna Processer, Hagelbrus Kapitel 6 Poisson Drivna Processer, Hagelbrus Poissonprocessen (igen) Vi har använt Poissonprocessen en hel del som exempel. I den här föreläsningen kommer vi att titta närmare på den, och även andra processer

Läs mer

Kap 3: Diskreta fördelningar

Kap 3: Diskreta fördelningar Kap 3: Diskreta fördelningar Sannolikhetsfördelningar Slumpvariabler Fördelningsfunktion Diskreta fördelningar Likformiga fördelningen Binomialfördelningen Hypergeometriska fördelningen Poisson fördelningen

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Diskreta fördelningar Uwe Menzel, 2018 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Grundläggande matematisk statistik

Grundläggande matematisk statistik Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.

Läs mer

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar.

Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. Övning 8 Vad du ska kunna efter denna övning Kunna beräkna medelantal kunder för alla köer i ett könät utan återkopplingar. Kunna beräkna medeltiden som en kund tillbringar i ett könät utan återkopplingar.

Läs mer

Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar

Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar Sannolikhetslära och inferens II Kapitel 3 Diskreta slumpvariabler och deras sannolikhetsfördelningar 1 Diskreta slumpvariabler En slumpvariabel tilldelar tal till samtliga utfall i ett slumpförsök. Vi

Läs mer

Kunna beräkna P (spärr) för system med begränsat antal kunder och köplatser. Kunna beräkna medelantal upptagna betjänare.

Kunna beräkna P (spärr) för system med begränsat antal kunder och köplatser. Kunna beräkna medelantal upptagna betjänare. Övning 5 Vad du ska kunna efter denna övning Kunna beräkna P (spärr) för system med begränsat antal kunder och köplatser. Kunna beräkna λ eff. Kunna beräkna medelantal upptagna betjänare. Problem. Antag

Läs mer

Kurssammanfattning MVE055

Kurssammanfattning MVE055 Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera

Läs mer

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,

TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, Avd. Matematisk statistik TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, TORSDAGEN DEN 7 JUNI 2012 KL 14.00 19.00 Examinator:Gunnar Englund, 073 3213745 Tillåtna hjälpmedel: Formel- och

Läs mer

4.1 Grundläggande sannolikhetslära

4.1 Grundläggande sannolikhetslära 4.1 Grundläggande sannolikhetslära När osäkerhet förekommer kan man aldrig uttala sig tvärsäkert. Istället använder vi sannolikheter, väntevärden, standardavvikelser osv. Sannolikhet är ett tal mellan

Läs mer

TAMS79 / TAMS65 - vt TAMS79 / TAMS65 - vt Formel- och tabellsamling i matematisk statistik. TAMS79 / TAMS65 - vt 2013.

TAMS79 / TAMS65 - vt TAMS79 / TAMS65 - vt Formel- och tabellsamling i matematisk statistik. TAMS79 / TAMS65 - vt 2013. Formel- och tabellsamling i matematisk statistik c Martin Singull 2 Innehåll 3.3 Tukey s metod för parvisa jämförelser.................... 14 1 Sannolikhetslära 5 1.1 Några diskreta fördelningar.........................

Läs mer

Markovkedjor. Patrik Zetterberg. 8 januari 2013

Markovkedjor. Patrik Zetterberg. 8 januari 2013 Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology April 27, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två numeriska

Läs mer

Tiden i ett tillstånd

Tiden i ett tillstånd Föreläsning 3 I denna föreläsning ska vi behandla markovska kösystem som har ett begränsat antal buffertplatser och även ett begränsat antal kunder. För att kunna göra detta behöver man några resultat

Läs mer

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell

Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori. Jan Grandell Föreläsningsanteckningar i kurs 5B1506 Markovprocesser och köteori Jan Grandell 2 Förord Dessa anteckningar gjordes för mitt privata bruk av föreläsningsmanuskript och har aldrig varit tänkta att användas

Läs mer

Kunna beräkna spärren i ett M/M/m*upptagetsystem. Känna till begreppet utnyttjning av en betjänare och beräkna den.

Kunna beräkna spärren i ett M/M/m*upptagetsystem. Känna till begreppet utnyttjning av en betjänare och beräkna den. Övning 4 Vad du ska kunna efter denna övning Kunna beräkna spärren i ett M/M/m*upptagetsystem. Kunna beräkna den medelantal upptagna betjänare i ett M/M/m*upptagetsystem. Känna till begreppet utnyttjning

Läs mer

Kapitel 5 Multivariata sannolikhetsfördelningar

Kapitel 5 Multivariata sannolikhetsfördelningar Sannolikhetslära och inferens II Kapitel 5 Multivariata sannolikhetsfördelningar 1 Multivariata sannolikhetsfördelningar En slumpvariabel som, när slumpförsöket utförs, antar exakt ett värde sägs vara

Läs mer

Introduktion till statistik för statsvetare

Introduktion till statistik för statsvetare "Det finns inget så praktiskt som en bra teori" November 2011 Repetition Vad vi gjort hitills Vi har börjat med att studera olika typer av mätningar och sedan successivt tagit fram olika beskrivande mått

Läs mer

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL

TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL Avd. Matematisk statistik TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 7907416, e-postadress: gunnare@math.kth.se

Läs mer

Föreläsning 7: Punktskattningar

Föreläsning 7: Punktskattningar Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology September 21, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två

Läs mer

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel Finansiell Statistik (GN, 7,5 hp,, VT 009) Föreläsning Diskreta (LLL Kap 6) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course, 7,5 ECTS,

Läs mer

Tentamen i FMS180/MASC03 Markovprocesser

Tentamen i FMS180/MASC03 Markovprocesser Matematisk statistik Matematikcentrum Lunds Universitet Tentamen i FMS80/MASC03 Markovprocesser 009-05-5 Lösningsförslag. Följande är en möjlighet. 6 5 3 4 Här är tillstånden, och 3 transienta, tillstånd

Läs mer

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH

INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH Läs detta först: INTRODUKTION TILL MARKOVKEDJOR av Göran Rundqvist, KTH Det här kompendiet är avsett som en introduktion till kompendiet av Enger och Grandell. Det är absolut inget fel på det officiella

Läs mer

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016 SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde

Läs mer

Kunna beräkna spärren i ett M/M/m*upptagetsystem.

Kunna beräkna spärren i ett M/M/m*upptagetsystem. Övning 5 Vad du ska kunna efter denna övning Kunna beräkna spärren i ett M/M/m*upptagetsystem. Kunna beräkna den avverkade och erbjudna trafiken i ett M/M/m*upptagetsystem. Känna till enheten Erlang för

Läs mer

Stokastiska Processer

Stokastiska Processer Kapitel 3 Stokastiska Processer Karakteristisk funktion: Den karakteristiska funktionen φ ξ : R n C för en R n -värd s.v. definieras för t R n. φ ξ (t) = E{e iπ(t ξ +...+t nξ n) } = E{e iπtt ξ } Den karakteristiska

Läs mer

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel.

Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret stokastisk variabel. Övning 1 Vad du ska kunna efter denna övning Diskret och kontinuerlig stokastisk variabel. Fördelningsfunktionen för en kontinuerlig stokastisk variabel. Täthetsfunktionen för en kontinuerlig och en diskret

Läs mer

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4) Stat. teori gk, ht 006, JW F5 STOKASTISKA VARIABLER (NCT 5.1-5.3, samt del av 5.4) Ordlista till NCT Random variable Discrete Continuous Probability distribution Probability distribution function Cumulative

Läs mer

Tentamen L9MA30, LGMA30

Tentamen L9MA30, LGMA30 Göteborgs Universitetet GU Lärarprogrammet 017 Matematik 3 för lärare, åk 7-9, Sannolikhetslära och statistik, Matematik 3 för gymnasielärare, Sannolikhetslära och statistik 017-10-0 kl. 08:30-1:30 Examinator:

Läs mer

Kursombud sökes! Kursens syfte är att ge en introduktion till metoder för att förutsäga realtidsegenskaper hos betjäningssystem, i synnerhet för data- och telekommunikationssystem. Såväl enkla betjäningssystem,

Läs mer

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012 Föreläsning 7 Stokastiska Processer och ARIMA Patrik Zetterberg 19 december 2012 1 / 22 Stokastiska processer Stokastiska processer är ett samlingsnamn för Sannolikhetsmodeller för olika tidsförlopp. Stokastisk=slumpmässig

Läs mer

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). STOKASTISKA VARIABLER Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.). Definition 1. En reellvärd funktion definierad på ett utfallsrum Ω kallas en (endimensionell)

Läs mer

Konvergens och Kontinuitet

Konvergens och Kontinuitet Kapitel 7 Konvergens och Kontinuitet Gränsvärdesbegreppet är väldigt centralt inom matematik. Som du förhoppningsvis kommer ihåg från matematisk analys så definieras tex derivatan av en funktion f : R

Läs mer

M/M/m/K kösystem. M/M/m/K kösystem

M/M/m/K kösystem. M/M/m/K kösystem Allmänt om KÖSYSTEM (=betjäningssystem). För att definiera ett kösystem måste vi ange ankomstrocessen ( dvs hur kunder ankommer till systemet) och betjäningsrocess (dvs hur lång tid det tar att betjäna

Läs mer

Kap 2. Sannolikhetsteorins grunder

Kap 2. Sannolikhetsteorins grunder Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker Matematisk statistik för D, I, Π och Fysiker Föreläsning 8 Johan Lindström 9 oktober 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F8 1/26 process Johan Lindström - johanl@maths.lth.se FMSF45/MASB3

Läs mer

TMS136. Föreläsning 4

TMS136. Föreläsning 4 TMS136 Föreläsning 4 Kontinuerliga stokastiska variabler Kontinuerliga stokastiska variabler är stokastiska variabler som tar värden i intervall av den reella axeln Det kan handla om längder, temperaturer,

Läs mer

Grafer och grannmatriser

Grafer och grannmatriser Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på

Läs mer

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2 LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 27 / TEN 2 augusti 218, klockan 8.-12. Examinator: Jörg-Uwe Löbus (Tel: 79-62827) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk

Läs mer

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess Repetition Binomial Poisson Stokastisk process Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess Stas Volkov 217-1-3 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F8: Binomial- och

Läs mer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker max/min Matematisk statistik för D, I, Π och Fysiker Föreläsning 5 Johan Lindström 25 september 218 Johan Lindström - johanl@maths.lth.se FMSF45/MASB3 F5 1/25 max/min Johan Lindström - johanl@maths.lth.se

Läs mer

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel Matematisk statistik 9hp Föreläsning 2: Slumpvariabel Anna Lindgren 6+7 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp Utfall

Läs mer

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012 Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår

Läs mer

Introduktion till statistik för statsvetare

Introduktion till statistik för statsvetare Stockholms universitet November 2011 Data på annat sätt - I Stolpdiagram Data på annat sätt - II Histogram För kvalitativa data som nominal- och ordinaldata infördes stapeldiagram. För kvantitativa data

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Föreläsning 8, Matematisk statistik Π + E

Föreläsning 8, Matematisk statistik Π + E Repetition Binomial Poisson Stokastisk process Föreläsning 8, Matematisk statistik Π + E Sören Vang Andersen 9 december 214 Sören Vang Andersen - sva@maths.lth.se FMS12 F8 1/23 Repetition Binomial Poisson

Läs mer

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4, 19 23.1.2015

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4, 19 23.1.2015 MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4, 19 23.1.2015 Gripenberg I1. Vi antar att antalet telefonsamtal som kommer till ett servicenummer under en tidsperiod med längden

Läs mer

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1 LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 5 / TEN januari 08, klockan 4.00-8.00 Examinator: Jörg-Uwe Löbus (Tel: 0709-6087) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk

Läs mer

Summor av slumpvariabler

Summor av slumpvariabler 1/22 Summor av slumpvariabler Måns Thulin Uppsala universitet thulin@math.uu.se Statistik för ingenjörer 8/2 2013 2/22 Dagens föreläsning Väntevärde och varians Vanliga kontinuerliga fördelningar Parkeringsplatsproblemet

Läs mer

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A Övning 1 Vad du ska kunna efter denna övning Redogöra för begreppen diskret och kontinuerlig stokastisk variabel. Definiera fördelningsfunktionen för en stokastisk variabel. Definiera frekvensfunktionen

Läs mer

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Matematisk statistik 9hp Föreläsning 7: Normalfördelning Matematisk statistik 9hp Föreläsning 7: Normalfördelning Anna Lindgren 29+3 september 216 Anna Lindgren anna@maths.lth.se FMS12/MASB3 F7: normalfördelning 1/18 Kovarians, C(X, Y) Repetition Normalfördelning

Läs mer

Satsen om total sannolikhet och Bayes sats

Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet och Bayes sats Satsen om total sannolikhet Ibland är det svårt att direkt räkna ut en sannolikhet pga att händelsen är komplicerad/komplex. Då kan man ofta använda satsen om

Läs mer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler Jörgen Säve-Söderbergh Stokastisk variabel Singla en slant två gånger. Ω = {Kr Kr, Kr Kl, Kl Kr, Kl Kl}

Läs mer

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3 Kontinuerliga sannolikhetsfördelningar (LLL Kap 7 & 9) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics

Läs mer

Stokastiska processer med diskret tid

Stokastiska processer med diskret tid Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna

Läs mer

Statistik 1 för biologer, logopeder och psykologer

Statistik 1 för biologer, logopeder och psykologer Innehåll 1 Grunderna i sannolikhetslära 2 Innehåll 1 Grunderna i sannolikhetslära 2 Satistik och sannolikhetslära Statistik handlar om att utvinna information från data. I praktiken inhehåller de data

Läs mer

Övning 1 Sannolikhetsteorins grunder

Övning 1 Sannolikhetsteorins grunder Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är

Läs mer

Kapitel 4. Kontinuerliga slumpvariabler och deras sannolikhetsfördelningar. Sannolikhetslära och inferens II

Kapitel 4. Kontinuerliga slumpvariabler och deras sannolikhetsfördelningar. Sannolikhetslära och inferens II Sannolikhetslära och inferens II Kapitel 4 Kontinuerliga slumpvariabler och deras sannolikhetsfördelningar 1 Kontinuerliga slumpvariabler En slumpvariabel som kan anta alla värden på något intervall sägs

Läs mer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 25..26 Jan Grandell & Timo Koski Matematisk statistik 25..26 / 44 Stokastiska

Läs mer

Våra vanligaste fördelningar

Våra vanligaste fördelningar Sida Våra vanligaste fördelningar Matematisk statistik för D3, VT Geometrisk fördelning X är geometriskt fördelad med parameter p, X Geo(p), om P (X = k) = ( p) k p P (X k) = ( p) k för k =,,... Beskriver

Läs mer

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U. Veckoblad 3 Kapitel 3 i Matematisk statistik, Blomqvist U. ya begrepp: likformig fördelning, hypergeometerisk fördelning, Hyp(, n, p), binomialfördelningen, Bin(n, p), och Poissonfördelningen, Po(λ). Standardfördelningarna

Läs mer

Föreläsning 2, FMSF45 Slumpvariabel

Föreläsning 2, FMSF45 Slumpvariabel Föreläsning 2, FMSF45 Slumpvariabel Stas Volkov 2017-09-05 Stanislav Volkov s.volkov@maths.lth.se FMSF45 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp och beteckningar Utfall resultatet

Läs mer

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess

Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess Matematisk statistik 9 hp Föreläsning 8: Binomial- och Poissonfördelning, Poissonprocess Anna Lindgren 4+5 oktober 216 Anna Lindgren anna@maths.lth.se FMS12/MASB3 F8: Binomial och Poisson 1/18 N(μ, σ)

Läs mer

Kunna använda Littles sats för enkla räkningar på kösystem.

Kunna använda Littles sats för enkla räkningar på kösystem. Övning 3 Vad du ska kunna efter denna övning Kunna använda Littles sats för enkla räkningar på kösystem. Känna till begreppen ankomstintensitet, avgångsintensitet, medelavstånd mellan ankomster och medelbetjäningstid

Läs mer