Konvergens och Kontinuitet

Relevanta dokument
Stokastiska Processer

Poisson Drivna Processer, Hagelbrus

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

SF1901 Sannolikhetsteori och statistik I

Mer om kontinuitet. Kapitel K. K.1 Övre och undre gräns

Tentamen LMA 200 Matematisk statistik,

Matematisk statistik för D, I, Π och Fysiker

1.1 Diskret (Sannolikhets-)fördelning

TAMS14/36 SANNOLIKHETSLÄRA GK Poissonprocessen (komplettering) Torkel Erhardsson 14 maj 2010

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Oberoende stokastiska variabler

4 Diskret stokastisk variabel

Matematisk statistik, LMA 200, för DAI och EI den 25 aug 2011

Tentamen den 11 april 2007 i Statistik och sannolikhetslära för BI2

SF1901: Sannolikhetslära och statistik

Veckoblad 3. Kapitel 3 i Matematisk statistik, Blomqvist U.

Övning 1 Sannolikhetsteorins grunder

Serier. egentligen är ett gränsvärde, inte en summa: s n, där s n =

1 Föreläsning V; Kontinuerlig förd.

Uppgift 2) Datum: 23 okt TENTAMEN I MATEMATIK OCH MATEMATISK STATISTIK, kurskod 6H3000

Patologiska funktioner. (Funktioner som på något vis inte beter sig väl)

1.1 Diskret (Sannolikhets-)fördelning

Kap 3: Diskreta fördelningar

SF1625 Envariabelanalys

SF1911: Statistik för bioteknik

Tentamen LMA 200 Matematisk statistik,

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

SF1901 Sannolikhetsteori och statistik I

Veckoblad 3. Kapitel 3 i Matematisk statistik, Dahlbom, U.

SF1901 Sannolikhetsteori och statistik I

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

Lite Kommentarer om Gränsvärden

TMS136. Föreläsning 7

Stokastiska processer och simulering I 24 maj

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Jörgen Säve-Söderbergh

MVE051/MSG Föreläsning 7

TMS136. Föreläsning 5

Föreläsningsanteckningar till kapitel 8, del 2

Tentamen LMA 200 Matematisk statistik, data/elektro

Funktionsserier och potensserier. som gränsvärdet av partialsummorna s n (x) =

Meningslöst nonsens. November 19, 2014

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

Matematisk statistik för D, I, Π och Fysiker

Föreläsning 6, Matematisk statistik Π + E

Markovprocesser SF1904

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

Simulering av Poissonprocesser Olle Nerman, Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp)

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

TMS136. Föreläsning 4

Markovprocesser SF1904

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Läsanvisningar till kapitel

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

x f (x) dx 1/8. Kan likhet gälla i sistnämnda relation. (Torgny Lindvall.) f är en kontinuerlig funktion på 1 x sådan att lim a

Föreläsning 6, FMSF45 Linjärkombinationer

1 Stokastiska processer. 2 Poissonprocessen

TMS136. Föreläsning 5

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Bestäm med hjälp av en lämplig och välmotiverad approximation P (X > 50). (10 p)

Tentamen MVE301 Sannolikhet, statistik och risk

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Tentamen MVE301 Sannolikhet, statistik och risk

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Föreläsning 8, Matematisk statistik Π + E

Våra vanligaste fördelningar

Introduktion till statistik för statsvetare

Matematisk statistik för D, I, Π och Fysiker

TATA42: Föreläsning 5 Serier ( generaliserade summor )

SF1901: Sannolikhetslära och statistik

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Mer om reella tal och kontinuitet

Markovprocesser SF1904

Läsanvisningar till kapitel

en observerad punktskattning av µ, ett tal. x = µ obs = 49.5.

SF1901: Sannolikhetslära och statistik

FACIT: Tentamen L9MA30, LGMA30

Tentamen i Matematisk statistik Kurskod S0001M

Svar till vissa uppgifter från första veckan.

Tentamen MVE301 Sannolikhet, statistik och risk

Om kontinuerliga funktioner

Kursens Kortfrågor med Svar SF1602 Di. Int.

gränsvärde existerar, vilket förefaller vara en naturlig definition (jämför med de generaliserade integralerna). I exemplet ovan ser vi att 3 = 3 n n

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

Matematisk statistik - Slumpens matematik

Om konvergens av serier

Matematisk statistik för D, I, Π och Fysiker

ENDIMENSIONELL ANALYS B1 FÖRELÄSNING XII. Föreläsning XII. Mikael P. Sundqvist

1 Stora talens lag. Laboration 2 Matematisk statistik allmän kurs, MASA01:A, HT Teori. 1.2 Uppgifter

Tentamen MVE301 Sannolikhet, statistik och risk

histogram över 1000 observerade väntetider minuter 0.06 f(x) täthetsfkn x väntetid 1

Tentamen i matematisk statistik, TAMS15/TEN (4h)

SF1922/SF1923: SANNOLIKHETSTEORI OCH INTERVALLSKATTNING. STATISTIK. Tatjana Pavlenko. 24 april 2018

Föreläsning 2, Matematisk statistik för M

Transkript:

Kapitel 7 Konvergens och Kontinuitet Gränsvärdesbegreppet är väldigt centralt inom matematik. Som du förhoppningsvis kommer ihåg från matematisk analys så definieras tex derivatan av en funktion f : R R i punkten x 0 R som gränsvärdet f(x 0 + h) f(x 0 ) h då h 0 och om det existerar, kallar vi det för derivatan i punkten x 0 R av funktionen f och betecknar den f (x 0 ). Vad menas då med limes-utsagan ovan? Jo, att för varje ɛ > 0 så finns det ett δ > 0 så att f(x 0+h) f(x 0 ) h f (x 0 ) < ɛ för h < δ. De två termerna innanför absolutbeloppet kan alltså komma godtyckligt nära varandra genom att välja ett tillräckligt litet h Matematiker faller i två kategorier. De som älskar konvergens, och de som inte älskar konvergens. De förra kallas för analytiker, och de senare för algebraiker. Sannolikhetsteorin är en del av den matematiska analysen, alltså så är konvergens det bästa vi sannolikhetsteoriker vet. Kärt barn har ju som bekant många namn, och redan från den grundläggande analysen har ni säkert hört talas om vanlig konvergens, Cauchy konvergens, absolut konvergens, punktvis konvergens, likformig konvergens, etc. etc. ad infinum. Det visar sig dock att dessa inte räcker för stokastiska processer, utan att man behöver inte mindre än fyra olika sorters konvergens till. Låt ξ 1, ξ 2, ξ 3,... vara en sekvens av stokastiska variabler (med andra ord en tidsdiskret stokastisk process). Redan i grundkursen så gör man gränsvärdes observationer om dessa, till exempel stora talens lag som säger att om alla ξ k är oberoende och har samma fördelning, så går 1 n ξ k n mot E[ξ k ]. Men vad betyder detta går mot egentligen? Vi vet att ξ k egentligen är en funktion ξ k (ω), och om vi drar oss till minnes från analysen, så säger man att en sekvens funktioner f 1, f 2,... konvergerar punktvis mot f om lim k f k (x) = f(x) för alla x. Är punktvis konvergens det vi letar efter? 1

Tänk nu tillbaka till det sannolikhetsrum som vi konstruerade i detalj i en tidigare föreläsning, där utfall ω är oändliga binära strängar av typen 010100111001..., Ω är mängden av alla sådana strängar och sannolikhetsmåttet tilldelar sannolikheten p att varje koordinat blir 1, oberoende av alla andra. Låt ξ k (ω) = ω k (den k-te binära koordinaten). Således är ξ k oberoende och likafördelad för alla k, och E[ξ k ] = p. Gäller nu att 1 n n ξ k(ω) p för alla ω Ω? Självklart inte! 111111... (strängen med bara ettor) tillhör ju Ω, men för den blir genomsnittet alltid 1 även om p är litet. Alltså är punktvis konvergens ett alldeles för starkt krav för att satser som stora talens lag ska kunna gälla i allmänhet. Konvergensidén vi behöver måste vara grundläggande probabilistiskt. Det är inte så att det inte finns några ω för vilka konvergens inte gäller: det viktiga är att sannolikheten för att vi ska få ett sådant ω är 0. (Slug student kanske nu tycker: varför plockar vi inte bara bort sådana dåliga ω ur utfallsmängden. Slug lärare svarar: Hurdå?) Nästan säker konvergens Denna typ av konvergens motiveras av exemplet ovan. Låt ξ 1, ξ 2,... vara en sekvens av n.s. stokastiska variabler, och ξ en enda sådan. Då säger vi att ξ k ξ nästan säkert (n.s.) då k om: P(ξ k ξ) = P({ω Ω : ξ k (ω) ξ(ω)}) = 1. Stora talens lag är ett exempel på sådan konvergens: satsen att stora talens lag gäller n.s. kallas stora talens starka lag ( strong law of large numbers ). Observera att nästan säker egentligen är ett felaktigt namn. Man använder nästan för att påminna om att det är en svagare form av konvergens än punktvis, men faktum är att det är säkert och inte nästan säkert att sekvensen konvergerar! Vi kommer inte att använda nästan säker konvergens mycket i den här kursen, men det tillhör en allmän kunskap i sannolikhetsteori att förstå begreppet. Konvergens i sannolikhet P Man säger att ξ k ξ i sannolikhet om P( ξk ξ > ɛ) 0 för alla ɛ. Konvergens i sannolikhet säger alltså att sannolikheten att ξ k och ξ skiljer sig mycket går mot 0 när k går mot oändligheten. Det är en svagare form konvergens en nästan säker, och oftast lättare att visa: statsen att stora talens lag gäller i sannolikhet kallas stora talens svaga lag ( weak law of large numbers ). Vi kommer inte att använda sannolikhet i konvergens mycket (eller äns alls) i den här kursen. Konvergens i kvadratisk medel Vi säger att ξ k L 2 ξ i kvadratisk medel om E{(ξ k ξ) 2 } 0. Det är ganska lätt att se att om en sekvens stokastiska variabler konvergerar i kvadratiskt medel, så gör de även det i sannolikhet. Konvergens i kvadratisk medel är något som används ganska ofta i teorin om stokastiska processer, och det är den enda typ av konvergens som används utförligt i kursboken. Mer om den nedan. 2

Konvergens i Fördelning Den sista typen av konvergens, skriven ξ k D ξ är konvergens i fördelning, eller svag konvergens, som det också kallas. Sådan konvergens gäller om F ξk F ξ punktvis. Observera att konvergens i fördelning inte egentligen säger vad själva gränsvärdet av ξ k är, bara vad det har för fördelning. Eftersom vi vet två stokastisk variabler kan ha samma fördelning utan att någonsin vara lika, så kan det gälla att ξ k D ξ och att ξk D η även om P(ξ η) = 1. Inte konstigt att denna typ av konvergens kallas svag! Eftersom denna typ av konvergens handlar om fördelningar, så struntar man ofta i att D konstruera ξ och skrivar bara t.ex. ξ k exp(λ) för att visa att konvergensen är mot en exponentialfördelning. Det utan tvekan viktigaste fallet av konvergens i fördelning är centrala gränsvärdes satsen, som säger att: n (ξ k µ) D N(0, 1) nσ 2 när n om ξ k är en sekvens med oberoende, likafördelade s.v. med väntevärde µ och varians σ 2. Vi kan inte säga vilken stokastiska variabel genomsnittet konvergerar mot, men vi vet vad fördelningen närmar sig. Att denna typ av konvergens är svag jämnfört med de andra betyder inte att den är oanvändbar: snarare tvärt om, mycket av sannolikhetsteorin och nästan hela statistiken bygger på teorin om svag konvergens. Vi kommer att använda konvergens i fördelning i den formella motiveringen för Wienerprocessen, och sedan även när vi diskuterar Markovkedjor. Vi kommer inte att hänga upp oss så mycket på konvergens i den här kursen. Om någon tycker att det verkar spännande (och det är det!) så finns det hur mycket som helst att lära sig om varje typ: på högre nivå finns hela kurser i varje typ av konvergens. Vidare om konvergens i kvadratiskt medel Def. 2.6 För R-värda s.v. ξ, ξ 1, ξ 2,... säger vi att ξ k konvergerar i kvadratiskt medel mot L ξ då k, och skriver ξ 2 k ξ eller l.i.m. ξ k = ξ (l.i.m.= limit in mean ), om det gäller k att E{ξ 2 } < samt att E{(ξ k ξ) 2 } 0 då k Sats 2.3 (Momentsatsen) Antag att l.i.m. k ξ k = ξ. Då har vi Om dessutom l.i.m. k η k = η, så har vi också E{ξ k } E{ξ} Var{ξ k } Var{ξ} E{ξ 2 k } E{ξ2 } E{ξ k η k } E{ξη} Cov{ξ k, η k } Cov{ξ, η} 3

Ett användbart sätt att avgöra om en sekvens av stokastiska variabler konvergerar (i kvadratisk mening) mot någon stokastisk variabel får vi nedan genom Cauchy- och Loévekriteriet. Från analysen kommer du kanske ihåg att en sekvens av reella tal x 1, x 2,... är en Cauchysekvens om lim x k x l = 0. Följande sats säger att alla Cauchysekvenser av kvadritiskt k,l integrerbarar 1 stokastiska variabler ξ k konvergerar i kvadratiskt medel mot en kvadratiskt integrerbar s.v. ξ. Sats 2.4 För s.v. ξ 1, ξ 2,... med E{ξk 2 } < för k N, gäller att l.i.m. ξ k = ξ för någon k s.v. ξ om och endast om lim E{(ξ k ξ l ) 2 } = 0 k,l Ett ekvivalent kriterium är Loévekriteriet som dessutom ger följande: l.i.m. k ξ k existerar lim k,l E{ξ kξ l } existerar Sats 2.5 För s.v. ξ 1, ξ 2,... med E{ξk 2 } < gäller att ξ k konvergent E{ξ k ξ l } < l=1 Vidare har vi att ξ k konvergent = E{ ξ k } = E{ξ k } Om dessutom η 1, η 2,... är s.v. med E{ηk 2 } < gäller också att ξ k och η k konvergenta = Cov{ ξ k, η k } = Cov{ξ k, η l } l=1 Notera att vi med ξ k konvergent menar att n ξ L k = Y 2 n Y = ξ k då n. Kontinuitet i Kvadrisk Medel Eftersom vi nu har ett konvergenssätt för stokastiska variabler så kan vi genast definiera kontinuitet av en stokastisk process. Vi håller oss till processer där tidsparameterrummet, T, är kontinuerligt så att kontinuitet för processen har en naturlig mening. Def 3.2 En stokastisk process {X(t)} t T är kontinuerlig i t 0 T om X(t) L2 X(t 0 ) då t t 0, dvs om E{X(t 0 ) 2 } < samt E{(X(t) X(t 0 )) 2 } 0 då t t 0. Nu kommer ett exempel som till en början antagligen verkar förvirrande: 1 Att en stokastisk variabel ξ är kvadratiskt integrerbar betyder att E{ξ 2 } <. 4

Exempel Låt {X(t)} t 0 vara en Poissonprocess med intensitet λ och tag godtyckligt t 0 0. Vi har E{X(t 0 ) 2 } = Var{X(t 0 )} + ( E{X(t 0 )} ) 2 = λt0 + (λt 0 ) 2 < samt E{ ( X(t) X(t 0 ) ) 2 } = Var{(X(t) X(t0 )} + ( E{X(t) X(t 0 )} ) 2 = = V X (t) + V X (t 0 ) 2r X (t, t 0 ) + (λ(t t 0 )) 2 = = λ(t + t 0 2 min(t, t 0 )) + λ 2 (t t 0 ) 2 = = λ t t 0 + λ 2 (t t 0 ) 2 0 då t t 0 Poissonprocessen är alltså kontinuerlig i kvadratisk mening. Men hur kan detta stämma? Varje realisering X(ω 0, t) av en Poissonprocess är ju en stegvis ökande funktion, och sådanna är inte kontinuerliga. Svaret är att vår definition av kontinuitet faktiskt inte kräver att realiseringarna skall vara kontinuerliga. Vår definition går ju ut på att vi först tar väntevärdet av kvadratskillnaden, och sedan låter tidsparametern närma sig, på så sätt medelvärdesbildar vi bort hoppen som man ser i varje enskild realisering. 5