Om Markov Chain Monte Carlo
|
|
- Kjell Lind
- för 6 år sedan
- Visningar:
Transkript
1 Om Markov Chain Monte Carlo Gunnar Englund Matematisk statistik KTH Ht Inledning Markov Chain Monte Carlo MCMC är en modern teknik att simulera komplicerade fördelningar som har fått stora tillämpningar i Matematisk statistik, framför allt vad gäller bildbehandling, statistisk mekanik, Bayesiansk statistik etc. Till skillnad från vanlig simulering genererar man en sekvens utfall enligt en Markovkedja med målfördelningen som stationär och förhoppningsvis asymptotisk fördelning. 2 Ergodsatser och stora talens lag Om en Markovkedja är ergodisk på tillståndsrummet E med den asymptotiska fördelningen πx, x E kan man med godtycklig noggrannhet beräkna storheter av typen E π fx = x E πxfx för godtyckliga funktioner f genom att för en enskild realisering tidsutveckling X 1, X 2, beräkna tidsmedelvärdet f n = 1 n n fx i. i=1 Man kan visa att f n E π fx då n om kedjan är ergodisk. Exempel 2.1 Om vi tar fx = { 1 om x = j 0 annars ser vi att f n =relativa frekvensen av besök i tillståndet j och att E π fx = πj. Detta betyder att vi kan bestämma π-vektorn ur en realisering. 1
2 Exempel 2.2 Om vi tar fx = x, x E är f n = x E x p x där p x =relativa frekvensen av besök i tillstånd x. Å andra sidan betyder E π fx väntevärdet i stationära asymptotiska fördelningen. Exempel 2.3 Om vi tar gx = x 2, x E får vi ĝ n = x E x 2 p x som alltså kan användas för att skatta variansen i π-fördelningen ur en realisering genom ĝ n f n 2 där f n erhålls ur föregående exempel. Jämför V X = EX 2 EX 2. Denna typ av ergodsatser svarar precis mot stora talens lag dvs att med sannolikhet 1 1 n X 1 + X X n EX där X 1, X 2, är oberoende likafördelade stokastiska variabler med samma fördelning som X. På precis samma sätt gäller för godtyckligt f att 1 n fx 1 + fx fx n EfX. Det fiffiga med ergodiska Markovkedjor är alltså att de vad gäller tidsmedelvärden fungerar på samma sätt som om det rörde sig om oberoende variabler. Dock kan konvergenshastigheten bero av Markovkedjans utseende. Vad som beskrivits ovan gäller precis oförändrat om de ingående variablerna är flerdimensionella, t ex d-dimensionella. Vi har alltså i stället för X n en d-dimensionell variabel X n =X n1, X n2,, X nd. Den stokastiska processen X 1, X 2, utgör alltså en Markovkedja med d-dimensionellt tillståndsrum. Om tillståndsrummet är ändligt eller uppräkneligt oändligt är det egentligen ingen skillnad mot det en-dimensionella fallet. Med hjälp av en lång realisering av Markovkedjan kan man alltså approximativt med godtycklig noggrannhet beräkna en massa intressanta storheter rörande π-fördelningen, t ex sannolikheter, väntevärden, medianer, kovarianser mellan komponenter etc. 3 Metropolis-Hastings algoritm Vad man alltså vill göra är att simulera en realisering av Markovkedjan och därigenom kunna approximativt beräkna E π fx genom att beräkna f n för 2
3 något stort n kanske n=10000 eller så och utnyttja det faktum att kedjan är ergodisk och att alltså f n E π fx. I Markov Chain Monte Carlo MCMC använder man detta för att kunna simulera en given d-dimensionell fördelning där d är ganska stor kanske d = 100 eller liknande. Uppgiften är alltså på sätt och vis omvänd mot den vanliga där man ju typiskt vill undersöka om en given Markovkedja är ergodisk och vad den i så fall har för asymptotisk fördelning. Här vill man i stället konstruera en Markovkedja som har en viss given fördelning till asymptotisk fördelning. Detta visar sig mycket lätt genom den s k Metropolis-Hastings algoritm. Oftast är det dessutom mycket lätt att se att kedjan blir ergodisk genom att t ex visa att den blir irreducibel och aperiodisk. Idén i algoritmen är att man utifrån aktuellt värde x ger ett förslag y på nästa värde och sen väljer att acceptera eller förkasta förslaget med en listigt avpassad sannolikhet. Ett förkastat värde innebär att man ligger kvar. Vi har alltså en förslagsfördelning qx, y = P föreslå y aktuellt värde är x. Denna förslagsfördelning kan förvånande nog se ut nästan hur som helst. Förslaget accepteras med sannolikheten αx, y=p acceptera förslaget y givet från läget x. Denna sannolikhet väljes listigt till αx, y = min 1, πyqy, x πxqx, y En liten, men viktig observation är att målfördelningen πx, x E förekommer i både täljare och nämnare och detta betyder att den inte behöver vara normerad, dvs uppfylla πx = 1. x E Detta till synes ovidkommande faktum är av ytterst stort intresse eftersom just normeringen i många tillämpningar är mycket komplicerad då E är stort.. Algoritmen ger uppenbarligen upphov till en tidshomogen Markovkedja, eftersom nästa tillstånd bara beror av närmast föregående tillstånd och dynamiken är oberoende av tiden. Sammanfattningsvis har vi alltså algoritmen 1 Om X n = x : Förslag y till X n+1 enligt förslagsfördelning qx, y. 2 Acceptera förslaget X n+1 = y givet från x med sannolikhet πyqy, x αx, y = min 1, πxqx, y annars X n+1 = x 3
4 Algoritmen innebär att vi för den resulterande Markovkedjan får övergångsmatrisen P där för y x vi har P x, y = P X n+1 = y X n = x = qx, yαx, y eller i ord: För att gå från x till y måste vi först föreslå y från läget x och sen acceptera förslaget. På diagonalen i P -matrisen har vi P x, x = 1 y x P x, y. Detta att ligga kvar i x kan uppstå på två sätt. För det första kan vi tvingas att inte acceptera ett givet förslag eller för det andra, råka föreslå x - detta förslag accepteras ju eftersom αx, x = 1. 4 Tidsreversibilitet Att den resulterande Markovkedjan får πx, x E till stationär fördelning beror på att kedjan blir reversibel med avseende på fördelningen πx, x E, dvs uppfyller πxp x, y = πyp y, x för alla x och y. Detta inses lätt eftersom för x y har vi πyqy, x πxp x, y = πxqx, yαx, y = πxqx, y min 1, = πxqx, y = min πxqx, y, πyqy, x = πyp y, x. För x = y är villkoret trivialt uppfyllt. Man kan lätt visa att en Markovkedja som är reversibel med avseende på en fördelning π har π till stationär fördelning, ty om vi summerar reversibilitetsvillkoret över x erhåller vi P y, x = πy x E πxp x, y = x E πyp y, x = πy x E eftersom vi har radsumman 1 i P -matrisen. Alltså gäller πy = x E πxp x, y vilket jämför p 1 = p 0 P säger att πx, x E är en stationär fördelning. Är kedjan ergodisk är denna stationära fördelning också den asymptotiska oavsett startvärde. Man kan tolka πxp x, y = P X n = xp X n+1 = y X n = x = P X n = x & X n+1 = y 4
5 som ett flöde från x till y och på samma sätt är högerledet πyp y, x = P X n = yp X n+1 = x X n = y = P X n = y & X n+1 = x flödet från y till x. Tidsreversibiliteten innebär alltså att dessa flöden balanserar varandra och det är därför naturligt att kedjan har π som stationär fördelning. Man kan säga att acceptans-sannolikheten αx, y avpassats så att dessa flöden precis balanserar varandra. Exempel 4.1 Låt χ = I J-gitter med 0:or och 1:or. och låt tillståndsrummet vara E = {x χ två grannar inte båda 1}. De tillåtna konfigurationerna är alltså I J-matriser av 0:or och 1:or men där det inte kan stå två 1:or intill varandra i sidled eller höjdled. Om vi tar J = I = 10 har vi ett gitter med 100 punkter och man kan inse att det inte ens är en lätt uppgift att beräkna storleken av E, dvs att bestämma hur många tillåtna konfigurationer det finns! Låt π vara en fördelning på χ som är 0 utanför E, t ex πx=konstant för x E och 0 för övrigt likformig fördelning på E. Notera att vi faktiskt inte vet hur stort E är! Som förslagsfördelning dvs qx, y kan vi ta: Välj nod i, j på måfå med sannolikhet 1/IJ. Välj värde i noden som 0 eller 1 med sannolikhet 1/2 vardera. Eventuellt inträffar att y / E dvs att förslaget innebär en otillåten konfiguration, men då är πy = 0 och alltså αx, y = 0, dvs sådana förslag ignoreras och kedjan ligger kvar där den var. Om y E dvs en tillåten konfiguration accepteras förslaget ty πyqy, x αx, y = min 1, = 1 πxqx, y eftersom qx, y = qy, x och πx = πy. Kedjan är uppenbarligen irreducibel och aperiodisk, dvs ergodisk! Man kan inse detta genom att givet två konfigurationer x och y så kan vi börja med att plocka bort alla 1:or i x och sen sätta dit 1:orna som ingår i y - detta visar irreducibiliteten. Uppenbarligen har vi positiv sannolikhet att ligga kvar i t o m varje tillstånd vilket visar aperiodiciteten. Eftersom kedjan är ändlig är den ergodisk.. Med fx =antal 1:or i x får vi medelantal 1:or ur f n = 1 n n fx i. i=1 Med I = J = 10 erhålls n =
6 1 Eantal 1:or 23.40, 2 Emax antal 1:or i raderna Dessa bådas korrelation Det blir nästan lika lätt med ett allmänt π men då blir acceptanssannolikheten αx, y = min 1, πy πx 5 Specialfall av Metropolis-Hastings algoritm 5.1 Metropolis algoritm Ett intressant specialfall är om vi väljer förslagsfördelningen så att qx, y = qy, x dvs att sannolikheten att föreslå y från x är lika stor som sannolikheten att föreslå x från y. Vi får då acceptanssannolikheten αx, y = min1, πy/πx. Detta kallas Metropolis algoritm. I exemplet ovan användes denna typ av förslagsfördelning. 5.2 Oberoende simulering Om man tar qx, y = πy dvs att förslagsfördelningen är densamma som målfördelningen ser man att αx, y = 1 och alla förslag accepteras alltså och man får oberoende slumptal med fördelningen πx, x E. Oberoende simulering sedvanlig Monte Carlo-metod är alltså ett specialfall av Metropolis- Hastings algoritm. 5.3 Koordinatvis uppdatering En mycket intressant variant då man vill simulera en flerdimensionell fördelning är att uppdatera X n = X n1, X n2,, X nd en koordinat i taget. Vår målfördelning π X1,X 2,,X d x 1, x 2,, x d = π X x är d-dimensionell och vi vill uppdatera en koordinat i taget. Vid uppdatering av koordinat i är alltså alla de övriga konstanta och den enda förändringen som sker är ett byte av värde i koordinat i. Man har alltså vid uppdateringen av koordinat i en förslagsfördelning q i x, y som är 0 om inte y överensstämmer med x för alla koordinater utom nr i. Detta betyder att förslagen från q i lämnar alla koordinater utom nr i oförändrade. Till denna förslagsfördelning q i hör en acceptanssannolikhet α i x, y definierad som ovan fast med utgångspunkt i q i. Detta ger upphov till en övergångsmekanism beskriven av en matris P i. 6
7 I allmänhet löper man systematiskt igenom alla koordinaterna innan man anser att man fått en ny observation i Markovkedjan. Ett steg i Markovkedjan svarar alltså mot en uppdatering av samtliga koordinater. Om vi låter P i vara övergångsmatrisen vid uppdatering av koordinat i består ett steg i Markovkedjan av att vi först applicerar P 1 och sedan P 2 osv t o m P d. Markov-kedjans övergångsmatris är alltså P = P 1 P 2 P d. Orsaken till att vi vill uppdatera alla koordinater innan vi anser oss ha fått ett nytt tillstånd är att kedjan annars inte skulle vara tidshomogen. En alternativ metod som ger en tidshomogen Markovkedja skulle vara att lotta fram en koordinat I lika sannolikheter för alla d koordinater och sen uppdatera denna med hjälp av motsvarande matris P i. 5.4 Gibbs-sampling Ett mycket viktigt, intressant och praktiskt användbart specialfall av koordinatvis uppdatering enligt Metropolis-Hastings algoritm är Gibbs-sampling som innebär ett mycket speciellt val av förslagsfördelning q i vid uppdateringen av koordinat i. Man låter helt enkelt förslagsfördelningen q i vara den betingade fördelningen för X i givet alla de övriga koordinaterna. Vi försöker alltså konstruera en d-dimensionell Markovkedja med målfördelningen π X1,X 2,,X d x 1, x 2,, x d = π X x som täthet sannolikhetsfunktion. Vid Gibbs-sampling gör man alltså detta genom att uppdatera en koordinat i taget med den betingade fördelningen för denna komponent givet alla de övriga, dvs för koordinat nr i låter vi förslagsfördelningen vara P X i = y X 1 = x 1 ; X 2 = x 2 ; ; X i 1 = x i 1 ; X i+1 = x i+1 ; ; X d = x d där vi alltså bara ändrar koordinat i och lämnar de övriga oförändrade. Man kan ganska lätt visa att acceptanssannolikheten för detta förslag är Exempel på Gibbs-sampling: Ising-modell för spinn Som ett icke-trivialt exempel på att det kan vara lätt att simulera en mycket komplicerad fördelning tar vi följande exempel med anknytning till Statistisk mekanik. En enkel två-dimensionell modell för magnetiskt spinn är att vi har ett n m gitter S = {i, j : i = 1, 2,, n, j = 1, 2,, m}. I dessa nm punkter finns slumpmässiga spinn X i,j som kan anta värdena +1 och 1 som svarar mot spinn upp respektive spinn ner. Vi låter X = X i,j, i, j S. Vi har då ett utfallsrum Ω för X med 2 nm tänkbara utfall. 7
8 Notera att även om gittret är så litet som finns tänkbara konfigurationer. Vi vill nu simulera ett sådant utfall. Problemet är att vi antar att det finns en temperaturberoende växelverkan mellan de olika gitterpunkterna och då framför allt mellan gitterpunkter som ligger nära varandra. Vi definierar en omgivning Ni, j till gitterpunkten i, j t ex där i, j ligger i mitten och 1:or står för omgivningspunkter. Ett annat tänkbart utseende på omgivningen skulle vara Växelverkan sker primärt endast mellan mittpunkten och dess grannar, men detta beroende fortplantas genom gittret till att bli ett beroende som kanske sträcker sig över stora områden. Ofta knyter man ihop vänster- och högerkanten, respektive över- och underkanten av S för att slippa randeffekter. Vi definierar en energi Ex = J i,j S i,j Ni,j x i,j x i,j där J > 0 kvantifierar växelverkans storlek. Detta innebär att energin är låg stabilt tillstånd om näraliggande gitterpunkter har samma spinn-riktning. Vi antar nu för ett fixt värde på parametern β > 0 att där Z är en normeringskonstant dvs p β x = P X = x = e βex Z Z = y Ω e βey Den som kan lite statistisk mekanik ser att Z är tillståndssumman och att p β x utgör den s k kanoniska fördelningen eller Gibbsfördelningen. Parametern β svarar fysikaliskt mot 1/temperaturen. Systemet antas alltså vara placerat i ett stort omgivande system värmebad med temperatur 1/β som det utbyter energi med. Det är uppenbart att tillståndssumman Z är extremt besvärlig att beräkna, medan Ex är förhållandevis enkel. Z kan ju som i exemplet ovan kunna bestå av termer! Man vill gärna simulera p β -fördelningen och helst för ett tätt gitter av β-värden eftersom en hel del termodynamiskt intressanta storheter som t ex specifikt 8
9 Spin då temperaturen är hög Figur 1: Spin i Ising-modell då temperaturen är hög. värme kan beräknas ur p β -fördelningen. Ett typiskt utseende av spinnen på gittret är att för låga β-värden svarande mot höga temperaturer är de olika gitterpunkternas spinn rätt oberoende av varandra se figur 1, medan för höga β-värden dvs låga temperaturer har stora regioner av S samma spinnriktning se figur 2. Vid en viss kritisk temperatur sker ett dramatiskt omslag av uppträdandet över den temperaturen är spinnen kaotiska, men under den temperaturen får stora regioner av S samma magnetisering, s k fasövergångar. Det finns alltså stort intresse av att kunna simulera uppträdandet av dessa spinn-system. Hur kan man nu simulera sådana spinn, dvs hur får man ett utfall från p β - fördelningen? Idén är att för fixt β konstruera en Markovkedja X = X i,j ; i, j S som har p β till asymptotisk fördelning. Vad man gör är att utifrån en godtycklig spinn-konfiguration successivt uppdatera de nm gitterpunkternas spinn med fördelningen för just det spinnet betingat av alla de övrigas aktuella värde! Om vi låter x i,j beteckna spinnen i alla punkter i gittret S utom i punkten i, j så inser man att fördelningen för spinnet i i, j givet alla de övriga blir P X i,j = 1 X i,j = x i,j = Jfr P A B = P A B/P B = = P X i,j = 1; X i,j = x i,j P X i,j = x i,j = = Jfr P A = P A B + P A B = P X i,j = 1; X i,j = x i,j P X i,j = 1; X i,j = x i,j + P X i,j = 1; X i,j = x i,j = 9
10 Spin då temperaturen är låg = Figur 2: Spin i Ising-modell då temperaturen är låg. exp βex i,j = 1; X i,j = x i,j exp βex i,j = 1; X i,j = x i,j + exp βex i,j = 1; X i,j = x i,j = förkorta med sista termen i nämnaren = exp β EX i,j = 1; X i,j = x i,j EX i,j = 1; X i,j = x i,j exp β EX i,j = 1; X i,j = x i,j EX i,j = 1; X i,j = x i,j + 1. Men uttrycket i exp-funktionerna blir EX i,j = +1; X i,j = x i,j EX i,j = 1; X i,j = x i,j = = J +1x i,j + J 1x i,j = 2J i,j Ni,j i,j Ni,j i,j Ni,j x i,j och detta sista blir 2J N + i, j N i, j där N + i, j=antalet spinn upp i Ni, j och N i, j = antalet spinn ner i Ni, j, dvs i omgivningen till i, j. Alltså får vi och P X i,j = +1 X i,j = x i,j = exp 2βJN + i, j N i, j exp 2βJN + i, j N i, j + 1 P X i,j = 1 X i,j = x i,j = 1 P Xi,j = +1 X i,j = x i,j = = 1 exp 2βJN + i, j N i, j + 1. Betingade fördelningen för X i,j givet alla övriga spinn beror alltså enkelt av bara antalet spinn upp respektive ner bland närmaste grannarna, dvs de som de primärt växelverkar med. 10
11 Vi kan då uppdatera en spinn-punkt i taget där sannolikheten för spinn=+1 resp spinn= 1 bara beror på ovanstående sätt av spinnen bland de närmsta grannarna. Vi stegar alltså runt gittret en gitterpunkt i taget och uppdaterar den med alla andra fixa. När vi så vandrat runt gittret ett helt varv har vi fått en ny observation av X. Detta utgör då en irreducibel aperiodisk Markovkedja som har p β till stationär fördelning och vi kan således på detta sätt simulera p β. Detta att uppdatera en komponent i taget i X med den betingade fördelningen givet de övriga komponenterna är essensen i den s k Gibbs-algoritmen eller Gibbs-samplern. 11
Markov Chain Monte Carlo, contingency tables and Gröbner bases
Markov Chain Monte Carlo, contingency tables and Gröbner bases Diaconis, P., Sturmfels, B. (998. Algebraic algorithms for sampling from conditional distributions. Gunnar Englund Annals of Statistics Vol.
Lycka till!
VK Matematiska institutionen avd matematisk statistik TENTAMEN I 5B1555 DATORINTENSIVA METODER ONSDAGEN DEN 24 MAJ 2006 KL 14.00 19.00. Examinator: Gunnar Englund, tel. 7907416. Email: gunnare@math.kth.se
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 4 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 2 Markovprocesser 30 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 2 Föreläsningsplan 1 Förra Föreläsningen 2 Absorption
Stokastiska processer och simulering I 24 maj
STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd. Matematisk statistik 24 maj 2016 Lösningar Stokastiska processer och simulering I 24 maj 2016 9 14
TAMS79: Föreläsning 10 Markovkedjor
TAMS79: Föreläsning 0 Markovkedjor Johan Thim december 08 0. Markovkedjor Vi ska nu betrakta en speciell tidsdiskret diskret stokastisk process, nämligen Markovkedjan. Vi börjar med en definition Definition.
e x/1000 för x 0 0 annars
VK Matematiska institutionen avd matematisk statistik TENTAMEN I 5B506 MATEMATISK STATISTIK GRUNDKURRS FÖR D OCH F, 5B504 MATEMATISK STATISTIK GRUNDKURS FÖR ÄLDRE OCH 5B50 MARKOVPROCESSER ONSDAGEN DEN
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 16 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 3 Markovprocesser 13 April 2016 Johan Westerborn Markovprocesser (1) Föreläsning 3 Föreläsningsplan 1 Förra Föreläsningen 2 Markovprocesser
Markovkedjor. Patrik Zetterberg. 8 januari 2013
Markovkedjor Patrik Zetterberg 8 januari 2013 1 / 15 Markovkedjor En markovkedja är en stokastisk process där både processen och tiden antas diskreta. Variabeln som undersöks kan både vara numerisk (diskreta)
P(X nk 1 = j k 1,..., X n0 = j 0 ) = j 1, X n0 = j 0 ) P(X n0 = j 0 ) = etc... P(X n0 = j 0 ) ... P(X n 1
Kaitel 1 Mer Markovkedjor Med att secificera en Markovkedja menar vi att man bestämmer övergångsmatrisen P. Detta säger ju allt om dynamiken för rocessen. Om vi dessutom vet hur kedjan startar, dvs startfördelningen
TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL
Avd. Matematisk statistik TENTAMEN I SF2937 (f d 5B1537) TILLFÖRLITLIGHETSTEORI TORSDAGEN DEN 14 JANUARI 2010 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 7907416, e-postadress: gunnare@math.kth.se
Övning 1 Sannolikhetsteorins grunder
Övning 1 Sannolikhetsteorins grunder Två händelser A och B är disjunkta om {A B} =, det vill säga att snittet inte innehåller några element. Om vi har en mängd händelser A 1, A 2, A 3,..., A n, vilka är
TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL
Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 17 AUGUSTI 2018 KL 8.00 13.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna
P =
Avd. Matematisk statistik TENTAMEN I SF297 (f d 5B157) TILLFÖRLITLIGHETSTEORI LÖRDAGEN DEN 2 OKTOBER 21 KL 1. 18.. Examinator: Gunnar Englund, tel. 79716, e-postadress: gunnare@math.kth.se Tillåtna hjälpmedel:
Stokastiska processer och simulering I 24 augusti
STOCKHOLMS UNIVERSITET LÖSNINGAR MATEMATISKA INSTITUTIONEN Stokastiska processer och simulering I Avd Matematisk statistik 24 augusti 2016 Lösningar Stokastiska processer och simulering I 24 augusti 2016
SF1901: Sannolikhetslära och statistik
SF9: Sannolikhetslära och statistik Föreläsning 3. Stokastiska variabler, diskreta och kontinuerliga Jan Grandell & Timo Koski 8.9.28 Jan Grandell & Timo Koski () Matematisk statistik 8.9.28 / 45 Stokastiska
TENTAMEN I SF1904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 2018 KL
Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 29 MAJ 208 KL 4.00 9.00. Examinator: Björn-Olof Skytt tel. 790 86 49 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:
Matematisk statistik för D, I, Π och Fysiker
Matematisk statistik för D, I, Π och Fysiker Föreläsning 9 Johan Lindström 16 oktober 2018 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03 F9 1/26 Johan Lindström - johanl@maths.lth.se FMSF45/MASB03
b) Vad är sannolikheten att personen somnar i lägenheten? (4 p) c) Hur många gånger förväntas personen byta rum? (4 p)
Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER TISDAGEN DEN 9 JUNI 05 KL 4.00 9.00. Examinator: Boualem Djehiche tel. 790 78 75. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk
LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 5 / TEN januari 08, klockan 4.00-8.00 Examinator: Jörg-Uwe Löbus (Tel: 0709-6087) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
Bayesianska numeriska metoder II
Bayesianska numeriska metoder II T. Olofsson Gibb's sampling Vi har sett att en viktig teknik vid Bayesiansk inferens är s.k marginalisering vilket, för kontinuerliga variabler, innebär att vi integrerar
Uppgift 1. f(x) = 2x om 0 x 1
Avd. Matematisk statistik TENTAMEN I Matematisk statistik SF1907, SF1908 OCH SF1913 TORSDAGEN DEN 30 MAJ 2013 KL 14.00 19.00. Examinator: Gunnar Englund, 073 321 3745 Tillåtna hjälpmedel: Formel- och tabellsamling
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 4 7 november 2017 1 / 29 Idag Förra gången Viktiga kontinuerliga fördelningar (Kap. 3.6) Fördelningsfunktion (Kap. 3.7) Funktioner av stokastiska
Härledning av Black-Littermans formel mha allmänna linjära modellen
Härledning av Black-Littermans formel mha allmänna linjära modellen Ett sätt att få fram Black-Littermans formel är att formulera problemet att hitta lämpliga justerade avkastningar som ett skattningsproblem
** a) Vilka värden ska vara istället för * och **? (1 p) b) Ange för de tre tillstånden vilket som svarar mot 0,1,2 i figuren.
Avd. Matematisk statistik TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 19 AUGUSTI 2016 KL 08.00 13.00. Examinator: Jimmy Olsson tel. 790 72 01. Tillåtna hjälpmedel: Formel- och tabellsamling i Matematisk
Grafer och grannmatriser
Föreläsning 2, Linjär algebra IT VT2008 Som avslutning på kursen ska vi knyta samman linjär algebra med grafteori och sannolikhetsteori från första kursen. Resultatet blir så kallade slumpvandringar på
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 24 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen
Stokastiska processer
Stokastiska processer Fredrik Olsson, fredrik.olsson@iml.lth.se Avdelningen för produktionsekonomi Lunds tekniska högskola, Lunds universitet Dessa förläsningsanteckningar kommer att behandla diskreta
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 5 Markovprocesser 2 Maj 2016 Johan Westerborn Markovprocesser (1) Föreläsning 5 Föreläsningsplan 1 Förra Föreläsningen 2 Poissonprocessen
Tentamen i matematisk statistik, TAMS15/TEN (4h)
LINKÖPINGS UNIVERSITET Kurskod: TAMS1 Matematiska institutionen Provkod: TEN1 Johan Thim Datum: 2018-12-42 Institution: MAI Tentamen i matematisk statistik, TAMS1/TEN1 2018-12-42 (4h Hjälpmedel är: miniräknare
Matematisk statistik TMS064/TMS063 Tentamen
Matematisk statistik TMS64/TMS63 Tentamen 29-8-2 Tid: 4:-8: Tentamensplats: SB Hjälpmedel: Bifogad formelsamling och tabell samt Chalmersgodkänd räknare. Kursansvarig: Olof Elias Telefonvakt/jour: Olof
TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS,
Avd. Matematisk statistik TENTAMEN I SF1906 (f d 5B1506) MATEMATISK STATISTIK GRUNDKURS, TORSDAGEN DEN 7 JUNI 2012 KL 14.00 19.00 Examinator:Gunnar Englund, 073 3213745 Tillåtna hjälpmedel: Formel- och
Exempel. Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V) mulet (M) regn (R)
Exempel Vi observerar vädret och klassificerar det i tre typer under en följd av dagar. vackert (V mulet (M regn (R Exempel Vackert idag vackert imorgon sannolikheten 0.6 Vackert idag mulet imorgon sannolikheten
Tentamen i FMS180/MASC03 Markovprocesser
Matematisk statistik Matematikcentrum Lunds Universitet Tentamen i FMS80/MASC03 Markovprocesser 009-05-5 Lösningsförslag. Följande är en möjlighet. 6 5 3 4 Här är tillstånden, och 3 transienta, tillstånd
Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer
Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer Anna Lindgren 27+28 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F6: linjärkombinationer 1/21 sum/max/min V.v./var Summa av
Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORLABORATION 4 MATEMATISK STATISTIK, FÖR I/PI, FMS 121/2, HT-3 Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 6 13 november 2017 1 / 29 Idag Förra gången Mer om väntevärden och varianser (Kap. 5.2 5.3) Beroendemått (Kap. 5.4) Summor, linjärkombinationer
SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.
SF1901: Sannolikhetslära och statistik Föreläsning 5. Flera stokastiska variabler. Jan Grandell & Timo Koski 31.01.2012 Jan Grandell & Timo Koski () Matematisk statistik 31.01.2012 1 / 30 Flerdimensionella
0 om x < 0, F X (x) = c x. 1 om x 2.
Avd. Matematisk statistik TENTAMEN I SF193 SANNOLIKHETSLÄRA OCH STATISTIK FÖR 3-ÅRIG Media TIMEH MÅNDAGEN DEN 16 AUGUSTI 1 KL 8. 13.. Examinator: Gunnar Englund, tel. 7974 16. Tillåtna hjälpmedel: Läroboken.
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 3 4 november 2016 1 / 28 Idag Förra gången Stokastiska variabler (Kap. 3.2) Diskret stokastisk variabel (Kap. 3.3 3.4) Kontinuerlig stokastisk
Kap 2. Sannolikhetsteorins grunder
Kap 2. Sannolikhetsteorins grunder Olika händelser och deras mängbetäckningar Sats 2.7 Dragning utan återläggning av k element ur n (utan hänsyn till ordning) kan ske på ( n ) olika sätt k För två händelser
Faderns blodgrupp Sannolikheten att barnet skall få blodgrupp A0 A0 1/2 AA 1 AB 1/2 Övriga 0
Avd. Matematisk statistik TENTAMEN I 5B1504 MATEMATISK STATISTIK GRUNDKURS FÖR E3 LÖRDAGEN DEN 30 AUGUSTI 2003 KL 08.00 13.00. Examinator: Gunnar Englund, tel. 790 7416. Tillåtna hjälpmedel : Formel- och
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser 25 Mars 2015 Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer
SF1911: Statistik för bioteknik
SF1911: Statistik för bioteknik Föreläsning 6. TK 14.11.2016 TK Matematisk statistik 14.11.2016 1 / 38 Lärandemål Stokastiska modeller för kontinuerliga datatyper Fördelningsfunktion (cdf) Sannolikhetstäthetsfunktion
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 4 Markovprocesser 20 April 2015 Johan Westerborn Markovprocesser (1) Föreläsning 4 Föreläsningsplan 1 Förra Föreläsningen 2 Innbäddade
SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016
SF1901: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 4 KONTINUERLIGA STOKASTISKA VARIABLER Tatjana Pavlenko 7 september 2016 PLAN FÖR DAGENS FÖRELÄSNING Repetition av diskreta stokastiska variabler. Väntevärde
SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018
SF1922/SF1923: SANNOLIKHETSTEORI OCH STATISTIK FÖRELÄSNING 3 DISKRETA STOKASTISKA VARIABLER Tatjana Pavlenko 23 mars, 2018 PLAN FÖR DAGENSFÖRELÄSNING Repetition av betingade sannolikheter, användbara satser
Konvergens och Kontinuitet
Kapitel 7 Konvergens och Kontinuitet Gränsvärdesbegreppet är väldigt centralt inom matematik. Som du förhoppningsvis kommer ihåg från matematisk analys så definieras tex derivatan av en funktion f : R
Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering
Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering Anna Lindgren 8+9 september 216 Anna Lindgren - anna@maths.lth.se FMS12/MASB3: transform 1/11 Stokastisk variabel Kvantil Stokastisk
Stokastiska processer med diskret tid
Stokastiska processer med diskret tid Vi tänker oss en följd av stokastiska variabler X 1, X 2, X 3,.... Talen 1, 2, 3,... räknar upp tidpunkter som förflutit från startpunkten 1. De stokastiska variablerna
Matematisk statistik 9 hp Föreläsning 4: Flerdim
Matematisk statistik 9 hp Föreläsning 4: Flerdim Johan Lindström 3+4 september 26 Johan Lindström - johanl@maths.lth.se FMS2 F4: Flerdim /5 Transformer Inversmetoden Transformation av stokastiska variabler
Teoretisk statistik. Gunnar Englund Matematisk statistik KTH. Vt 2005
Teoretisk statistik Gunnar Englund Matematisk statistik KTH Vt 2005 Inledning Vi skall kortfattat behandla aspekter av teoretisk statistik där framför allt begreppet uttömmande (ibland kallad tillräcklig
LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2
LINKÖPINGS UNIVERSITET Matematiska institutionen EXAM TAMS 27 / TEN 2 augusti 218, klockan 8.-12. Examinator: Jörg-Uwe Löbus (Tel: 79-62827) Tillåtna hjälpmedel är en räknare, formelsamling i matematisk
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh
SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler Jörgen Säve-Söderbergh Stokastisk variabel Singla en slant två gånger. Ω = {Kr Kr, Kr Kl, Kl Kr, Kl Kl}
Fö relä sning 2, Kö system 2015
Fö relä sning 2, Kö system 2015 Vi ska börja titta på enskilda kösystem som ser ut på följande sätt: Det kan finnas en eller fler betjänare och bufferten kan vara ändlig eller oändlig. Om bufferten är
Kovarians och kriging
Kovarians och kriging Bengt Ringnér November 2, 2007 Inledning Detta är föreläsningsmanus på lantmätarprogrammet vid LTH. 2 Kovarianser Sedan tidigare har vi, för oberoende X och Y, att VX + Y ) = VX)
Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer
Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer Stas Volkov Stanislav Volkov s.volkov@maths.lth.se FMSF20 F5: linjärkombinationer 1/20 sum/max/min V.v./var Summa av två oberoende, Z
Bayesiansk statistik utan tårar
Bayesiansk statistik utan tårar Lennart Robertson, SMHI Lånad titel A.F.M Smith A.E Gelfand American Statistician 1992 2 Innehåll Ett litet exempel Några enkla statistiska betraktelser Bayes teorem Bayesiansk
Föreläsning 6, Matematisk statistik Π + E
Repetition Kovarians Stora talens lag Gauss Föreläsning 6, Matematisk statistik Π + E Sören Vang Andersen 2 december 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F6 1/20 Repetition Kovarians Stora
SF1901 Sannolikhetsteori och statistik I
SF1901 Sannolikhetsteori och statistik I Jimmy Olsson Föreläsning 7 15 november 2017 1 / 28 Lite om kontrollskrivning och laborationer Kontrollskrivningen omfattar Kap. 1 5 i boken, alltså Föreläsning
Sannolikheten för att barnet skall få blodgrupp A0 A0 1/2 AA 1 AB 1/2 Övriga 0
Avd. Matematisk statistik TENTAMEN I SF191, SANNOLIKHETSTEORI OCH STATISTIK, ONSDAGEN DEN 1:A JUNI 216 KL 8. 13.. Kursledare: Thomas Önskog, 8-79 84 55 Tillåtna hjälpmedel: Formel- och tabellsamling i
Föreläsning 7: Punktskattningar
Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology September 21, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två
0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.
Avd. Matematisk statistik TENTAMEN I SF9, SF95 SANNOLIKHETSTEORI OCH STATISTIK, MÅNDAGEN DEN 2:E JANUARI 25 KL 4. 9.. Kursledare: Gunnar Englund, 73 32 37 45 Tillåtna hjälpmedel: Formel- och tabellsamling
Betingning och LOTS/LOTV
Betingning och LOTS/LOTV Johan Thim (johan.thim@liu.se 4 december 018 Det uppstod lite problem kring ett par uppgifter som hanterade betingning. Jag tror problemen är av lite olika karaktär, men det jag
Kurssammanfattning MVE055
Obs: Detta är enbart tänkt som en översikt och innehåller långt ifrån allt som ingår i kursen (vilket anges exakt på hemsidan). Fullständiga antaganden i satser kan saknas och fel kan förekomma så kontrollera
Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper
Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper Tobias Abenius February 21, 2012 Envägs variansanalys (ANOVA) I envägs variansanalys utnyttjas att
4 Diskret stokastisk variabel
4 Diskret stokastisk variabel En stokastisk variabel är en variabel vars värde bestäms av utfallet av ett slumpmässigt försök. En stokastisk variabel betecknas ofta med X, Y eller Z (i läroboken används
Markovprocesser SF1904
Markovprocesser SF1904 Johan Westerborn johawes@kth.se Föreläsning 1 Markovprocesser Johan Westerborn Markovprocesser (1) Föreläsning 1 Föreläsningsplan 1 Kursinformation 2 Stokastiska processer 3 Betingade
bli bekant med summor av stokastiska variabler.
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORÖVNING 2 MATEMATISK STATISTIK FÖR E FMSF20 Syfte: Syftet med dagens laborationen är att du skall: få förståelse för diskreta, bivariate
Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla punktskattningar
Lunds tekniska högskola Matematikcentrum Matematisk statistik Laboration 3 Matematisk statistik AK för CDIFysiker, FMS012/MASB03, HT15 Laboration 3: Stora talens lag, centrala gränsvärdessatsen och enkla
Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK DATORLABORATION 4 MATEMATISK STATISTIK, AK FÖR I, FMS 120, HT-00 Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar
Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel.
Övning 2 Vad du ska kunna efter denna övning Kunna definiera laplacetransformen för en kontinuerlig stokastisk variabel. Kunna definiera z-transformen för en diskret stokastisk variabel. Kunna beräkna
TENTAMEN I SF1904 MARKOVPROCESSER FREDAGEN DEN 18 AUGUSTI 2017 KL
Avd. Matematisk statistik TENTAMEN I SF904 MARKOVPROCESSER FREDAGEN DEN 8 AUGUSTI 207 KL 08.00 3.00. Examinator: Boualem Djehiche tel. 790 78 75 Kursansvarig: Björn-Olof Skytt tel. 790 86 49 Tillåtna hjälpmedel:
Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013
Föreläsning 11 Slumpvandring och Brownsk Rörelse Patrik Zetterberg 11 januari 2013 1 / 1 Stokastiska Processer Vi har tidigare sett exempel på olika stokastiska processer: ARIMA - Kontinuerlig process
Simulering av Poissonprocesser Olle Nerman, Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp)
Simulering av Poissonprocesser Olle Nerman, 2015-09-28 Grupprojekt i MSG110,GU HT 2015 (max 5 personer/grupp) Frågeställning: Hur åstadkommer man en realisering av en Poissonprocess på ett tidsintervall
Våra vanligaste fördelningar
Sida Våra vanligaste fördelningar Matematisk statistik för D3, VT Geometrisk fördelning X är geometriskt fördelad med parameter p, X Geo(p), om P (X = k) = ( p) k p P (X k) = ( p) k för k =,,... Beskriver
Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel
Finansiell Statistik (GN, 7,5 hp,, VT 009) Föreläsning Diskreta (LLL Kap 6) Department of Statistics (Gebrenegus Ghilagaber, PhD, Associate Professor) Financial Statistics (Basic-level course, 7,5 ECTS,
Formler och tabeller till kursen MSG830
Formler och tabeller till kursen MSG830 Deskriptiva mått För ett datamängd x 1,, x n denieras medelvärde standardavvikelse standardfelet (SEM) Sannolikheter x = 1 n n i=1 = x 1 + + x n n s = 1 n (x i x)
Grundläggande matematisk statistik
Grundläggande matematisk statistik Kontinuerliga fördelningar Uwe Menzel, 8 www.matstat.de Begrepp fördelning Hur beter sig en variabel slumpmässigt? En slumpvariabel (s.v.) har en viss fördelning, d.v.s.
Bayesianska numeriska metoder I
Baesianska numeriska metoder I T. Olofsson Marginalisering En återkommende teknik inom Baesiansk inferens är det som kallas för marginalisering. I grund och botten rör det sig om tillämpning av ett specialfall
Lycka till!
Avd. Matematisk statistik TENTAMEN I 5B1503 STATISTIK MED FÖRSÖKSPLANERING FÖR K OCH B MÅNDAGEN DEN 25 AUGUSTI 2003 KL 14.00 19.00. Examinator: Gunnar Englund, 790 7416. Tillåtna hjälpmedel: Formel- och
1 Minkostnadsflödesproblem i nätverk
Krister Svanberg, april 2012 1 Minkostnadsflödesproblem i nätverk Ett nätverk består av en given mängd noder numrerade från 1 till m (där m är antalet noder) samt en given mängd riktade bågar mellan vissa
SF1901: Sannolikhetslära och statistik
SF1901: Sannolikhetslära och statistik Föreläsning 4. Funktioner av s.v:er, Flera stokastiska variabler. Marginell sannolikhetsfunktion och -täthetsfunktion. Oberoende sv:er, Maximum och minimum av oberoende
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler
TAMS79: Föreläsning 4 Flerdimensionella stokastiska variabler Johan Thim (johan.thim@liu.se) 1 november 18 Vi fokuserar på två-dimensionella variabler. Det är steget från en dimension till två som är det
Föreläsning 3, Matematisk statistik Π + E
Repetition Kvantil Presentation Slumptal Transformer Inversmetoden Föreläsning 3, Matematisk statistik Π + E Sören Vang Andersen 13 november 2014 Sören Vang Andersen - sva@maths.lth.se FMS012 F3 1/19 Repetition
Föreläsning 7: Punktskattningar
Föreläsning 7: Punktskattningar Matematisk statistik Chalmers University of Technology April 27, 2015 Tvådimensionella fördelningar Definition En två dimensionell slumpvariabel (X, Y ) tillordnar två numeriska
Simulering. Introduktion. Exempel: Antag att någon kastar tärning
Simulering Introduktion Eempel: Antag att någon kastar tärning a) Vad är sannolikheten att på fyra kast få två seor? b) Vad är sannolikheten att på kast få mellan och 5 seor och där summan av de 5 första
Övningsuppgift 2: Markov Chain Monte Carlo methods
Övningsuppgift 2: Markov Chain Monte Carlo methods Getting Started If you work on the NADA computer system: Before entering Matlab, copy the file efronmain.m to your own working directory: cp /info/fysikkurser/matstat/efronmain.m
Några extra övningsuppgifter i Statistisk teori
Statistiska institutionen Några extra övningsuppgifter i Statistisk teori 23 JANUARI 2009 2 Sannolikhetsteorins grunder 1. Tre vanliga symmetriska tärningar kastas. Om inte alla tre tärningarna visar sexa,
Monte Carlo-metoder. Bild från Monte Carlo
Monte Carlo-metoder 0 Målen för föreläsningen På datorn Bild från Monte Carlo http://en.wikipedia.org/wiki/file:real_monte_carlo_casino.jpg 1 Begrepp En stokastisk metod ger olika resultat vid upprepning
Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012
Föreläsning 1 Repetition av sannolikhetsteori Patrik Zetterberg 6 december 2012 1 / 28 Viktiga statistiska begrepp För att kunna förstå mer avancerade koncept under kursens gång är det viktigt att vi förstår
F9 SAMPLINGFÖRDELNINGAR (NCT
Stat. teori gk, ht 006, JW F9 SAMPLINGFÖRDELNINGAR (NCT 7.1-7.4) Ordlista till NCT Sample Population Simple random sampling Sampling distribution Sample mean Standard error The central limit theorem Proportion
Introduktion till statistik för statsvetare
Stockholms universitet November 2011 Data på annat sätt - I Stolpdiagram Data på annat sätt - II Histogram För kvalitativa data som nominal- och ordinaldata infördes stapeldiagram. För kvantitativa data
faderns blodgrupp sannolikheten att barnet skall få blodgrupp A0 A0 1/2 AA 1 AB 1/2 Övriga 0
Avd. Matematisk statistik TENTAMEN I SF1902 SANNOLIKHETSTEORI OCH STATISTIK, TISDAGEN DEN 9:E JUNI 2015 KL 14.00 19.00. Kursledare och examinator : Björn-Olof Skytt, tel 790 8649. Tillåtna hjälpmedel:
Matematisk statistik 9hp Föreläsning 2: Slumpvariabel
Matematisk statistik 9hp Föreläsning 2: Slumpvariabel Anna Lindgren 6+7 september 2016 Anna Lindgren anna@maths.lth.se FMS012/MASB03 F2: Slumpvariabel 1/23 Begrepp Samband Grundläggande begrepp Utfall
Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06
Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06 Bengt Ringnér September 20, 2006 Inledning Detta är preliminärt undervisningsmaterial. Synpunkter är välkomna. 2 Väntevärde standardavvikelse
Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08
LUNDS TEKNISKA HÖGSKOLA MATEMATIKCENTRUM MATEMATISK STATISTIK Laboration 5: Regressionsanalys DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08 Syftet med den här laborationen är att du skall