Bayesiansk statistik, 732g43, 7.5 hp

Relevanta dokument
Bayesiansk statistik, 732g43, 7.5 hp

Bayesiansk statistik, 732g43, 7.5 hp

Bayesiansk statistik, 732g43, 7.5 hp

Statistisk analys av komplexa data

732G71 Statistik B. Föreläsning 4. Bertil Wegmann. November 11, IDA, Linköpings universitet

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

732G71 Statistik B. Föreläsning 1, kap Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 20

Tentamen MVE301 Sannolikhet, statistik och risk

1/23 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet

732G71 Statistik B. Föreläsning 7. Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 29

F13 Regression och problemlösning

Bayes i praktiken. exempel och reflektioner från en forskarutbildningskurs. Ralf Rittner, Arbets och Miljömedicin

Lektionsanteckningar 11-12: Normalfördelningen

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Matematisk statistik, Föreläsning 5

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

För logitmodellen ges G (=F) av den logistiska funktionen: (= exp(z)/(1+ exp(z))

Tentamen för kursen. Linjära statistiska modeller. 22 augusti

Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay

Föreläsning 11: Mer om jämförelser och inferens

Matematisk statistik KTH. Formelsamling i matematisk statistik

Prediktera. Statistik för modellval och prediktion. Trend? - Syrehalt beroende på kovariater. Sambands- och trendanalys

LABORATION 3 - Regressionsanalys

LABORATION 3 - Regressionsanalys

Tentamen MVE301 Sannolikhet, statistik och risk

732G71 Statistik B. Föreläsning 3. Bertil Wegmann. November 4, IDA, Linköpings universitet

Föreläsning 12: Linjär regression

Tentamen MVE301 Sannolikhet, statistik och risk

Statistiska metoder för säkerhetsanalys

oberoende av varandra så observationerna är

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar

732G71 Statistik B. Föreläsning 8. Bertil Wegmann. IDA, Linköpings universitet. Bertil Wegmann (IDA, LiU) 732G71, Statistik B 1 / 23

Demonstration av laboration 2, SF1901

Tentamen i Matematisk statistik Kurskod S0001M

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

MVE051/MSG Föreläsning 7

F9 SAMPLINGFÖRDELNINGAR (NCT

Tentamen MVE301 Sannolikhet, statistik och risk

Exempel på tentamensuppgifter

10.1 Enkel linjär regression

4 Diskret stokastisk variabel

Bayesiansk statistik utan tårar

Föreläsning 8, Matematisk statistik 7.5 hp för E Punktskattningar

Thomas Önskog 28/

1/31 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet

Tentamen MVE301 Sannolikhet, statistik och risk

Kapitel 12: TEST GÄLLANDE EN GRUPP KOEFFICIENTER - ANOVA

För logitmodellen ges G (=F) av den logistiska funktionen: (= exp(z)/(1+ exp(z))

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

MULTIPEL IMPUTATION - Ett sätt att hantera problemet med missing data

Matematisk statistik för B, K, N, BME och Kemister

Föreläsning 1. NDAB02 Statistik; teori och tillämpning i biologi

Kapitel 18: LINJÄRA SANNOLIKHETSMODELLER, LOGIT OCH PROBIT

Till ampad statistik (A5) Förläsning 13: Logistisk regression

Regressions- och Tidsserieanalys - F4

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

Föreläsning 13: Multipel Regression

Föreläsning 7. Statistikens grunder.

Tentamen i Matematisk statistik Kurskod S0001M

Tentamen MVE302 Sannolikhet och statistik

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

TMS136. Föreläsning 10

Poissonregression. E(y x1, x2,.xn) = exp( 0 + 1x1 +.+ kxk)

Tentamen i Matematisk statistik Kurskod S0001M

Logistisk regression och Indexteori. Patrik Zetterberg. 7 januari 2013

Föreläsning G60 Statistiska metoder

PROGRAMFÖRKLARING III

Statistik B Regressions- och tidsserieanalys Föreläsning 1

MVE051/MSG Föreläsning 14

Lycka till!

Tentamen i Matematisk statistik Kurskod S0001M

Laboration 5: Regressionsanalys. 1 Förberedelseuppgifter. 2 Enkel linjär regression DATORLABORATION 5 MATEMATISK STATISTIK FÖR I, FMS 012, HT-08

Härledning av Black-Littermans formel mha allmänna linjära modellen

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Föreläsning 2. Kap 3,7-3,8 4,1-4,6 5,2 5,3

Laboration 3: Hierarkiska binomialmodeller i R

STATISTISK ANALYS AV KOMPLEXA DATA

Markov Chain Monte Carlo, contingency tables and Gröbner bases

Avd. Matematisk statistik

F19, (Multipel linjär regression forts) och F20, Chi-två test.

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?

F11. Kvantitativa prognostekniker

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

Statistik 1 för biologer, logopeder och psykologer

Matematisk statistik för D, I, Π och Fysiker

1 Förberedelseuppgifter

Skolprestationer på kommunnivå med hänsyn tagen till socioekonomi

Statistisk analys av komplexa data

MULTIPEL IMPUTATION. Ett sätt att fylla i hålen i ditt datamaterial?

SF1901 Sannolikhetsteori och statistik I

Laboration 2: Styrkefunktion samt Regression

Lösningsförslag till tentamen på. Statistik och kvantitativa undersökningar STA100, 15 hp. Fredagen den 13 e mars 2015

Statistik 1 för biologer, logopeder och psykologer

Föreläsning 12: Regression

Föreläsning 6 (kap 6.1, 6.3, ): Punktskattningar

Preliminära lösningar för Tentamen Tillämpad statistik A5 (15hp) Statistiska institutionen, Uppsala universitet

Kurser inom profilen Teknisk matematik (Y)

Tentamen i Matematisk statistik Kurskod S0001M

Transkript:

Bayesiansk statistik, 732g43, 7.5 hp Moment 3 - Överanpassade modeller, regularisering, informationskriterium, modelljämförelse, Markov chain Monte Carlo (MCMC) Bertil Wegmann STIMA, IDA, Linköpings universitet Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 1 / 33

Översikt moment 3 Över- och underanpassade modeller Informationsteori Regulariserande prior Informationskriterium Modelljämförelse Markov chain Monte Carlo (MCMC) Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 2 / 33

Overtting och Undertting Overtting: en modell överanpassar data genom att skräddarsy modellen endast till bentliga data. Detta ger ofta dålig prediktionsförmåga på nya data, eftersom modellen har lärt sig för mycket från data. Exempel: förklaringsgraden R 2 i multipel linjär regression ökar alltid för nya förklaringsvariabler, även gällande variabler som är helt orelaterade till den beroende variabeln. Undertting: en modell underanpassar data genom att lära sig för lite från data. Detta ger också dålig prediktionsförmåga på nya data, eftersom modellen är för enkel för att anpassa data. Exempel: relevanta förklaringsvariabler för multipel linjär regressionsmodell tas inte med i modellen. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 3 / 33

Balanserade modeller Två approacher för att navigera mellan överanpassade och underanpassade modeller: Regulariserande prior: modellen ska inte bli för exalterad över data, men heller inte vara för pessimistisk om informationen från data (icke-bayesianskt: penalized likelihood). Informationskriterium: skattar den prediktiva förmågan för en modell. Bygger på informationsteori. Kända informationskriterium: AIC, DIC, WAIC. Övergripande mål: använda approacherna för att konstruera och kritisera modeller till att bli mer eektiva. Kom dock ihåg: alla modeller är fel, men vissa är bättre att använda än andra. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 4 / 33

Exempel: över- och underanpassade modeller Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Polynomisk linjär regressionsmodell: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 + β 1 x i + β 2 x 2 i + + β k x k i, där k är graden av den polynomiska regressionen. Oberoende priors för (β 0, β j, ln σ): där j = 1,..., k. β 0 N ( 10, 10 2) β j N ( 0, 10 2) ( ln σ N ln 10, (ln 2) 2), Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 5 / 33

Exempel: underanpassad modell Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och inga förklaringsvariabler. Polynomisk linjär regressionsmodell av ordning 0: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 Oberoende priors för (β 0, ln σ): β 0 N ( 10, 10 2) ln σ N (ln 10, (ln 2) 2) Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 6 / 33

Exempel: överanpassad modell Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Polynomisk linjär regressionsmodell av ordning 8: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 + β 1 x i + β 2 x 2 i + + β 8 x 8 i Oberoende priors för (β 0, β j, ln σ): där j = 1,..., 8. β 0 N ( 10, 10 2) β j N ( 0, 10 2) ( ln σ N ln 10, (ln 2) 2), Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 7 / 33

Exempel: mer balanserad modell Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Polynomisk linjär regressionsmodell av ordning 1: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 + β 1 x i Oberoende priors för (β 0, β 1, ln σ): β 0 N ( 10, 10 2) β 1 N ( 0, 10 2) ln σ N (ln 10, (ln 2) 2) Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 8 / 33

Informationsteori Ligger till grund för modellutvärdering via regulariserande prior och/eller informationskriterium. Informationsteori kan användas för att mäta avståndet för en modells anpassning till den perfekta anpassningen. Den bästa modellen är den modell som maximerar sannolikheten för data. Måttet deviance baseras på modellens sannolikhetsfördelning för data och är ett mått på den relativa osäkerheten i modellen jämfört med perfekt anpassning. Fokus är att få så liten out-of-sample deviance som möjligt. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 9 / 33

Informationsteori Tre intuitiva egenskaper som osäkerhetsmåttet ska uppfylla: 1 vara kontinuerligt för att ta hänsyn till små förändringar i sannolikheter för data. 2 öka om antalet möjliga utfall ökar. 3 vara additivt för att summera ihop osäkerheten från varje observation i data. Funktionen informationsentropi uppfyller alla dessa tre krav. Osäkerheten i en sannolikhetsfördelning beräknas som det genomsnittliga värdet för log av sannolikheten över alla observationer. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 10 / 33

K-L divergence och Deviance Kullback-Leibler (K-L) divergence ger information om hur informationsentropi kan användas för att mäta en modells avvikelse till perfekt anpassning. K-L avvikelse är den genomsnittliga skillnaden i log av sannolikheten mellan den perfekta modellen och modellen själv. K-L avvikelsen ökar ju längre modellen kommer från den perfekta modellen. Den fördelning för data eller modell som ger den lägsta avvikelsen är närmast den perfekta modellen. Jämförelse av modellers korrekthet kan utföras. En modells Deviance är en approximation av K-L avvikelsen och beräknas enligt: D (q) = 2 log (q i ), i där q i är sannolikheten för varje observation i data. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 11 / 33

Beräkning av Deviance Använd MAP skattningarna för dom linjära regressionsanalyserna tidigare, där den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Beräkna D (q) för varje modell. D (q) blir lägst för den polynomiska regressionen av grad 8 i analogi med ökad förklaringsgrad R 2 för en mer komplicerad modell med er antal förklaringsvariabler. Dela upp data i ett training sample och ett test sample. Första halvan av datamaterialet används till training sample, n train = 16, och andra halvan används till test sample, n test = 16, dvs totalt antal observationer är n = 32. Beräkna nu Deviance för respektive training sample och test sample och jämför mellan modellerna. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 12 / 33

Regulariserande prior Regularisering motverkar överanpassning av data med hjälp av skeptiska priors. Regulariserande priorn bromsar in lärandet från data. Exempel: tighta priors kring 0 sätts på respektive parameterlutning i en linjär regressionsmodell. Om priorn tunas bra så motverkas överanpassning samtidigt som modellen lär sig huvuddragen från data. Obs! För mycket tuning med en för tight prior kan resultera i en underanpassning av data. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 13 / 33

Regulariserande prior Hur tighta dessa skeptiska priors ska vara beror på data och modellen. Deviance för training sample blir alltid värre/högre med regulariserande priors. Deviance för test sample blir ofta bättre/lägre med regulariserande priors om man inte gjort priorn för tight för att underanpassa data. Bra tuning av den regulariserande priorn kan minska överanpassning av data rejält. Korsvalidering: dela upp data i training sample och test sample och välj den regulariserade prior som ger lägst Deviance på test sample. Obs! Om all data måste användas för att träna modellen så kan det vara svårt att tuna priorn på ett bra sätt. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 14 / 33

Exempel: polynomisk regression med regulariserande prior Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Polynomisk linjär regressionsmodell av ordning 8: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 + β 1 x i + β 2 x 2 i + + β 8 x 8 i Standardisera förklaringsvariablerna för att sätta en regulariserande prior på respektive lutningsparameter. Regulariserad prior på β j : där j = 1,..., 8. β 0 N ( 10, 10 2) β j N (0, 0.1) ( ln σ N ln 10, (ln 2) 2), Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 15 / 33

Informationskriterium Vanliga informationskriterium för out-of-sample deviance (testing deviance): Akaike Information Criterium (AIC) Deviance Information Criterium (DIC) Widely Applicable Information Criterion (WAIC) AIC, DIC och WAIC är alla mått på modellens prediktiva förmåga (out-of-sample deviance) och kan nominera den modell som gör bäst prediktioner. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 16 / 33

AIC AIC är en skattning av den genomsnittliga out-of-sample deviance: AIC = D train + 2p, där p är antalet parametrar som ska skattas i modellen och 2p D out D train. AIC är en approximation av modellens prediktiva förmåga och är trovärdig om följande gäller: 1 acka priors 2 posteriorn är approximativt multivariat normalfördelad 3 antalet observationer N är mycket större än antalet parametrar p Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 17 / 33

DIC Mer generellt mått än AIC, eftersom det inte kräver acka priors. Bayesianskt informationskriterium, eftersom det beräknas från posteriorfördelningen för D train, d.v.s D train,s för varje samplat värde s från posteriorn. Låt D vara posteriorfördelningen för Deviance, D det genomsnittliga värdet av D och ˆD värdet på deviance för posteriormedelvärdet av parametrarna. Då gäller: DIC = D + ( D ˆD ) = D + p D = ˆD + 2p D, där p D är i analogi med antalet parametrar i modellen för att räkna ut AIC. Högre värde på p D ger en mer exibel modell för att skatta training sample, vilket ökar risken för överanpassning. Därför kallas p D även för penalty term. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 18 / 33

WAIC Mer generellt mått än AIC och DIC, eftersom det inte kräver något av de antaganden som gäller för AIC och DIC. Kräver dock att observationerna i data är oberoende. Prediktionens osäkerhet mäts punktvis: observation för observation. Användbart, eftersom vissa observationer är svårare att prediktera än andra. WAIC kan delas upp i 2 delar. Första delen av WAIC: Pr (y i ) är den genomsnittliga likelihooden för varje observation i över posteriorfördelningen och lppd = N log Pr (y i ) i=1 står för log-pointwise-predictive-density. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 19 / 33

WAIC Andra delen av WAIC: Antalet eektiva parametrar ges som p WAIC = N V (y i ), i=1 där V (y i ) är variansen av log-likelihooden av y i från varje posteriordragning. Första och andra delen ger WAIC = 2 (lppd p WAIC ) = D WAIC + 2p WAIC, där D WAIC = 2 lppd är analogt med deviance D, men där sannolikheten för varje observation i data i stället är den genomsnittliga likelihooden för varje observation i över posteriorfördelningen. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 20 / 33

Exempel: Beräkna och jämför AIC, DIC, WAIC Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning och x = vikt i ton för en bil. Jämför linjära regressionsmodeller med k = 0, 1, 8: Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = β 0 + β 1 x i + β 2 x 2 i + + β k x k i, där k är graden av den polynomiska regressionen. Oberoende priors för (β 0, β j, ln σ): där j = 1,..., k. β 0 N ( 10, 10 2) β j N ( 0, 10 2) ( ln σ N ln 10, (ln 2) 2), Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 21 / 33

Modelljämförelse vs Modellval Modellval utifrån informationskriterier baseras på att välja den modell som ger lägst AIC/DIC/WAIC. Modellval tar inte hänsyn till information om den relativa prediktiva förmågan bland konkurrerande modeller. Modelljämförelse och genomsnittlig prediktiv förmåga över konkurrerande modeller tar hänsyn till små eller stora skillnader i prediktiva förmåga. Modelljämförelse: utvärdera modellerna med DIC/WAIC i kombination med annan information om modellernas skattningar. Genomsnitt över modeller: använd DIC/WAIC för att konstruera en posterior prediktiv fördelning som tar hänsyn till den relativa prediktiva förmågan bland modellerna. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 22 / 33

Modelljämförelse Exakt samma observationer måste användas för att jämföra modeller. R kan t.ex. ta bort observationer med Missing values för en modell, men inte för en annan. Jämför modellernas DIC/WAIC värden och hur osäkerheten i parametrarna förändras mellan modellerna. Akaike-vikter för att jämföra modellers relativa prediktionsförmåga med avseende på WAIC: w i = exp ( 1dWAIC ) 2 i m j=1 exp ( 1dWAIC ), 2 j där dwaic i = WAIC i min (WAIC k ), k = 1,..., m, är skillnaden mellan WAIC för varje modell i och WAIC för den modell med lägst värde på WAIC. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 23 / 33

Modelljämförelse Akaikes tolkning av vikt w i : skattning av sannolikheten att modell i kommer ge dom bästa prediktionerna på nya data, givet alla modeller som betraktas för Akaike-vikter. Akaikes vikter ska ej övertolkas med avseende på t.ex. urvalsstorlek och tidigare resultat om det som undersöks. Akaikes vikter för modelljämförelse kan kompletteras med att jämföra parametervärden mellan konkurrerande modeller, vilket t.ex. kan ge svar på varför en modell har lägre WAIC än en annan hur mycket parametervärdena förändras mellan modellerna (confounding eekt?) Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 24 / 33

Exempel: Modelljämförelse Linjär regressionsanalys med den beroende variabeln y = kilometer per liter för en bils bränsleförbrukning, x 1 = hästkrafter i hundratals och x 2 = antal sek på en kvarts mile. Jämför 4 linjära regressionsmodeller med följande alternativ på förklaringsvariabler: x = inga, x 1, x 2, (x 1, x 2 ): Y 1,..., Y n µ i, σ 2 iid N(µ i, σ 2 ) µ i = βx, Oberoende priors för (β 0, β j, ln σ): där j = 1, 2. β 0 N ( 10, 10 2) β j N ( 0, 10 2) ( ln σ N ln 10, (ln 2) 2), Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 25 / 33

Genomsnitt över modeller Prediktioner kan baseras på modellers relativa Akaike-vikter. Genomsnittliga posteriorprediktioner över modellers relativa prediktionsförmåga. Arbetsgång: Beräkna DIC/WAIC och Akaikes vikt för respektive modell. Beräkna simulerade utfall från respektive modell. Kombinera dom simulerade utfallen från respektive modell med respektive modellvikt som proportion för varje utfall. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 26 / 33

Markov chain Monte Carlo (MCMC) Skattning av posteriorfördelningar genom användning av en stokastisk process som kallas Markov chain Monte Carlo (MCMC). Samplade värden från parametrarnas posteriorfördelning utan krav på att posteriorfördelningen är multivariat normalfördelning och utan att behöva maximera posteriorn. MCMC algoritm kan skatta generaliserade modeller (t.ex. logitmodell, Poissonregression) och multilevelmodeller som producerar icke-normalfördelade posteriorfördelningar. Kvadratisk approximation är därför olämplig för dessa modeller. Extra kostnader med MCMC: tar ofta längre tid att skatta modellen lite mer jobb krävs för att specicera modellen och kontrollera att den skattade modellen ger rimliga resultat. MCMC skattning av modellen kan göras med hjälp av det probabilistiska programmeringsspråket STAN, som rethinking paketet kallar på med hjälp av funktionen map2stan. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 27 / 33

Metropolis algoritmen Metropolis algoritmen är ett exempel på en MCMC algoritm. Används för att dra parametervärden från komplicerade posteriorfördelningar. Metropolis algoritmen kräver en symmetrisk förslagsfördelning, t.ex. en normalfördelning eller en t-fördelning. Exempel: antag att vi vill utvärdera posteriorfördelningen p (θ y) för en parameter θ med hjälp av en normalfördelning med varians 1 som förslagsfördelning. För varje iteration t i Metropolisalgoritmen görs följande steg: 1 ett förslag på θ dras från förslagsfördelningen, givet den förra accepterade dragningen θ t 1. Kalla förslaget θ. 2 Beräkna kvoten r av posteriorfördelningarna för θ och θ t 1, dvs r = p (θ y) p (θ t 1 y), 3 Förslaget accepteras med sannolikheten min (r, 1). Om förslaget inte accepteras sätts θ t = θ t 1. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 28 / 33

Metropolis-Hastings och Gibbs sampling Metropolis-Hastings algoritmen generaliserar Metropolis algoritmen för att tillåta assymetriska förslagsfördelningar. Assymetriska förslagsfördelningar kan vara lämpliga för t.ex. variansparametrar som är positiva. Gibbs sampling är ofta en variant av Metropolis-Hastings algoritmen och samplar i varje iteration värden på en delmängd av parametrarna, givet dom senaste samplade värdena för dom övriga parametrarna (dvs värden samplas från betingade posteriorfördelningar). Syftet med Gibbs sampling är att få eektiva dragningar genom att på ett lättare sätt sampla dragningar från betingade posteriorfördelningar. Programmet BUGS (Bayesian Inference Using Gibbs Sampling) använder uteslutande Gibbs sampling för att skatta Bayesianska modeller. Gibbs sampling blir dock ofta ineektivt för modeller med många parametrar och/eller betingade posteriorfördelningar som inte blir lättare att sampla i från. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 29 / 33

Hamiltonian Monte Carlo (HMC) Mer datorintensiv algoritm än Metropolis-Hastings algoritmen, men dragningar från posteriorfördelningen är ofta mera eektiva. Algoritmen är inte en slumpmässig process som för Metropolis-Hastings algoritmen. HMC kan liknas med att en partikel sveper över hela posteriorn och varje gång partikeln vänder riktning samplas parametervärden från posteriorn vid den aktuella positionen. Partikeln färdas långsammare ju mer sannolikhetsmassa posteriorn har. Detta ger en högre andel dragningar där posteriorn har mycket sannolikhetsmassa jämfört med där posteriorn är ack och har liten sannolikhetsmassa. Rethinking paketets funktion map2stan gör användning av HMC enkel. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 30 / 33

Bearbetning av data och MCMC diagnostik Preparera data innan användning av map2stan: 1 alla variabeltransformationer för data ska göras innan. Använd endast de variabler som ska in i modellen. 2 skapa en ny data frame med alla (transformerade) variabler som ska användas i modellen. Hur många dragningar från posteriorn är tillräckligt? Använd MCMC diagnostik: n eff är antalet eektiva dragningar, vilket motsvarar ungefär antalet oberoende dragningar från posteriorn. n eff > 100 innebär ofta bra konvergens till posteriorn. Rhat är ett mått på om MCMC algoritmen konvergerat eller ej till posteriorn och Rhat < 1.1 innebär ofta ok konvergens. Använd olika startvärden (olika MCMC kedjor) för MCMC algoritmen för att undersöka om respektive kedja utvärderar posteriorn på samma sätt. MCMC kedjorna kan parallelliseras. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 31 / 33

Multipel linjär regression - exempel med MCMC Multipel linjär regressionsanalys med beroende variabel y = miles/(us) gallon för en bils bränsleförbrukning x 1 = manuell växellåda (=1) x 2 = vikt i ton x 3 = antal hästkrafter x 4 = tid i sek på en kvarts mile x 5 = antal framåtväxlar 1 miles/gallon motsvarar ungefär 0,43 kilometer per liter. Transformera om y till kilometer per liter. Standardisera alla förklaringsvariabler förutom dummyvariabeln x 1. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 32 / 33

MCMC diagnostik Traceplott över parameterdragningarna för varje MCMC kedja. Undersök om respektive kedja utvärderar posteriorn på samma sätt. Konventionellt med 3 eller 4 MCMC kedjor till att börja med. En plott för det ackumulerade posterior medelvärdet över MCMC samples kan skapas för att kontrollera att det ackumulerade posterior medelvärdet konvergerar till ett värde över dragningarna. HMC algoritmen använder en uppvärmningsfas och samples från denna fas kallas adaptation samples. Efter denna fas sparas de samplade parametervärdena. Jämför resultat för olika mycket adaptation samples och olika mycket antal sparade samplade parameterdragningar. Om resultat för er MCMC dragningar knappt gör någon skillnad, så kan man nöja sig med färre MCMC dragningar. Problem med MCMC sampling från posteriorn: pröva med svagt informativa priors för att erhålla mer rimliga MCMC kedjor. Bertil Wegmann (STIMA, LiU) Bayesiansk statistik 33 / 33