Bayesiansk statistik utan tårar

Relevanta dokument
Probabilistisk logik 2

Stokastiska signaler. Mediesignaler

Bayesiansk statistik, 732g43, 7.5 hp

Bayesiansk statistik, 732g43, 7.5 hp

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Bayes i praktiken. exempel och reflektioner från en forskarutbildningskurs. Ralf Rittner, Arbets och Miljömedicin

Grundläggande matematisk statistik

Matematisk statistik 9 hp Föreläsning 4: Flerdim

Om Markov Chain Monte Carlo

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

SF1901: Sannolikhetslära och statistik

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

Lärmål Sannolikhet, statistik och risk 2015

Markov Chain Monte Carlo, contingency tables and Gröbner bases

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Bayesiansk statistik, 732g43, 7.5 hp

SF1901: Sannolikhetslära och statistik

Filoson bakom Bayesiansk statistik med tillämpningar inom hjärnavbildning och budgivningar på ebay

Kap 2. Sannolikhetsteorins grunder

Tentamen MVE301 Sannolikhet, statistik och risk

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

Bayesianska numeriska metoder II

Föreläsning 5, FMSF45 Summor och väntevärden

χ 2, chi-två Test av anpassning: sannolikheter specificerade Data: n observationer klassificerade i K olika kategorier:

F6 STOKASTISKA VARIABLER (NCT ) Används som modell i situation av följande slag: Slh för A är densamma varje gång, P(A) = P.

Föreläsning 7: Punktskattningar

SF1901 Sannolikhetsteori och statistik I

Tillåtna hjälpmedel: Räknedosa. Formel- och tabellsamling i matematisk statistik.

TMS136. Föreläsning 5

Föreläsning 5, Matematisk statistik Π + E

2 x dx = [ x ] 1 = 1 ( 1 (1 0.9) ) 100 = /

Tentamen MVE301 Sannolikhet, statistik och risk

SF1901 Sannolikhetsteori och statistik I

Monte Carlo-metoder. Bild från Monte Carlo

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

FÅ FRAM INDATA. När inga data finns!? Beslutsfattarens dilemma är att det är svårt att spå! Särskilt om framtiden!

bli bekant med summor av stokastiska variabler.

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Exempel, del I

Institutionen för lingvistik och filologi VT 2014 (Marco Kuhlmann 2013, tillägg och redaktion Mats Dahllöf 2014).

Lektionsanteckningar 11-12: Normalfördelningen

Tentamen MVE301 Sannolikhet, statistik och risk

Matematisk statistik för D, I, Π och Fysiker

4 Diskret stokastisk variabel

TMS136. Föreläsning 5

Statistik 1 för biologer, logopeder och psykologer

Tentamen i Sannolikhetslära och statistik, TNK069, , kl 8 13.

Föreläsning 7: Punktskattningar

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

Statistiska metoder för säkerhetsanalys

Anna: Bertil: Cecilia:

Bayes statistik - utan förkunskaper - utan tårar

Inferensstatistik. Hypostesprövning - Signifikanstest

Tentamen MVE302 Sannolikhet och statistik

SF1901: Sannolikhetslära och statistik

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

Datorövning 3 Bootstrap och Bayesiansk analys

Repetitionsföreläsning

Tentamen i Matematisk Statistik, 7.5 hp

Föreläsning 4, Matematisk statistik för M

Föreläsning 7: Punktskattningar

Bayesianska numeriska metoder I

Datorlaboration 7. Simuleringsbaserade tekniker

Prototypbaserad Inkrementell Diagnos. Anders Holst SICS, Swedish Institute of Computer Science AB

KLEINLEKTION. Område statistik. Lektionens upplägg. Lämplig inom kurserna Matematik 2b och 2c. Engage (Väck intresse) Explore (Upptäck laborera)

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Måndag 14 maj 2007, Kl

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

Hur måttsätta osäkerheter?

Tentamen MVE300 Sannolikhet, statistik och risk

Tentamen MVE301 Sannolikhet, statistik och risk

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

Vinjetter TDDC91 Datastrukturer och algoritmer

34% 34% 13.5% 68% 13.5% 2.35% 95% 2.35% 0.15% 99.7% 0.15% -3 SD -2 SD -1 SD M +1 SD +2 SD +3 SD

Föreläsning 4. NDAB01 Statistik; teori och tillämpning i biologi

(x) = F X. och kvantiler

Slumpvariabler och sannolikhetsfördelningar

SF1901: Sannolikhetslära och statistik

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

STOCKHOLMS UNIVERSITET Statistiska institutionen Michael Carlson,

SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Matematisk statistik TMS063 Tentamen

Mer om slumpvariabler

Tentamen MVE301 Sannolikhet, statistik och risk

Lösningsförslag till Tillämpad matematisk statistik LMA521, Tentamen

Avd. Matematisk statistik

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

40 5! = 1, ! = 1, Om man drar utan återläggning så kan sannolikheten beräknas som 8 19

Matematisk statistik 9 hp Föreläsning 3: Transformation och simulering

σ 12 = 3.81± σ n = 0.12 n = = 0.12

Finns det över huvud taget anledning att förvänta sig något speciellt? Finns det en generell fördelning som beskriver en mätning?

b) Beräkna sannolikheten att en mottagen nolla har sänts som en nolla. (7 p)

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

Tentamentsskrivning: Matematisk statistik TMA Tentamentsskrivning i Matematisk statistik TMA321, 4.5 hp.

17.1 Kontinuerliga fördelningar

TAMS17/TEN1 STATISTISK TEORI FK TENTAMEN ONSDAG 10/ KL

Introduktion till Markovkedjor. Mattias Arvidsson

Kapitel 5 Multivariata sannolikhetsfördelningar

1 Mätdata och statistik

Matematisk statistik för D, I, Π och Fysiker

Transkript:

Bayesiansk statistik utan tårar Lennart Robertson, SMHI

Lånad titel A.F.M Smith A.E Gelfand American Statistician 1992 2

Innehåll Ett litet exempel Några enkla statistiska betraktelser Bayes teorem Bayesiansk inferans Viktad bootstrap Markov chain Monte Carlo (MCMC) Exempel på viktad bootstrap och MCMC Utblick mot assimilering av satellitdata vid vulkanutbrott Hur var det nu med exemplet? 3

Ett litet exempel Min syster beskrev ett samtal hon haft på en resa. Jag funderade då på om det möjligen var en kvinna hon talat med. Om vi antar att män och kvinnor är lika fördelade, är sannoliheten att det var en kvinna 50%. Nu tillkom informationen att den hon talade med hade långt hår. Detta är i all sin enkelhet essensen i Bayesiansk statistik. P(K) = 0.5 Grundantagande med en apriori sannolikhet P(L K) Tillkommande information sätter en trolighet på grundantagandet P(K L)? Posteriorsannolikhet givet tilläggsinformationen 4

Några enkla statistiska betraktelser Y Joint probability Marginalfördelning Villkorad sannolikhet Bivariat-diagram X 5

Joint probability (sannolikhet för sammanfallande händelser) Y X P(X, Y) P(X = a, Y = b) N x,y /N tot 6

Marginalfördelning p(x) 7

Marginalfördelning p(x) p x = p x, y dy Marginalisering 8

Marginalfördelning p(y) 9

Marginalfördelning p(y) p y = p x, y dx 10

Villkorade sannolikheter P(X,Y) P(Y X) P(X Y) P Y X = P(X, Y) P(X) P X Y = P(X, Y) P(Y) 11

Bayes teorem Bayes teorem utnyttjar att det finns två sätt att beskriva joint probability P X, Y = P X Y P Y = P Y X P(X) P X Y = P Y X P(X) P(Y) = P Y X P(X) P x, Y dx = P Y X P(X) P Y x P x dx Rekursiva former P X, U, Y = P X, U Y P Y = P Y X, U P X, U = P Y X, U P U X P(X) P X, U, V, Y =? P X, Y, Z = P X Y, Z P Y P Z = P Y, Z X P X = P Y Z, X P Z X P X = P Y X P Z X P(X) 13

Bayesiansk inferans Bayesiansk inferans arbetar med fördelningar och att sampla dessa fördelningar. Det är ett sätt att undvika P(Y) som är en svårfångad skalfaktor: P(X Y) P Y X P(X) Om X upprepat hämtas från en apriorifördelning, p(x), så kan vi skapa en fördelning som avspeglar posteriorfördelningen, p(x Y), så när som på en okänd skalfaktor. P(Y X) spelar en nyckelroll i att transformera en apriorifördelning till en posteriorfördelning. Vår sökta lösning, X, är den som maximerar P(X Y). 14

Bootstrap Bootstrap är att ta slumpvisa dragningar (med återläggning) ur en datamängd och exempelvis bilda nya medelvärden. Detta ger en uppskattning av stabiliteten i medelvärdet. I bootstrap ligger ett underliggande antagande att varje värde har samma sannolikhet. I viktad bootstrap sätter vi olika sannolikhet på de olika värdena innan vi gör slumpvisa dragningar. 16

Viktad bootstrap Sampling via kumulativ fördelning. Viktning av varje medlem med sannolikhetsfunktionen (blå). Resampling via viktad kumulativ fördelning. Maximum av den resamplade fördelningen är vårt sökta värde. 17

Viktad bootstrap: begränsningar Kräver sampling av stor del av apriorifördelningen Viktigt att sampla för de tillstånden som observationerna ger högst betyg. 18

Markov chain Monte Carlo (MCMC) Ett alternativ till viktad bootstrap och är den mest populära. Slumpmässig vandring i apriori- och posteriorfördelningarna, med acceptans eller förkastande av nästa steg. Det finns lite olika ansatser av vilket Metropolis-Hastings är rätt vanlig (1953,1970) Att sampla apriorifördelningen, p(x): Vid punkten x n kan vi bestämma p n = p(x n ) från apriori-fördelningen. Tag ett steg i godtycklig ritning, x n+1, och bestäm p n+1 =p(x n+1 ) A) Om p n+1 /p n >1 behåll x n+1 B) Om p n+1 /p n <1 behåll slumpmässigt med sannolikheten p n+1 /p n. Att sampla posteriorfördelningen p(x Y): I stegningen ovan utvärdera L n = P(Y x n ) och för nästa steg L n+1 =P(Y x n+1 ) A) Om L n+1 /L n >1 behåll x n+1 B) Om L n+1 /L n <1 behåll slumpmässigt med sannolikheten L n+1 /L n. 19

Enkelt exempel på viktad bootstrap Gaussisk plymmodell Några observationer Söka rätt utsläppspunkt Sampla apriorifördelning Viktad bootstrap Max av postrior är lösningen 21

Enkelt exempel på MCMC Samma problemställning. Vi börjar i samma punkt. MCMC samplar initialt apriorifördelningen. Men glider snart över i posterior fördelningen. Kan dock gå vilse om man har otur. 22

Animering av MCMC 23

Utblick: Satellit data och vulkanutbrott Dataassimilation av källterm vid vulkanutbrott OMI SO2 (olika plymhöjder) MODIS AOD 24

Hur var det nu med min systers långhåriga medpassagerare? P(K)=0.5 Apriori antagande P(L K)=0.75 Sannolikheten att just kvinnor är långhåriga P(L M)=0.15 Sannolikheten att just män är långhåriga P K L = P L K P(K) P(L) = P L K P(K) P L K P K + P L M P(M) = 0.75x0.5 0.75x0.5 + 0.15x0.5 = 0.833 Joint probability K P(L K)P(K) P(L* K)P(K) M P(L M)P(M) P(L* M)P(M) L L* 25

Därmed var min systers resa slut och så är min! Tack för uppmärksamheten! 26