Statistiska metoder för säkerhetsanalys

Relevanta dokument
SF1901: SANNOLIKHETSTEORI OCH STATISTIKTEORI KONSTEN ATT DRA INTERVALLSKATTNING. STATISTIK SLUTSATSER. Tatjana Pavlenko.

Kapitel 1. Bayesianska metoder. 1.1 Översikt. 1.2 Likelihood-funktion

Föreläsning 8, Matematisk statistik 7.5 hp för E Punktskattningar

Matematisk statistik för B, K, N, BME och Kemister

Föreläsning 11: Mer om jämförelser och inferens

SF1901 Sannolikhetsteori och statistik I

Föreläsning 9, Matematisk statistik 7.5 hp för E Konfidensintervall

Föreläsning 11, FMSF45 Konfidensintervall

Matematisk statistik för B, K, N, BME och Kemister

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

Matematisk statistik 9 hp, HT-16 Föreläsning 10: Punktskattningar

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall) Jan Grandell & Timo Koski

9. Konfidensintervall vid normalfördelning

Matematisk statistik för D, I, Π och Fysiker

Avd. Matematisk statistik

Föreläsning 2, FMSF45 Slumpvariabel

Repetitionsföreläsning

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Datorövning 3 Bootstrap och Bayesiansk analys

Våra vanligaste fördelningar

Datorövning 3 Bootstrap och Bayesiansk analys

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall)

SF1901: Medelfel, felfortplantning

SF1922/SF1923: SANNOLIKHETSTEORI OCH. PASSNING AV FÖRDELNING: χ 2 -METODER. STATISTIK. Tatjana Pavlenko. 14 maj 2018

FÖRELÄSNING 7:

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Avd. Matematisk statistik

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Tenta i Statistisk analys, 15 december 2004

Matematisk statistik 9.5 hp, HT-16 Föreläsning 11: Konfidensintervall

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

Matematisk statistik för B, K, N, BME och Kemister

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

Lärmål Sannolikhet, statistik och risk 2015

Matematisk statistik KTH. Formelsamling i matematisk statistik

TMS136. Föreläsning 10

Föreläsning 11, Matematisk statistik Π + E

Tentamen MVE301 Sannolikhet, statistik och risk

Föreläsning 4: Konfidensintervall (forts.)

LÖSNINGAR TILL. Matematisk statistik, Tentamen: kl FMS 086, Matematisk statistik för K och B, 7.5 hp

10. Konfidensintervall vid två oberoende stickprov

en observerad punktskattning av µ, ett tal. x = µ obs = 49.5.

4.2.1 Binomialfördelning

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Demonstration av laboration 2, SF1901

Föreläsning 12: Linjär regression

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

TMS136. Föreläsning 4

SF1901 Sannolikhetsteori och statistik I

Föreläsning 12: Regression

Tentamen MVE301 Sannolikhet, statistik och risk

Kurssammanfattning MVE055

F9 Konfidensintervall

Thomas Önskog 28/

SF1901: Sannolikhetslära och statistik

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

Del I. Uppgift 1 För händelserna A och B gäller att P (A) = 1/4, P (B A) = 1/3 och P (B A ) = 1/2. Beräkna P (A B). Svar:...

TENTAMEN I MATEMATISK STATISTIK 19 nov 07

Tentamen i Matematisk Statistik, 7.5 hp

Föreläsning 4, Matematisk statistik för M

SF1901 Föreläsning 14: Felfortplantning, medelfel, Gauss approximation, bootstrap

Avd. Matematisk statistik

Föreläsning 12, FMSF45 Hypotesprövning

4.1 Grundläggande sannolikhetslära

Tentamen MVE301 Sannolikhet, statistik och risk

Minsta kvadrat-metoden, MK. Maximum likelihood-metoden, ML. Medelfel. E(X i ) = µ i (θ) MK-skattningen av θ fås genom att minimera

Bestäm med hjälp av en lämplig och välmotiverad approximation P (X > 50). (10 p)

Tentamen MVE301 Sannolikhet, statistik och risk

TAMS65 - Föreläsning 1 Introduktion till Statistisk Teori och Repetition av Sannolikhetslära

1. För tiden mellan två besök gäller. V(X i ) = 1 λ 2 = 25. X i Exp (λ) E(X i ) = 1 λ = 5s λ = 1 5

Statistiska metoder för säkerhetsanalys

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Tentamen i Statistik, STA A10 och STA A13 (9 poäng) Måndag 14 maj 2007, Kl

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Föreläsning 12: Repetition

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

SF1911: Statistik för bioteknik

Matematisk statistik för D, I, Π och Fysiker

TENTAMEN I MATEMATIK MED MATEMATISK STATISTIK HF1004, TEN

TT091A, TVJ22A, NVJA02 Pu, Ti. 50 poäng

Föreläsning 6 (kap 6.1, 6.3, ): Punktskattningar

Tentamen MVE301 Sannolikhet, statistik och risk

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Matematisk statistik TMS064/TMS063 Tentamen

Lufttorkat trä Ugnstorkat trä

SF1922/SF1923: SANNOLIKHETSTEORI OCH INTERVALLSKATTNING. STATISTIK. Tatjana Pavlenko. 24 april 2018

Föreläsning 8, Matematisk statistik 7.5 hp för E, HT-15 Punktskattningar

Kap 2. Sannolikhetsteorins grunder

Matematisk statistik för B, K, N, BME och Kemister

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

TAMS17/TEN1 STATISTISK TEORI FK TENTAMEN ONSDAG 10/ KL

Grundläggande matematisk statistik

Rättningstiden är i normalfall 15 arbetsdagar, till detta tillkommer upp till 5 arbetsdagar för administration, annars är det detta datum som gäller:

ESS011: Matematisk statistik och signalbehandling Tid: 14:00-18:00, Datum:

FÖRELÄSNING 8:

Avd. Matematisk statistik

Exempel på tentamensuppgifter

(a) sannolikheten för att läkaren ställer rätt diagnos. (b) sannolikheten för att en person med diagnosen ej sjukdom S ändå har sjukdomen, dvs.

Transkript:

F7: Bayesiansk inferens

Klassisk vs Bayesiansk Två problem Klassisk statistisk inferens Frekventistisk tolkning av sannolikhet Parametrar fixa (ofta okända) storheter Skattningar och konfidensintervall för parametrarna används för att få en uppfattning om osäkerhet Bayesiansk inferens Parametern är en stokastisk variabel och har därmed en fördelning Denna fördelningen används för uttalanden om osäkerhet hos parametern Förhandskunskap om parametern kombineras med observerade data Kunskapen uppdateras allt eftersom ny information tillkommer

Klassisk vs Bayesiansk Två problem Två viktiga problemställningar Uppskatta p = P(B) där B är en händelse B = råka ut för en olycka då man korsar vägen B = min cykel blir stulen utanför järnvägsstationen i Lund då jag veckopendlar B = maskinen (komponenten) fungerar då den testas Uppskatta P(A inträffar minst en gång under ett tidsintervall av längd t) uppskatta intensiteten λ A i en process Uppskatta p = P(B) med Klassisk ansats: Vi har att p = P(maskinen fungerar) är en okänd men fix parameter. Testa n maskiner och räkna antalet som fungerar, k. Antalet är Bin(n, p) med ML-skattningen p = k/n. Skattningefelet ε = p p är approximativt N(, V(p )) med V(p ) p (1 p )/n och konfidensintervall I p = (p ± λ α/2 stort. p (1 p ) n ) om n är tillräckligt

Prediktiv sannolikhet Prior Posterior Bayesiansk metodik Betrakta p = P(maskinen fungerar) som en s.v. med en fördelning, f(p), som bestämmer hur troliga olika värden på p är. Observera att f(p) ska uppfylla f(p) dp = 1 f(p) dp = 1 för att vara en riktig fördelning. Prediktiv sannolikhet Väntevärdet i fördelningen kallas den prediktiva sannolikheten för B: P pred (B) = E(P) = 1 p f(p) dp Trolighetsintervall Istället för konfidensintervall har vi nu trolighetsintervall som ges av kvantilerna i f(p): (p 1 α/2, p α/2 ). Hur ska vi välja f(p)?

Prediktiv sannolikhet Prior Posterior Startfördelning utan data Antag först att vi inte har någon kunskap om p: f(p) = 1, p 1 f(p) 1 1 p Prediktiv sannolikhet: P pred (B) = 1/2. Ett 95 % trolighetsintervall för p: (.25,.975). Hur kan vi uppdatera fördelningen och ta hänsyn till obervationer?

Prediktiv sannolikhet Prior Posterior Inkludera observerade data Låt fördelningen för p innan vi observerar data vara f prior (p) (a priorifördelning). Observera data, X: av n tillfällen skedde B k gånger. Uppdatera kunskapen om p med hjälp av f post (p) (a posteriorifördelning). Definitionen av betingad sannolikhet ger: f post (p) = f(p X = k) = P(X = k p) f prior (p) P(X = k) = c L(p; x) f prior (p) }{{} P(X=k p) Bestäm c med hjälp av 1 = 1 f post (p) dp.

Egenskaper Exempel Konjugerad prior Ex: Maskin Antag att på 1 test fungerade 9 maskiner. Med f prior (p) = 1 får vi ( ) 1 f post (p) = c p 9 (1 p) 1 1 = c 1 p 9 (1 p) 9 Ex: maskin Detta är en Beta-fördelning med parametrar a = 1 och b = 2, dvs Beta(1, 2). f post (p) = Γ(1 + 2) Γ(1) Γ(2) p1 1 (1 p) 2 1 = 11! 9! 1! p1 1 (1 p) 2 1, p 1

Egenskaper Exempel Konjugerad prior Beta-fördelningen, Θ Beta(a, b) Frekvensfunktionen för en Beta(a, b)-fördelning är där c = f(p) = c p a 1 (1 p) b 1, p 1 Γ(a + b) och Γ(a) = Γ(a)Γ(b) Egenskaper: Väntevärdet: E(Θ) = a a + b a a+b Variansen: V(Θ) = (1 a + b + 1 x a 1 e x dx a a+b ) Gammafunktionen Γ(a) = a Γ(a 1), Γ(a) = (a 1)! om a är ett heltal, Γ(1) = 1, Γ(1/2) = π.

Egenskaper Exempel Konjugerad prior Några Beta-fördelningar 9 8 7 Beta(1, 1) Beta(.8, 1.2) Beta(.5,.7) Beta(1, 2) Beta(3, 7) Beta(2,2) Beta fördelningar 6 5 4 3 2 1.1.2.3.4.5.6.7.8.9 1 p

Egenskaper Exempel Konjugerad prior Konjugerad prior I många standardsituationer väljer man ofta en så kallad konjugerad a priorifördelning, dvs en a priorifördelning som ger en a posteriorifördelning av samma typ. I situationen skatta P(B) är Beta-fördelningen en konjugerad prior. f prior (p) : Beta(a, b), eftersom f post (p) : Beta(a + k, b + n k) f post (p) = c n försök gav k st. B ( ) n p k (1 p) n k p a 1 (1 p) b 1 k = c 1 p a+k 1 (1 p) b+n k 1

Prior Posterior Expert-prior Exempel: Tillförlitlighet hos en maskin (a) Ingen kunskap om p: likformig a priori-fördelning, Beta(1, 1). f prior (p) = Γ(1 + 1) Γ(1)Γ(1) p1 1 (1 p) 1 1 = 1, p 1 7 6 Beta(1,1) 5 4 3 2 1.1.2.3.4.5.6.7.8.9 1 p=p(maskinen är hel) P pred (B) = a a + b = 1 1 + 1 = 1 2 =.5

Prior Posterior Expert-prior (b) A posteriori-fördelning för p baserade på a priori-fördelningen i (a) med information från data (9 av 1 fungerade): Beta(1 + 9, 1 + (1 9)) = Beta(1, 2): Prediktiv sannolikhet: P pred (B) = 1 1 + 2.83. Trolighetsintervall: (.59,.98). 7 6 5 4 3 2 1 Beta(1,2).1.2.3.4.5.6.7.8.9 1 p=p(maskinen är hel)

Prior Posterior Expert-prior (c) A posteriori-fördelning för p baserade på ytterligare information från data (5 av 5 fungerade): Beta(1 + 5, 2 + (5 5)) = Beta(15, 2): Prediktiv sannolikhet: P pred (B) = 15 15 + 2.88. Trolighetsintervall: (.7,.98). 7 6 5 4 3 2 1 Beta(1,1) Beta(1,2) Beta(15,2).1.2.3.4.5.6.7.8.9 1 p=p(maskinen är hel)

Prior Posterior Expert-prior Tag hänsyn till ett expertutlåtande En expert påstår att tillförlitligheten hos en tidigare version av denna maskin är 93 % ± 7 %. Tolkning: m ± 2σ, dvs E(P) =.93 och V(P) =.35 2. Vilken Beta-fördelning är detta? E(P) = a a + b =.93, V(P) = a a a+b ) a+b (1 E(P)(1 E(P)) = a + b 1 a + b + 1.93(1.93).35 2 1 = 52.14, a =.93(a + b) =.93 52.14 = 48.49, a + b = b = (a + b) a = 52.14 48.49 = 3.65 =.35 2 dvs Beta(48.49, 3.65)-fördelning.

Prior Posterior Expert-prior 15 1 Experten Expert + 9 av 1 Expert + 9 av 1 och 5 av 5 5.1.2.3.4.5.6.7.8.9 1 p=p(maskinen är hel) (a) Expertens a priori-information om p: Beta(48.49, 3.65): P pred (B) =.93. I = (.848,.982) (b) A posteriori-fördelning för p baserade på a priori-fördelningen i (a) med information från data (9 av 1 fungerade): Beta(48.49 + 9, 3.65 + (1 9)) = Beta(57.49, 4.65): P pred 57.49 (B) = 57.49 + 4.65.925. I = (.849,.976).

Prior Posterior Expert-prior (c) A posteriori-fördelning för p baserade på a priori-fördelningen i (b) med information från data (5 av 5 fungerade): Beta(57.49 + 5, 4.65 + (5 5)) = Beta(62.49, 4.65): P pred 62.49 (B) = 62.49 + 4.65.93. I = (.86,.978). Expertens åsikt väger tungt. Om vi är tveksamma till experten bör vi ha en mer utjämnad prior och låta data tala mer. Ju mer data vi har desto mindre betydelse har a priorifördelningen (och experten).