TMS136. Föreläsning 4

Relevanta dokument
Finansiell Statistik (GN, 7,5 hp,, HT 2008) Föreläsning 3

SF1911: Statistik för bioteknik

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Kap 2. Sannolikhetsteorins grunder

TMS136. Föreläsning 5

Våra vanligaste fördelningar

TMS136. Föreläsning 5

1 Föreläsning V; Kontinuerlig förd.

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

SF1901 Sannolikhetsteori och statistik I

TMS136. Föreläsning 10

Exempel för diskreta och kontinuerliga stokastiska variabler

Grundläggande matematisk statistik

TMS136. Föreläsning 7

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

Kap 6: Normalfördelningen. Normalfördelningen Normalfördelningen som approximation till binomialfördelningen

Lektionsanteckningar 11-12: Normalfördelningen

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

4 Diskret stokastisk variabel

Finansiell statistik, vt-05. Kontinuerliga s.v. variabler. Kontinuerliga s.v. F7 Kontinuerliga variabler

SF1901: Sannolikhetslära och statistik

Föreläsning 2 (kap 3): Diskreta stokastiska variabler

(a) på hur många sätt kan man permutera ordet OSANNOLIK? (b) hur många unika 3-bokstavskombinationer kan man bilda av OSANNO-

8. NÅGRA SPECIELLA KONTINUERLIGA SANNOLIKHETSFÖRDELNINGAR

Repetitionsföreläsning

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

Föreläsning 3. Sannolikhetsfördelningar

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Formel- och tabellsamling i matematisk statistik

Demonstration av laboration 2, SF1901

Finansiell Statistik (GN, 7,5 hp,, VT 2009) Föreläsning 2. Diskreta Sannolikhetsfördelningar. (LLL Kap 6) Stokastisk Variabel

Övning 1 Sannolikhetsteorins grunder

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik KTH. Formelsamling i matematisk statistik

4.1 Grundläggande sannolikhetslära

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

FÖRELÄSNING 4:

FÖRELÄSNING 7:

Matematisk statistik 9hp Föreläsning 2: Slumpvariabel

Föreläsning 3. Kapitel 4, sid Sannolikhetsfördelningar

SF1901: Sannolikhetslära och statistik

TMS136. Föreläsning 11

Föreläsning 5, Matematisk statistik Π + E

Kap 3: Diskreta fördelningar

SF1901 Sannolikhetsteori och statistik I

SF1922/SF1923: SANNOLIKHETSTEORI OCH DISKRETA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 23 mars, 2018

Föreläsning 2, FMSF45 Slumpvariabel

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Statistiska metoder för säkerhetsanalys

SF1901: Sannolikhetslära och statistik

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

9. Konfidensintervall vid normalfördelning

Föreläsning 12: Repetition

TMS136: Dataanalys och statistik Tentamen

Provmoment: Tentamen 6,5 hp Ladokkod: A144TG Tentamen ges för: TGMAI17h, Maskiningenjör - Produktutveckling. Tentamensdatum: 28 maj 2018 Tid: 9-13

Föreläsning 6, Repetition Sannolikhetslära

Stokastiska signaler. Mediesignaler

Samplingfördelningar 1

Föreläsning 5, FMSF45 Summor och väntevärden

Introduktion till statistik för statsvetare

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

Jörgen Säve-Söderbergh

Föreläsning 5. Funktioner av slumpvariabler. Ett centralt resultat.

Föreläsning 8 för TNIU23 Integraler och statistik

0 om x < 0, F X (x) = c x. 1 om x 2.

Kapitel 4 Sannolikhetsfördelningar Sid Föreläsningsunderlagen är baserade på underlag skrivna av Karl Wahlin

Föreläsning 4: Konfidensintervall (forts.)

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

Grundläggande matematisk statistik

Föreläsning 8, Matematisk statistik Π + E

Föreläsning 8, FMSF45 Binomial- och Poissonfördelning, Poissonprocess

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

SF1901: Övningshäfte

Finansiell Statistik (GN, 7,5 hp, HT 2008) Föreläsning 2

Mer om slumpvariabler

Väntevärde och varians

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

F9 SAMPLINGFÖRDELNINGAR (NCT

FÖRELÄSNING 8:

Grundläggande matematisk statistik

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Statistik 1 för biologer, logopeder och psykologer

en observerad punktskattning av µ, ett tal. x = µ obs = 49.5.

Tentamen MVE301 Sannolikhet, statistik och risk

Lärmål Sannolikhet, statistik och risk 2015

Laboration 4: Stora talens lag, Centrala gränsvärdessatsen och enkla punktskattningar

MVE051/MSG Föreläsning 7

Monte Carlo-metoder. Bild från Monte Carlo

Matematikcentrum 1(6) Matematisk Statistik Lunds Universitet MASB11 - Biostatistisk grundkurs VT2014, lp3. Laboration 2. Fördelningar och simulering

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

Tentamen i Matematisk Statistik, 7.5 hp

Stokastiska Processer F2 Föreläsning 1: Repetition från grundkursen

TMS136. Föreläsning 13

Detta formelblad får användas under både KS2T och KS2D, samt ordinarie tentamen. x = 1 n. x i. with(stats): describe[mean]([3,5]); 4.

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall)

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall) Jan Grandell & Timo Koski

Transkript:

TMS136 Föreläsning 4

Kontinuerliga stokastiska variabler Kontinuerliga stokastiska variabler är stokastiska variabler som tar värden i intervall av den reella axeln Det kan handla om längder, temperaturer, vikter, strömstyrkor osv Storheter som observeras diskreta, exempelvis värden hos aktier, strömstyrkor mätta med digitala instrument, tider mätta med digitalur, alltså diskreta storheter med många möjliga utfall modelleras ofta med kontinuerliga s.v.

Enkelt exempel Vi går, utan att kolla tidtabeller eller klockor, ut till Chalmershållplatsen för att ta vagnen eller bussen ner till stan Väntetiden tills ett lämpligt transportmedel kommer kan modelleras med en kontinuerlig stokastisk variabel

Allmänt För en kontinuerlig s.v. X finns en täthetsfunktion (probability density function) f sådan att f x 0 f x dx = 1 b a P(a < X b) = f x dx

Observation P S = f x dx = 1 P a < X < b = P a X < b = eftersom P a < X b = P a X b P X = b = P X = a = f x dx = f x dx = b b a a 0

Fördelningsfunktionen för kontinuerlig s.v. För en kontinuerlig s.v. X ges fördelningsfunktionen av x F x = P X x = f y dy Arean under kurvan från lååååångt till vänster upp till x Observera att F x = f(x) enligt analysens huvudsats

Egenskaper hos fördelningsfunktionen Om X är kontinuerlig gäller att och 0 F(x) 1 om x < y så är F(x) F(y)

Observation Om X är kontinuerlig gäller att P X > x = P X x = 1 P X < x = 1 P X x = 1 F(x) Vi har även att P a < X b = F b F(a)

Viktig skillnad mellan diskreta och kontinuerliga s.v. För ett enskilt värde x gäller för en kontinuerlig s.v. att P X = x = 0 vilket behöver inte vara fallet för en diskret s.v. För en diskret s.v. finns alltid något värde x för vilket P X = x > 0 Alltså diskreta s.v. tar värden i enskilda punkter men det gör inte kontinueliga s.v.

Väntevärdet för en kontinuerlig s.v. Väntevärdet för en kontinuerlig s.v. X ges av E X = xf x dx Om g är någon funktion har vi att E(g X ) = g(x)f x dx

Tolkning Vi tänker oss att vi kan generera slumptal från vår (kontinuerliga) s.v. Efter varje nytt genererat slumptal beräknar vi medelvärdet av de hittills genererade talen Detta medelvärde kommer konvergera mot E(X) då antalet genererade slumptal växer

Variansen för en kontinuerlig s.v. Variansen för en kontinuerlig s.v. X med väntevärde μ ges av (verifiera sista likheten) V X = E X μ 2 = x μ 2 f x dx = x 2 f x dx μ 2 =

Exempel En viss s.v. X kan ta värden i intervallet (0, π) och har täthetsfunktionen Vad är konstanten C? Det ska alltså gälla att f x = Csin x, 0 < x < π 1 = f x dx π = C sin x dx = 2C 0 Alltså måste vi ha C = 1 2

Exempel fortsättning Vad är E(X)? Vi har att E(X) = xf x dx = 1 2 π xsin x dx 0 = π 2 Detta hade man kunnat gissa eftersom täthetsfunktionen är symmetrisk runt π 2

Kontinuerlig likformig fördelning Om vi vet att vagnen till stan går var tionde minut och vi går ut till hållplatsen på måfå utan att kolla klockan är väntetiden tills vagnen kommer likformigt fördelad på intervallet [0,10) Lite mer precist är sannolikheten att vi väntar mellan två och tre minuter lika stor som att vi väntar mellan sju och åtta minuter. Observera att när vi tänker oss väntetiden som en kontinuerlig s.v. blir det med nödvändighet så att sannolikheten att vi väntar prick åtta minuter (eller prick vilken tid som helst mellan noll och tio) är noll!

Kontinuerlig likformig fördelning Generellt säger vi att X är kontinuerligt likformigt fördelad på intervallet (a, b) om täthetsfunktionen för X är f x = 1 b a, a < x < b f x = 0, annars

Fördelningsfunktionen Vi ser att för X kontinuerligt likformigt fördelad på intervallet (a, b) så har vi att F x F x = 1 b a F x = 0 om x a x a dy = x a b a = 1 om x b om a < x < b

Väntevärde och varians Om X är kontinuerligt likformigt fördelad på (a, b) gäller att och E X = b + a 2 V X = b a 2 12

Exempel forts Den förväntade tiden vi väntar tills vagnen kommer om vi antar att det är tio minuter mellan avgångarna (och inte vet vad klockan är då vi ställer oss på hållplatsen) är alltså fem minuter Alltså, om vi skulle upprepa experimentet många gånger skulle medelväntetiden närma sig fem minuter Detta hade vi också kunna gissa utifrån att tätheten är symmetrisk (likformig)

Exponentialfördelning En annan fördelning som är viktig då man talar om väntetider eller livslängder är exponentialfördelningen Vi säger att X är exponentialfördelad med parameter λ > 0 om täthetsfunktionen för X ges av f x = λe λx, x > 0 f x = 0, annars

Fördelningsfunktionen Om X är exponentialfördelad med parameter λ ges fördelningsfunktionen av F x = 0 om x 0 F x = 1 e λx om x > 0

Exponentialfördelade s.v. är dementa Om man modellerar livslängden för exempelvis en elektronikkomponent med en exponentialfördelad s.v. får man en speciell egenskap på köpet Man kanske undrar vad är slh att komponenten lever i ytterligare y tidsenheter om den redan levt i x tidsenheter?

Exponetialfördelade s.v. är dementa Observervera att om vi låter X vara den exponentialfördelade livslängden så har vi att P X > x + y X > x = P(X > x + y, X > x) P(X > x) = P(X > x + y) P(X > x) = e λ x+y e λx = e λy = P(X > y)

Exponentialfördelade s.v. är dementa Om vi nu ska modellera en livslängd med exponentialfördelning finns alltså inget åldrande i modellen Man säger att exponentialfördelningen är minneslös

Väntevärde och varians Om X är exponentialfördelad med parameter λ har vi att (verifiera detta) E X = 1 λ och V X = 1 λ 2 Intuitionen här fås genom att kika på täthetens. Ju större λ är desto brantare är kurvan och desto mer area under kurvan finns nära 0

Kopplingen mellan exponential och Poisson Kom ihåg vi säger att (den diskreta) s.v.:n X är Poissonfördelad med parameter λ > 0 om massfunktionen ges av f x = e λ λ x x!, x = 0,1,2 Poissonfördelningen används ofta till att räkna antalet händelser i ett visst tidsintervall, exempelvis antal utstrålade alfapartiklar från ett radioaktivt material eller antalet kunder som kommer till en butik

Kopplingen mellan exponential och Poisson Om man antar att tiderna mellan händelserna är oberoende och exponentialfördelade med paramater λ kommer antalet händelser att vara Poissonfördelade med samma parameter λ Om vi vet att medelväntetiden mellan att två kunder kommer till en affär är en halv minut och antar att tiderna mellan kundernas ankomster är oberoende och exponentialfördelade betyder detta att sannolikheten att det kommer tre kunder under en minut är (varför?) e 2 2 3 3! 0.18

Världens viktigaste fördelning Den mest förekommande fördelningen i världen är normalfördelningen Speciellt viktig är den fördelning vi kallar standard normal Vi säger att X är standard normalfördelad om täthetsfunktionen för X ges av f x = 1 2π e x2 2

Världens viktigaste fördelning Att man säger standard normal har att göra med att väntevärdet är noll och standardavvikelsen är ett Utifrån en standard normalfördelad s.v. X kan man skapa en normalfördelad s.v. Y med väntevärde μ och standardavvikelse σ genom att låta Y = μ + σx

Världens viktigaste fördelning Om Y är normalfördelad med väntevärde μ och standardavvikelse σ ges tätheten av f y = 1 2πσ e y μ 2 2σ 2

Världens viktigaste fördelning

Världens viktigaste fördelning Så om Y är normalfördelad med väntevärde μ och standardavvikelse σ gäller att Y μ är standard σ normal. Detta är viktigt att förstå eftersom om man vill finna sannolikheter för normalfördelade s.v. måste man ibland transformera till standard normal (man kan inte skriva upp fördelningsfunktionen och måste leta i tabeller eller använda numerik)

Världens viktigaste fördelning Eftersom standard normal förekommer så ofta låter man i många böcker bokstaven Z vara reserverad för s.v. med standard normalfördelning Även fördelningsfunktionen reserveras ofta en egen symbol Φ z = P Z z = 1 2π z e x2 2 dx Värden på Φ för olika z brukar vara tabellerade i statistikböckers appendix

Världens viktigaste fördelning Sannolikheten att Z z är arean under klockan från lååååångt till vänster till z Till exempel har vi Φ 1.18 = P Z 1.18 = 0.8810

Symmetrier Eftersom klockan är symmetrisk följer att Φ z = 1 Φ z Verifiera detta genom att rita några fyllda klockor för olika värden på z

Och nu undrar ni varför den är så viktig Normalfördelningen är viktig dels för att många statistiska metoder bygger på att man har normalfördelade data Men det mest remarkabla av alla resultat i sannolikhetsteorin har också med normalfördelningen att göra Det är nämligen så att om man har ett stickprov från vilken som helst fördelning (som har väldefinierat väntevärde och varians) så kommer stickprovsmedelvärdets fördelning konvergera mot normalfördelning då stickprovsstorleken växer. Mer om detta senare

Exempel Låt X vara normal μ = 2 och σ = 0.5. Vad är sannolikheten att X 1? Lösning (verifiera likheterna) P X 1 = P X 2 0.5 1 2 0.5 = P Z 2 = P Z 2 = Φ 2 = 0.977

Approximationer Som en följd av resultatet som hintades om ovan har man att både binomialfördelning och Poissonfördelning kan approximeras med normalfördelning Man kan alltså approximera (vissa) diskreta fördelningar med en kontinuerlig (!)

Approximation av binomial med normal Om X är binomialfördelad med parametrar n och p gäller att X np np(1 p) är approximativt standard normalfördelad. Approximationen blir bättre ju större n är men kan anses duglig om np > 5 och n(1 p) > 5

Kontinuitetskorrigering Man kan bättra på normalapproximationen av binomial genom kontinuitetskorrigering P X x = P(X x + 0.5) P Z x + 0.5 np np(1 p) P X x = P(X x 0.5) P Z x 0.5 np np(1 p)

Approximation av Poisson med normal Om X är Poissonfördelad med parameter λ gäller att X λ är approximativt standard normalfördelad. Approximationen blir bättre ju större λ är men kan anses duglig då λ > 5 Precis som för normalapproximation av binomial kan man även här göra (på precis samma sätt) kontinuitetskorrigering för att få en bättre approximation λ