Bengt Ringnér. September 20, Detta är föreläsningsmanus på lantmätarprogrammet LTH vecka 5 HT07.

Relevanta dokument
Bengt Ringnér. October 30, 2006

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

SF1901 Sannolikhetsteori och statistik I

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Föreläsning 6, Matematisk statistik Π + E

Summor av slumpvariabler

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

Föreläsning 5, FMSF45 Summor och väntevärden

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

Kovarians och kriging

Föreläsning 6, FMSF45 Linjärkombinationer

Övning 1 Sannolikhetsteorins grunder

TAMS79: Föreläsning 6. Normalfördelning

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

SF1901: Sannolikhetslära och statistik

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Väntevärde och varians

SF1901: Sannolikhetslära och statistik

Föreläsning 5. Funktioner av slumpvariabler. Ett centralt resultat.

0 om x < 0, F X (x) = c x. 1 om x 2.

Stokastiska vektorer

SF1901: Sannolikhetslära och statistik

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

Om sannolikhet. Bengt Ringnér. August 27, Detta är introduktionsmaterial till kursen i matematisk statistik för lantmätarprogrammet

Kap 2. Sannolikhetsteorins grunder

Matematisk statistik för D, I, Π och Fysiker

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

Matematisk statistik för D, I, Π och Fysiker

TMS136. Föreläsning 4

2 x dx = [ x ] 1 = 1 ( 1 (1 0.9) ) 100 = /

Transformer i sannolikhetsteori

Föreläsning 5, Matematisk statistik Π + E

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Kurssammanfattning MVE055

Stokastiska vektorer och multivariat normalfördelning

SF1911: Statistik för bioteknik

F8 Skattningar. Måns Thulin. Uppsala universitet Statistik för ingenjörer 14/ /17

Lektionsanteckningar 11-12: Normalfördelningen

FINGERÖVNINGAR I SANNOLIKHETSTEORI MATEMATISK STATISTIK AK FÖR I. Oktober Matematikcentrum Matematisk statistik

Repetitionsföreläsning

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

Grundläggande matematisk statistik

Föreläsning 8, Matematisk statistik Π + E

FACIT för Förberedelseuppgifter: SF1911 STATISTIK FÖR BI0TEKNIK inför tentan MÅDAGEN DEN 9 DECEMBER 2016 KL Examinator: Timo Koski

Formel- och tabellsamling i matematisk statistik

Föreläsning 12: Regression

Matematisk statistik för B, K, N, BME och Kemister

19.1 Funktioner av stokastiska variabler

F9 SAMPLINGFÖRDELNINGAR (NCT

Resultat till ett försök är ofta ett tal. Talet kallas en stokastisk variabel (kortare s. v.).

Mer om konfidensintervall + repetition

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

BIOSTATISTISK GRUNDKURS, MASB11, VT-16, VT2 ÖVNING 3, OCH INFÖR ÖVNING 4

(b) Bestäm sannolikheten att minst tre tåg är försenade under högst tre dagar en given vecka.

Avd. Matematisk statistik

Föreläsning 7: Punktskattningar

Två parametrar: µ (väntevärdet) och σ (standardavvikelsen) µ bestämmer normalfördelningens läge

Föreläsning 11: Mer om jämförelser och inferens

Jörgen Säve-Söderbergh

Tentamen MVE302 Sannolikhet och statistik

Föreläsning 7: Punktskattningar

(x) = F X. och kvantiler

FMSF55: Matematisk statistik för C och M OH-bilder på föreläsning 5, a 2 e x2 /a 2, x > 0 där a antas vara 0.6.

Matematisk statistik KTH. Formelsamling i matematisk statistik

Problemdel 1: Uppgift 1

b) Beräkna väntevärde och varians för produkten X 1 X 2 X 10 där alla X i :na är oberoende och R(0,2). (5 p)

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

bli bekant med summor av stokastiska variabler.

Grundläggande matematisk statistik

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

LÖSNINGAR TILL. Matematisk statistik, Tentamen: kl FMS 086, Matematisk statistik för K och B, 7.5 hp

Avd. Matematisk statistik

Matematisk statistik för D, I, Π och Fysiker

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

DATORÖVNING 2 MATEMATISK STATISTIK FÖR D, I, PI OCH FYSIKER; FMSF45 & MASB03. bli bekant med summor av stokastiska variabler.

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

Föreläsning 12: Linjär regression

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Föreläsning 7: Punktskattningar

SF1901 Sannolikhetsteori och statistik I

Introduktion till statistik för statsvetare

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Del I. Uppgift 1 Låt X och Y vara stokastiska variabler med följande simultana sannolikhetsfunktion: p X,Y ( 2, 1) = 1

Sannolikhet och statistik XI

SF1901: Sannolikhetslära och statistik. Statistik: Intervallskattning (konfidensintervall) Jan Grandell & Timo Koski

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Tentamen i Matematisk Statistik, 7.5 hp

SF1901 Sannolikhetsteori och statistik I

Föreläsning 11. Slumpvandring och Brownsk Rörelse. Patrik Zetterberg. 11 januari 2013

AMatematiska institutionen avd matematisk statistik

Föreläsning 7: Stokastiska vektorer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 3 Diskreta stokastiska variabler. Jörgen Säve-Söderbergh

e x/1000 för x 0 0 annars

Föreläsning 4: Konfidensintervall (forts.)

Transkript:

Väntevärden Bengt Ringnér September 0, 007 1 Inledning Detta är föreläsningsmanus på lantmätarprogrammet LTH vecka 5 HT07. Väntevärden Låt X vara en stokastisk variabel som representerar ett slumpmässigt försök, t ex att mäta en viss storhet. Antag att man kan göra, eller åtminstone tänka sig, oberoende upprepningar av försöket under oförändrade förhållanden, och beteckna resultaten med x 1,x,... Väntevärdet av X, som skrivs E(X), är vad man väntar sig att medelvärdet av X skall bli i det långa loppet, dvs vilket värde man väntar sig att x 1 + x, x 1 + x + x,..., x 1 + x +... + x,... skall närma sig mer och mer ju större blir. Exempel Mats Tatistiker spelar på en spelautomat som ger en enkrona med sannolikheten 0.4, en femkrona med sannolikheten 0. och en tia med sannolikheten 0.1. Vad är väntevärdet hur mycket han vinner? Om 1000, till exempel, väntar man sig att han skall få 400 enkronor, 00 femkronor och 100 tior, dvs totalt 400 + 5 00 + 10 100 kronor, så I formelspråk är detta E(X) 400 + 5 00 + 10 100 1000.4 E(X) 0 P(X 0) +1 P(X 1) +5 P(X 5) +10 P(X 10).4 }{{}}{{}}{{}}{{} 0. 0.4 0. 0.1 1

Fortsättning: Om insatsen är.50 per spelomgång får han i det långa loppet betala 10 öre per gång för nöjet att spela. I formelspråk: E(X.5) E(X).5 0.1 Exempel Om X betecknar temperaturen mätt i grader Celsius och E(X) 10, vad är då E(Y ) där Y betecknar samma temperatur, men mätt i grader Fahrenheit, dvs Y 9 5 X +? Eftersom sambandet Y 9 5X + är lineärt (jämför med exemplet efter sats 1 nedan), kan man resonera så här: y 1 + y +... + y 9 5 x 1 + + 9 5 x + +... + 9 5 x + 9 5 x1 + x +... + x + + +... + } {{ } Alltså E(Y ) E( 9 5 X + ) 9 E(X) + 50. 5 Exempel Om X är den tid det tar att äta frukost, Y den tid det tar att cykla till jobbet och X + Y den totala tiden, får vi, eftersom (x 1 + y ) + (x + y ) +... + (x + y ) att x 1 + x +... + x E(X + Y ) E(X) + E(Y ).. + y 1 + y +... + y u är följande räkneregler i överensstämmelse med vad man menar med väntevärde. Vi kan kalla dem axiom för väntevärdesräkningar. I fortsättningskurser kan man bevisa att de inte leder till motsägelser. 1. Om X 0, så är E(X) 0.. E(1) 1.. Om a är en konstant, så är E(aX) ae(x). 4. E(X + Y ) E(X) + E(Y ).,

5. Om X kan anta värdena 0,1,,...,n, gäller E(X) k P(X k). k0 edanstående definition är egentligen en sats som följer ur räknereglerna. Definition 1 Om X kan anta värdena 0, 1,,..., gäller E(X) k P(X k). k0 Om X är kontinuerlig med täthetsfunktion f X, gäller E(X) x f X (x)dx. Observera Om X bara kan variera inom vissa gränser, har man dem som integrationsgränser. Om t ex X är rektangelfördelad mellan a och b är E(X) b a x 1 b a dx 1 b a [ x vilket är vad man kunde vänta sig. Följande viktiga sats bevisar 1 vi inte. ] b a 1 b a b a a + b, Sats 1 Om Y g(x) där g är en given funktion är respektive E(Y ) E(Y ) g(k) P(X k), k0 g(x) f X (x)dx. Exempel Efter att ha väckts av en jordbävning under en predikan i domkyrkan i Pisa rusade Gallilei upp i det lutande tornet för att utföra fallförsök med klot av olika material. Han hade nämligen kommit på att pendelrörelse kan användas för noggrann tidmätning. 1 I engelskspråkig litteratur kallas satsen ibland Law of the Unconscious Statistician. För att kunna göra ett strikt bevis av den behöver man kunna måtteori, men då trillar den å andra sidan ut automatiskt.

Med en lätt historieförfalskning orkade han inte ända upp, utan stannade på en höjd X, som var rektangelfördelad mellan 0 och 16. Tiden för klotet att nå marken från höjden X är Y X/9.81. Beräkna E(Y ). Lösning: E(Y ) E( X/9.81) /9.81E( X) /9.81 [ ] /9.81 16 16 x/ /9.81 0 16. 16 0 x 1 16 0 dx Här kan man alltså inte som i fahrenheitexemplet sätta in E(X) 8 i formeln för Y, utan måste räkna ut en integral. Se emellertid Gauss approximation nedan. Standardavvikelse Man brukar använda beteckningarna E(X) µ X, E(Y ) µ Y, etc. Om bara ett µ är inblandat kan man hoppa över indexet. Som mått på hur mycket X avviker från sitt väntevärde i det långa loppet skulle man kunna använda E( X µ ), men följande är bättre att räkna med. Definition Standardavvikelsen av X ges av där V kallas variansen och ges av där µ E(X). D(X) V(X) V(X) E((X µ) ). Exampel I spelet i förra avsnittet ges variansen enligt sats 1 av V(X) (0.4) P(X 0) +(1.4) P(X 1) + }{{}}{{} 0. 0.4 (5.4) P(X 5) +(10.4) P(X 10)... }{{}}{{} 0. 0.1 4

För att det skall bli enklare att räkna utvecklar man kvadraten: V(X) (k µ) P(X k) }{{} k kµ+µ k P(X k) µ kp(x k) +µ kp(x k) så } {{ } E(X ) } {{ } µ } {{ } 1 E(X ) µ 1 0.4 + 5 0. + 100 0.1.4 9.64, D(X).105. Detta kommer att användas i samband med centrala gränsvärdessatsen senare. Exempel I exemplet med temperaturer gäller att variationerna upp och ner är 9/5 gånger så stora om de mäts i Fahrenheit istället för i Celsius. Att addera påverkar inte variationerna. I formler: Vidare gäller rimligtvis att D( 9 5 X + ) 9 5 D(X). D( X) D(X). Exempel är det gäller X+Y blir det inte så enkelt eftersom variablerna kan bero på varandra. I exemplet med frukost- och cykeltiderna kan det vara så att ju längre tid frukosten tar ju snabbare måste man cykla. I extremfallet tar man alltid in hela förseningen och då är D(X +Y ) 0. Här behövs istället satsen nedan. Sats För variansen gäller: 1. V(X) 0 alltid och V(X) 0 om X är konstant.. V(X) E(X ) µ där µ E(X).. Om a och b är konstanter, är (a) V(aX + b) a V(X). Speciellt V( X) V(X). (b) D(aX + b) a D(X). Speciellt D( X) D(X). 5

4. Om X och Y är oberoende gäller: Bevis (a) V(X + Y ) V(X) + V(Y ). (b) V(X Y ) V(X) + V(Y ). Obs + i högerledet, ty +. (c) D(X ± Y ) σx + σ Y. Pythagoras sats. 1. Eftersom (X µ) 0, är E((X µ) ) 0. Om X är konstant är µ X.. Utveckla E((X µ) ) som i exemplet ovan. Detta ger E((X µ) ) E(X Xµ µ ) E(X ) µe(x)+µ E(X ) µ. ( ) ). V (ax + b) E( (ax + b) (aµ + b) a V(X). } {{ } a (X µ) 4. (a) Enligt definition: ( ) ) V(X + Y ) E( (X + Y ) (µ X + µ Y ). Men ( (X + Y ) (µ X + µ Y )) ( (X µ X ) + (Y µ Y )) (X µ X ) + (X µ X )(Y µ Y ) + (Y µ Y ). Om X och Y är oberoende, kommer positiva och negativa utfall av (X µ X )(Y µ Y ) att ta ut varandra i det långa loppet, så V(X + Y ) E((X µ X ) ) + E((Y µ Y ) ) V(X) + V(Y ). Skall man vara petnoga, följer det av en variant av sats 1 att E((X µ X)(Y µ Y )) X (j µ X)(k µ Y ) P(X j, Y k) {z } j,k P(Y k)p(y k) X X (j µ X)P(X j) (k µ Y )P(Y k) 0. j k {z } {z } E(X) µ X 0 E(Y ) µ Y 0 Motsvarande gäller för kontinuerliga stokastiska variabler. 6

(b) Detta kan bevisas på två sätt: i. Precis som i a. Minustecknet påverkar bara termen som försvinner. ii. V(X Y ) V(X +( Y )) V(X)+V( Y ) V(X)+V(Y ). (c) Fås genom rotutdragning. 4 Tillämpningar 4.1 Trafikintensiteter Om X är poissonfördelad med parameter µ gäller E(X) k0 ke µµk k! e µ µ k (k 1)! j0 e µµj+1 j! µ e µµj j! j0 }{{} 1 µ. Exempel Trafiken på en viss väg antas vara sådan att antalet bilar som passerar undet ett tidsintervall är poissonfördelat. Vidare är trafikintensiteten.6 bilar per minut. En igelkott behöver en halv minut för att kila över vägen. Vad är sannolikheten att ingen bil passerar under den tiden? Låt X vara antalet bilar som passerar under en halv minut. Då gäller E(X).6/ 1. och enligt förutsättningarna är X poissonfördelad. Den sökta sannolikheten ges alltså av P(X 0) e 1.1.0 0! e 1. 0.75 Sannolikheten att igelkotten kommer över helskinnad är naturligtvis större än så, men det var inte det frågan gällde. 4. Centrala gränsvärdessatsen Exempel Antag att Mats i det första exemplet spelar 100 spel. Vad är sannolikheten att han inte förlorar mer är 50 kronor? Eftersom han betalar 100.5 50 kronor i insats, måste han vinna minst 00 kronor. Han vinner X X 1 + X +... + X 100. Enligt tidigare är E(X i ).4 och D(X i ).105 7

Detta ger och E(X) 100.4 40 V(X) 100.105 så D(X) 100.105 }{{} 10.105 1.05 O B S! Eftersom X är en summa av många oberoende och likafördelade stokastiska variabler, säger centrala gränsvärdessatsen att X är ungefär normalfördelad. Alltså ges den sökta sannolikheten av ( ) 00 40 P(X 00) 1 Φ 1 Φ( 1.88) Φ(1.88) 1.05 0.8997 + 0.8 (0.9015 0.8997) 0.9011 4. Mätosäkerhet Om man gör tre oberoende mätningar av samma sak och kallar resultaten för X, Z resp. U med väntevärde µ och standardavvikelse σ, gäller E( X + Z + U E(X + Z + U) E(X) + E(Z) + E(U) ) µ + µ + µ µ och V( X + Z + U V(X + Z + U) V(X) + V(Z) + V(U) ) σ + σ + σ σ, dvs. D( X + Z + U ) σ. Om man har n oberoende mätningar med samma µ och σ, får man på motsvarande sätt E( X) E( 1 X k ) 1 n n E( X k ) 1 E(X k ) 1 µ µ n n och V( X) V( 1 n X k ) 1 n V( X k ) 1 n 8 V(X k ) 1 n σ σ n,

dvs. D( X) σ n. Detta har man nytta av vid normalfördelning och normalapproximation. Den praktiska tolkningen är: Standardavvikelsen är ett mått på hur stort det slumpmässiga felet brukar vara. Den blir mindre ju fler observationer man har. Väntevärdet talar om hur man ligger i genomsnitt; om man har ett positivt systematiskt fel, så är µ större än det verkliga värdet, och tvärtom om det systematiska felet är negativt. Det systematiska felet är oförändrat även om man bildar medelvärde av flera observationer. Har slutligen X 1,X,...,X n1 väntevärde µ 1 och standardavvikelse σ 1, medan Y 1,Y,...,Y n har väntevärde µ och standardavvikelse σ, gäller E( X Ȳ ) µ 1 µ och, om alla stokastiska variabler är oberoende, I specialfallet σ 1 σ σ gäller D( X Ȳ ) σ 1 n 1 + σ n. D( X Ȳ ) σ 1 n 1 + 1 n. Om X- och Y -mätningarna har samma systematiska fel tar de ut varandra. Genom att låta Y vara mätningar av någon storhet som man redan känner, kan man använda fomlerna för att eliminera det systematiska felet. 5 Gauss approximativa felfortplantningslag Jämför med sats 1 och Gallileiexemplet. Här är också Y g(x), men nu är g ungefär lineär, dvs. g(x) ax+b, i området där X varierar. Detta ger E(g(X)) E(aX + b) ae(x) + b g(e(x)) och V(g(X)) V(aX + b) a V(X) ( g (E(X))) V(X), 9

dvs. D(g(X)) g (E(X)) D(X). Den sista formeln kan förklaras med att derivatan talar ju om hur mycket en liten förändring i X motsvarar för Y. Den slumpmässiga variationen ändras då lika mycket. Om Y g(x, Z) med X och Z oberoende gäller på motsvarande sätt och E(g(X,Z)) g(e(x), E(Z)) D(g(X,Z)) g x (E(X), E(Z)) (D(X)) + g z (E(X), E(Z)) (D(Z)), där g x och g z betyder partiella derivatan när man betraktar den andra variabeln som konstant. 10