Sannolikhet och statistik XI

Relevanta dokument
Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

SF1901: Sannolikhetslära och statistik

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Väntevärde och varians

SF1901 Sannolikhetsteori och statistik I

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

Föreläsning 7: Punktskattningar

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 6, Matematisk statistik Π + E

SF1901: Sannolikhetslära och statistik

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

Stokastiska vektorer och multivariat normalfördelning

Föreläsning 7: Punktskattningar

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för D, I, Π och Fysiker

Stokastiska vektorer

Föreläsning 6, FMSF45 Linjärkombinationer

Kurssammanfattning MVE055

Kap 2. Sannolikhetsteorins grunder

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Sammanfattning, del I

Föreläsning 7: Punktskattningar

SF1901: Sannolikhetslära och statistik. Väntevärde; Väntevärde för funktioner av s.v:er; Varians; Tjebysjovs olikhet. Jan Grandell & Timo Koski

2 x dx = [ x ] 1 = 1 ( 1 (1 0.9) ) 100 = /

Föreläsning 5, Matematisk statistik Π + E

SF1901: Sannolikhetslära och statistik

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

Statistiska metoder för säkerhetsanalys

Föreläsning 7: Stokastiska vektorer

F5 STOKASTISKA VARIABLER (NCT , samt del av 5.4)

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Matematisk statistik TMS063 Tentamen

Övning 1 Sannolikhetsteorins grunder

SF1911: Statistik för bioteknik

Stokastiska processer med diskret tid

Kovarians och kriging

Tentamen MVE301 Sannolikhet, statistik och risk

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

2.1 Mikromodul: stokastiska processer

Simulering av elmarknader. EG2205 Föreläsning 11, vårterminen 2016 Mikael Amelin

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Industriell matematik och statistik, LMA /14

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 14 18

Stokastiska Processer och ARIMA. Patrik Zetterberg. 19 december 2012

Lärmål Sannolikhet, statistik och risk 2015

Kapitel 5 Multivariata sannolikhetsfördelningar

Tentamen MVE301 Sannolikhet, statistik och risk

Stokastiska signaler. Mediesignaler

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

F7 forts. Kap 6. Statistikens grunder, 15p dagtid. Stokastiska variabler. Stokastiska variabler. Lite repetition + lite utveckling av HT 2012.

TAMS65 - Föreläsning 2 Parameterskattningar - olika metoder

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

Tentamen MVE302 Sannolikhet och statistik

1. En kortlek består av 52 kort, med fyra färger och 13 valörer i varje färg.

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

5 Kontinuerliga stokastiska variabler

Bengt Ringnér. October 30, 2006

Tentamen MVE301 Sannolikhet, statistik och risk

Problemsamling i Sannolikhetsteori

MS-A0509 Grundkurs i sannolikhetskalkyl och statistik Övning 3 Vecka 4,

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

Avd. Matematisk statistik

Föreläsning 4: Konfidensintervall (forts.)

Tentamen i Matematisk Statistik, 7.5 hp

Föreläsning 15: Försöksplanering och repetition

Föreläsning 12: Linjär regression

LINKÖPINGS UNIVERSITET EXAM TAMS 27 / TEN 2

Bengt Ringnér. September 20, Detta är föreläsningsmanus på lantmätarprogrammet LTH vecka 5 HT07.

TAMS79 / TAMS65 - vt TAMS79 / TAMS65 - vt Formel- och tabellsamling i matematisk statistik. TAMS79 / TAMS65 - vt 2013.

Stokastiska processer med diskret tid

TENTAMEN I STATISTIKENS GRUNDER 1

SF1901: Sannolikhetslära och statistik

Lektionsanteckningar 11-12: Normalfördelningen

SF1901: SANNOLIKHETSTEORI OCH KONTINUERLIGA STOKASTISKA VARIABLER STATISTIK. Tatjana Pavlenko. 7 september 2016

Teoretisk statistik. Gunnar Englund Matematisk statistik KTH. Vt 2005

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

Föreläsning 5, FMSF45 Summor och väntevärden

Föresläsningsanteckningar Sanno II

Oberoende stokastiska variabler

FACIT: Tentamen L9MA30, LGMA30

FINGERÖVNINGAR I SANNOLIKHETSTEORI MATEMATISK STATISTIK AK FÖR I. Oktober Matematikcentrum Matematisk statistik

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

Föreläsning 8, Matematisk statistik 7.5 hp för E Punktskattningar

Sannolikheter och kombinatorik

Föreläsning 8 för TNIU23 Integraler och statistik

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

Matematisk statistik för B, K, N, BME och Kemister

Matematisk statistik för D, I, Π och Fysiker

TMS136. Föreläsning 5

FACIT: Tentamen L9MA30, LGMA30

Sannolikhetsteori FORMELSAMLING MATEMATISK STATISTIK, AK 9HP, FMS012 [UPPDATERAD ] Sannolikhetsteorins grunder

TMS136. Föreläsning 5

Formler och tabeller till kursen MSG830

SF1901: SANNOLIKHETSTEORI OCH FLERDIMENSIONELLA STOKASTISKA STATISTIK VARIABLER. Tatjana Pavlenko. 8 september 2017

Transkript:

April 219

Betingade väntevärden. Vi ska säga att E[Y X = x] är väntevärdet av den sv som samma förd som Y givet X = x. Definition: Y diskret: E[Y X = x] = y k V Y y k p Y X (y k x), Y kont: E[Y X = x] = yf Y X (y x)dy. Totala sannolikhetslagen för väntevärden: X diskret: E[Y ] = x j V X E[Y X = x j ]p X (x j ), X kont: E[Y ] = E[Y X = x]f X (x)dx.

Bevis: Fallet (X, Y ) kont. E[Y X = x]f X (x)dx = där sista likheten är OSL. = ( = E[Y ] ) yf Y X (y x)dy f X (x)dx yf (x, y)dy dx Exempel forts: X likf (, 1) och sedan Y likf (, X ). Vi såg förut att f (x, y) = 1/x, < y < x < 1. Enl OSL E[Y ] = Alt. 1 x E[Y ] = yf (x, y)dy dx = 1 1 x E[Y X = x]f X (x)dx = y 1 x dy dx = 1 2 1 1 1 2 xdx = 1 4. 1 x x 2 dx = 1 4.

Definition: E[Y X ] är den sv som antar värdet E[Y X = x] då X = x. M.a.o. om fknen g ges av g(x) = E[Y X = x] så är E[Y X ] = g(x ). Kortform av TSL för bet vv: Antag (X, Y ) kont (funkar lika bra diskret). Enl TSL och OSL gäller E[Y ] = E[Y X = x]f X (x)dx = g(x)f X (x)dx = E[g(X )] = E [E[Y X ]]. Detta är värt highlight: E [E[Y X ]] = E[Y ]. Exempel: Låt X Geo(p) och sedan Y Bin(X, r). Vad är E[Y ]? E[Y ] = E [E[Y X ]] = E[Xr] = r p.

Exempel. Låt X 1, X 2,... vara oberoende och E[X k ] = µ för alla k. Låt N vara ober av X k :na och pos. heltalsvärd. [ N [ [ N ]] E X k ] = E E X k N = E[Nµ] = µe[n]. k=1 k=1 Obs att P(A) = E[P(A X )] ty h.l. = P(A X = x)f X (x)dx = P(A).

Kovarians och korrelation. Låt X och Y vara två sv. Definition: Cov(X, Y ) = E[(X µ X )(Y µ Y )]. Ett mått på hur X och Y samvarierar: Cov(X, Y ) > betyder positivt beroende och Cov(X, Y ) < negativt beroende. Formel: Cov(X, Y ) = E[XY ] E[X ]E[Y ]. Följer av att Cov(X, Y ) = E[XY µ X Y µ Y X + µ X µ Y ] = E[XY ] µ X µ Y. Om X, Y oberoende gäller E[XY ] = E[X ]E[Y ], så formeln ger att X och Y oberoende Cov(X, Y ) =. Varning: Cov(X, Y ) = medför inte i allmänhet att X och Y oberoende. Motexempel strax.

Några obs: Cov(X, a) =, Cov(X, X ) = Var(X ), Cov(X, Y ) = Cov(Y, X ). Formeln ger också att kovariansen är bilinjär: Cov(a 1 X 1 + a 2 X 2, b 1 Y 1 + b 2 Y 2 ) = a 1 b 1 Cov(X 1, Y 1 ) + a 1 b 2 Cov(X 1, Y 2 ) + a 2 b 1 Cov(X 2, Y 1 ) + a 2 b 2 Cov(X 2, Y 2 ). Exempelvis Cov(X + a, Y + b) = Cov(X, Y ) + Cov(X, b) + Cov(a, Y ) + Cov(a, b) = Cov(X, Y ).

Variansen för en summa: Var(X + Y ) = Cov(X + Y, X + Y ) = Var(X ) + 2Cov(X, Y ) + Var(Y ). Exempel: Låt Θ likf (, 2π), och X = cos Θ, Y = sin Θ. Vi har E[X ] = 2π cos θ 1 2π dθ =, E[Y ] = sin θ 1 dθ =. 2π 2π E[XY ] = 2π cos θ sin θ 1 dθ =. 2π Alltså: Cov(X, Y ) = =, men X och Y är inte oberoende.

Exempel: Låt X och Y vara ober och likf (, 1). Låt Z = XY, W = X + Y. Bestäm Cov(Z, W ). E[Z] = E[XY ] = E[X ]E[Y ] = 1, E[W ] = E[X ] + E[Y ] = 1. 4 E[ZW ] = E[XY (X + Y )] = E[X 2 ]E[Y ] + E[X ]E[Y 2 ] = 1 3. Alltså Cov(Z, W ) = 1 3 1 4 1 = 1 12. Alltså positivt beroende.

OK, så kovariansen var 1/12 i förra exemplet, men vad säger det om hur starkt det positiva beroendet är? Måste sättas i relation till varianserna. Dags att prata om korrelation. Schwarz olikhet: För alla sv X och Y gäller E[XY ] 2 E[X 2 ]E[Y 2 ]. Bevis: Vi anv att för alla konstanter t: E[(X ty ) 2 ] = E[X 2 ] 2tE[XY ] + t 2 E[Y 2 ]. H.l. blir som minst då t = E[XY ]/E[Y 2 ]. Sätt in detta t i h.l. och få E[X 2 E[XY ]2 E[XY ]2 ] 2 E[Y 2 + ] E[Y 2 ] = E[X 2 ] E[XY ]2 E[Y 2 ]. Förläng med E[Y 2 ] och saken är klar.

Definition: Korrelationskoefficienten för (X, Y ) ges av ρ(x, Y ) = Cov(X, Y ) Var(X )Var(Y ). Vi har 1 ρ(x, Y ) 1 enligt Schwarz anv på X µ X och Y µ Y. Vi har också ρ(x, Y ) = ρ(ax, by ) (skalningsinvarians), Y = ax + b för konstant a > ρ(x, Y ) = 1, Y = ax + b för konstant a < ρ(x, Y ) = 1.

Typiska plottar av data (X 1, Y 1 ),..., (X n, Y n ): Page 1 of 1 Perfect Positive Correlation High Low Low High Positive Positive No Negative Negative Correlation Correlation Correlation Correlation Correlation Perfect Negative Correlation 1.9.5 -.5 -.9-1 Figur: Korrelationskoefficient. Definition: Om ρ(x, Y ) = kallas X och Y okorrelerade.

Exempel forts: Vi hade X, Y oberoende och likf (, 1), och Z = XY, W = X + Y. Vi fick Cov(Z, W ) = 1/12. Vad är ρ(x, Y )? Vi behöver varianserna. Var(W ) = Var(X + Y ) = Var(X ) + Var(Y ) = 1 6 eftersom variansen av likf (, 1) är 1/12. Var(Z) = Var(XY ) = E[X 2 Y 2 ] E[XY ] 2 eftersom E[X 2 ] = 1/3. Alltså = E[X 2 ]E[Y 2 ] (E[X ]E[Y ]) 2 ( ) 1 2 ( ) 1 2 = = 7 3 4 144 ρ(z, W ) = 1/12 (1/6) (7/144) = 6 7.

Exempel: Bästa linjära prediktor: Välj a och b för att minimera E[(Y (ax + b)) 2 ]. Antag att E[X ] = E[Y ] = och Var(X ) = Var(Y ) = 1. Då är ρ = Cov(X, Y ) = E[XY ] och E[(Y (ax + b)) 2 ] = E[Y 2 ] 2E[Y (ax + b)] + E[(aX + b) 2 ] = 1 2aρ + a 2 + b 2. Detta min med b = och a = ρ. Man säger alltså att i detta fall är bästa linjära prediktor av Y givet X lika med ρx. I det allmänna fallet ges den bästa linjära prediktorn av µ Y + ρ σ Y σ X (X µ X ).