Kovarians och kriging

Relevanta dokument
SF1901 Sannolikhetsteori och statistik I

Föreläsning 5, Matematisk statistik 7.5hp för E Linjärkombinationer

Matematisk statistik 9 hp Föreläsning 6: Linjärkombinationer

SF1920/SF1921 Sannolikhetsteori och statistik 6,0 hp Föreläsning 6 Väntevärden Korrelation och kovarians Stora talens lag. Jörgen Säve-Söderbergh

Matematisk statistik 9hp Föreläsning 7: Normalfördelning

Föreläsning 7: Punktskattningar

Exempel. Kontinuerliga stokastiska variabler. Integraler i stället för summor. Integraler i stället för summor

Enkel och multipel linjär regression

Stat. teori gk, ht 2006, JW F7 STOKASTISKA VARIABLER (NCT 5.7) Ordlista till NCT

Föreläsning 6, Matematisk statistik Π + E

SF1901: Sannolikhetslära och statistik

SF1901: Sannolikhetslära och statistik. Flera stokastiska variabler.

Föreläsning 6, FMSF45 Linjärkombinationer

FORMELSAMLING MATEMATISK STATISTIK FÖR W; FMSF75 UPPDATERAD Sannolikhetsteori. Beskrivning av data. Läges-, spridnings- och beroendemått

Bengt Ringnér. September 20, Detta är föreläsningsmanus på lantmätarprogrammet LTH vecka 5 HT07.

Föreläsning 1. Repetition av sannolikhetsteori. Patrik Zetterberg. 6 december 2012

Föreläsning 7: Punktskattningar

Kap 2. Sannolikhetsteorins grunder

Matematisk statistik för D, I, Π och Fysiker

Föreläsning 12: Linjär regression

Föreläsning 7: Punktskattningar

Stokastiska vektorer

SF1901: Sannolikhetslära och statistik

Föreläsningsmanus i matematisk statistik för lantmätare, vecka 5 HT06

Formler och tabeller till kursen MSG830

FORMELSAMLING HT-18 MATEMATISK STATISTIK FÖR B, K, N, BME OCH KEMISTER; FMSF70 & MASB02. Sannolikhetsteori. Beskrivning av data

Matematisk statistik KTH. Formel- och tabellsamling i matematisk statistik

F13 Regression och problemlösning

F12 Regression. Måns Thulin. Uppsala universitet Statistik för ingenjörer 28/ /24

Oberoende stokastiska variabler

Bengt Ringnér. October 30, 2006

Stokastiska vektorer och multivariat normalfördelning

Matematisk statistik för D, I, Π och Fysiker

Finansiell statistik. Multipel regression. 4 maj 2011

Statistiska metoder för säkerhetsanalys

Sannolikhet och statistik XI

Stokastiska signaler. Mediesignaler

MVE051/MSG Föreläsning 14

LINKÖPINGS UNIVERSITET EXAM TAMS 15 / TEN 1

Föreläsning 7: Stokastiska vektorer

2 x dx = [ x ] 1 = 1 ( 1 (1 0.9) ) 100 = /

Matematisk statistik för D, I, Π och Fysiker

Väntevärde och varians

Föreläsning 8. NDAB02 Statistik; teori och tillämpning i biologi

TENTAMEN MÅNDAGEN DEN 22 OKTOBER 2012 KL a) Bestäm P(ingen av händelserna inträffar). b) Bestäm P(exakt två av händelserna inträffar).

TENTAMEN GRUNDLÄGGANDE STATISTIK FÖR EKONOMER

FACIT: Tentamen L9MA30, LGMA30

Kurssammanfattning MVE055

AMatematiska institutionen avd matematisk statistik

Lycka till!

Matematisk statistik KTH. Formelsamling i matematisk statistik

SF1901: SANNOLIKHETSTEORI OCH MER ON VÄNTEVÄRDE OCH VARIANS. KOVARIANS OCH KORRELATION. STORA TALENS LAG. STATISTIK.

2.1 Mikromodul: stokastiska processer

Föreläsning 5, FMSF45 Summor och väntevärden

Matematisk statistik TMS063 Tentamen

Föreläsning 8, Matematisk statistik 7.5 hp för E Punktskattningar

Tenta i Statistisk analys, 15 december 2004

Matematisk statistik 9 hp, HT-16 Föreläsning 10: Punktskattningar

Tentamen i matematisk statistik (9MA241/9MA341, STN2) kl 08-12

1/23 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet

Matematisk statistik för B, K, N, BME och Kemister

Uppgift 1 a) En kontinuerlig stokastisk variabel X har fördelningsfunktion

TAMS65. Formel- och tabellsamling i matematisk statistik TAMS65. Martin Singull TAMS65 TAMS65

Föreläsning 12: Regression

TENTAMEN I STATISTIKENS GRUNDER 1

Lektionsanteckningar 11-12: Normalfördelningen

Grundläggande matematisk statistik

FINGERÖVNINGAR I SANNOLIKHETSTEORI MATEMATISK STATISTIK AK FÖR I. Oktober Matematikcentrum Matematisk statistik

Föreläsning 5, Matematisk statistik Π + E

Matematisk statistik 9hp Föreläsning 5: Summor och väntevärden

F7 forts. Kap 6. Statistikens grunder, 15p dagtid. Stokastiska variabler. Stokastiska variabler. Lite repetition + lite utveckling av HT 2012.

Höftledsdysplasi hos dansk-svensk gårdshund

Matematisk statistik för D, I, Π och Fysiker

Matematisk statistik för B, K, N, BME och Kemister

Tentamen MVE302 Sannolikhet och statistik

Övning 1. Vad du ska kunna efter denna övning. Problem, nivå A

FACIT: Tentamen L9MA30, LGMA30

SF1901 Sannolikhetsteori och statistik I

Matematisk statistik, Föreläsning 5

Sannolikheter och kombinatorik

1/31 REGRESSIONSANALYS. Statistiska institutionen, Stockholms universitet

Stokastiska processer med diskret tid

Kapitel 5 Multivariata sannolikhetsfördelningar

Föreläsning 4: Konfidensintervall (forts.)

Formel- och tabellsamling i matematisk statistik

Tentamen för kursen. Linjära statistiska modeller. 17 februari

Avd. Matematisk statistik

PROGRAMFÖRKLARING I. Statistik för modellval och prediktion. Ett exempel: vågriktning och våghöjd

oberoende av varandra så observationerna är

b) Beräkna väntevärde och varians för produkten X 1 X 2 X 10 där alla X i :na är oberoende och R(0,2). (5 p)

Föreläsning 15: Försöksplanering och repetition

Föreläsning 6, Repetition Sannolikhetslära

Uppsala Universitet Matematiska institutionen Matematisk Statistik. Formel- och tabellsamling. Sannolikhetsteori och Statistik

Stokastiska processer med diskret tid

Envägs variansanalys (ANOVA) för test av olika väntevärde i flera grupper

Simulering av elmarknader. EG2205 Föreläsning 11, vårterminen 2016 Mikael Amelin

LINKÖPINGS UNIVERSITET EXAM TAMS 79 / TEN 1

0 om x < 0, F X (x) = x. 3 om 0 x 1, 1 om x > 1.

Tentamen i Matematisk Statistik, 7.5 hp

Tentamen L9MA30, LGMA30

Transkript:

Kovarians och kriging Bengt Ringnér November 2, 2007 Inledning Detta är föreläsningsmanus på lantmätarprogrammet vid LTH. 2 Kovarianser Sedan tidigare har vi, för oberoende X och Y, att VX + Y ) = VX) + VY ). I det allmänna fallet gäller ) ) 2 VX + Y ) = E X + Y ) µ X + µ Y ) = }{{} X µ X ) 2 +Y µ Y ) 2 + 2X µ X )Y µ Y ) ) = VX) + VY ) + 2E X µ X )Y µ Y ) Definition Kovariansen mellan två stokastiska variabler, X och Y, definieras av ) CX,Y ) = E X µ X )Y µ Y ). Alltså gäller och VX + Y ) = VX) + VY ) + 2CX,Y ) VX) = CX,X). På liknande sätt som man fick räknereglerna för varianser får man CaX,bY ) = abcx,y ),

och, för diskreta variabler, CX + Z,Y ) = CX,Y ) + CZ,Y ), CX,Y + Z) = CX,Y ) + CX,Z), CX,Y ) = EXY ) EX)EY ) EXY ) = j=0 k=0 jkpx = j och Y = k). Det finns en liknande formel i det kontinuerliga fallet, men det går vi inte in på. Om X och Y är oberoende, så är PX = j och Y = k) = PX = j)py = k), vilket ger X,Y oberoende CX,Y ) = 0. Däremot gäller inte omvändningen! Definition 2 Korrelationskoefficienten mellan X och Y definieras av ρ = CX,Y ) σ X σ Y där σ X och σ Y är standardavvikelserna för X resp. Y. Man säger att variablerna är okorrelerade om ρ = 0, dvs om kovariansen är noll. Korrelationen är dimensionslös och det gäller ρ med likhet då och endast då det finns ett exakt lineärt samband mellan variablerna. Kovariansen skattas med n y i ȳ)x i x), n i= och korrelationskoefficienten med n i= r = y i ȳ)x i x) n i= y i ȳ) 2 n i= x i x) 2. Med beteckningar från regressionsanalysen har vi r = S yx Syy S xx. 2

Eftersom kovariansen mäter sambandet mellan X och Y kan den användas till att prediktera förutsäga) vad Y skall bli när man har observerat X eller tvärtom). I fallet att man vill hitta det lineära samband som är bäst i medelkvadratmening vill man välja α och β så att E Y α βx) 2) minimeras. För att minimera utvecklar vi först E Y α βx) 2) = E Y α) 2) ) + β 2 EX 2 ) 2βE Y α)x = = EY 2 ) + α 2 2αEY ) + β 2 EX 2 ) 2βEY X) + 2αβEX). Genom att derivera med avseende på α resp. β och sätta derivatorna till noll får vi ekvationssystemet { 2α 2EY ) + 2βEX) = 0 2βEX 2 ) 2EY X) + 2αEX) = 0, dvs { α + βex) = EY ) αex) + βex 2 ) = EY X), vilket har lösningen { β = CY,X) VX) α = EY ) βex). Om man har observationer x,y ),x 2,y 2 ),...,x n,y n ), skattar man α och β { β = P n i= y i ȳ)x i x) P n i= x i x) 2 α = ȳ β x, dvs precis som i regressionsanalys. För att prediktera Y med hjälp av n variabler, X,X 2,...,X n, som inte behöver vara oberoende, finns en liknande formel som innehåller alla CY,X i ) och CX i,x j ) skrivna i matrisform. Här skattar man som i multipel regressionsanalys. 3 Orientering om kriging Antag att man letar efter guld. Man har gjort n borrhål och funnit kvantiteterna x,x 2,...,x p av guld. Dessa värden betraktas som observationer 3

av stokastiska variabler X,X 2,...,X p. Man vill prediktera Y som är kvantiteten guld i ett hål man står i begrepp att borra och där man tänker sig att gräva en gruva om det visar sig att där finns tillräckligt mycket guld. Nu har man inte, som i regressionsanalys, n observationer av varje variabel utan bara en enda av varje X i och ingen av Y. För att lösa problemet behöver man förutsätta något samband mellan de olika kovarianserna. Följande förutsättningar görs: Alla variabler har väntevärde µ och standardavvikelse σ. Kovariansen mellan två variabler beror bara på avståndet mellan deras borrhål. Eftersom EX i X j ) 2 ) = VX i X j ) = VX i )+VX j ) 2CX i,x j ) = 2σ 2 CX i,x j )), får man kovarianserna ur CX i,x j ) = σ 2 EX i X j ) 2 /2). Högerledet kan man nu skatta genom att plotta x i x j ) 2 /2 mot avståndet och anpassa en kurva som i figuren. Kurvans parametrar matar man sedan in i ett program som räknar ut approximationer av CX i,x j ) och CY,X j ), varefter det predikterar med hjälp av metoden i avsnittet om kovarianser eller med en vidareutveckling av denna. För stora avstånd är kovariansen ungefär noll pga oberoende, så då är kurvan ungefär lika med σ 2. Man lägger märke till att kurvan inte går genom origo, vilket den skulle göra om korrelationen för mycket små avstånd vore ett. Det är den inte ty om ett borrhål träffar en guldklimp, behöver inte ett närliggande hål göra det. Därför kallas skärningen med h-axeln för nugget. 4

.5 0.5 0 0 2 3 4 5 6 7 8 9 0 Figure : Plot av h ij = x i x j ) 2 /2 mot avståndet, d ij, och anpassning av kurvan h =.4.2e 0.7d 5