Kovarians och kriging Bengt Ringnér November 2, 2007 Inledning Detta är föreläsningsmanus på lantmätarprogrammet vid LTH. 2 Kovarianser Sedan tidigare har vi, för oberoende X och Y, att VX + Y ) = VX) + VY ). I det allmänna fallet gäller ) ) 2 VX + Y ) = E X + Y ) µ X + µ Y ) = }{{} X µ X ) 2 +Y µ Y ) 2 + 2X µ X )Y µ Y ) ) = VX) + VY ) + 2E X µ X )Y µ Y ) Definition Kovariansen mellan två stokastiska variabler, X och Y, definieras av ) CX,Y ) = E X µ X )Y µ Y ). Alltså gäller och VX + Y ) = VX) + VY ) + 2CX,Y ) VX) = CX,X). På liknande sätt som man fick räknereglerna för varianser får man CaX,bY ) = abcx,y ),
och, för diskreta variabler, CX + Z,Y ) = CX,Y ) + CZ,Y ), CX,Y + Z) = CX,Y ) + CX,Z), CX,Y ) = EXY ) EX)EY ) EXY ) = j=0 k=0 jkpx = j och Y = k). Det finns en liknande formel i det kontinuerliga fallet, men det går vi inte in på. Om X och Y är oberoende, så är PX = j och Y = k) = PX = j)py = k), vilket ger X,Y oberoende CX,Y ) = 0. Däremot gäller inte omvändningen! Definition 2 Korrelationskoefficienten mellan X och Y definieras av ρ = CX,Y ) σ X σ Y där σ X och σ Y är standardavvikelserna för X resp. Y. Man säger att variablerna är okorrelerade om ρ = 0, dvs om kovariansen är noll. Korrelationen är dimensionslös och det gäller ρ med likhet då och endast då det finns ett exakt lineärt samband mellan variablerna. Kovariansen skattas med n y i ȳ)x i x), n i= och korrelationskoefficienten med n i= r = y i ȳ)x i x) n i= y i ȳ) 2 n i= x i x) 2. Med beteckningar från regressionsanalysen har vi r = S yx Syy S xx. 2
Eftersom kovariansen mäter sambandet mellan X och Y kan den användas till att prediktera förutsäga) vad Y skall bli när man har observerat X eller tvärtom). I fallet att man vill hitta det lineära samband som är bäst i medelkvadratmening vill man välja α och β så att E Y α βx) 2) minimeras. För att minimera utvecklar vi först E Y α βx) 2) = E Y α) 2) ) + β 2 EX 2 ) 2βE Y α)x = = EY 2 ) + α 2 2αEY ) + β 2 EX 2 ) 2βEY X) + 2αβEX). Genom att derivera med avseende på α resp. β och sätta derivatorna till noll får vi ekvationssystemet { 2α 2EY ) + 2βEX) = 0 2βEX 2 ) 2EY X) + 2αEX) = 0, dvs { α + βex) = EY ) αex) + βex 2 ) = EY X), vilket har lösningen { β = CY,X) VX) α = EY ) βex). Om man har observationer x,y ),x 2,y 2 ),...,x n,y n ), skattar man α och β { β = P n i= y i ȳ)x i x) P n i= x i x) 2 α = ȳ β x, dvs precis som i regressionsanalys. För att prediktera Y med hjälp av n variabler, X,X 2,...,X n, som inte behöver vara oberoende, finns en liknande formel som innehåller alla CY,X i ) och CX i,x j ) skrivna i matrisform. Här skattar man som i multipel regressionsanalys. 3 Orientering om kriging Antag att man letar efter guld. Man har gjort n borrhål och funnit kvantiteterna x,x 2,...,x p av guld. Dessa värden betraktas som observationer 3
av stokastiska variabler X,X 2,...,X p. Man vill prediktera Y som är kvantiteten guld i ett hål man står i begrepp att borra och där man tänker sig att gräva en gruva om det visar sig att där finns tillräckligt mycket guld. Nu har man inte, som i regressionsanalys, n observationer av varje variabel utan bara en enda av varje X i och ingen av Y. För att lösa problemet behöver man förutsätta något samband mellan de olika kovarianserna. Följande förutsättningar görs: Alla variabler har väntevärde µ och standardavvikelse σ. Kovariansen mellan två variabler beror bara på avståndet mellan deras borrhål. Eftersom EX i X j ) 2 ) = VX i X j ) = VX i )+VX j ) 2CX i,x j ) = 2σ 2 CX i,x j )), får man kovarianserna ur CX i,x j ) = σ 2 EX i X j ) 2 /2). Högerledet kan man nu skatta genom att plotta x i x j ) 2 /2 mot avståndet och anpassa en kurva som i figuren. Kurvans parametrar matar man sedan in i ett program som räknar ut approximationer av CX i,x j ) och CY,X j ), varefter det predikterar med hjälp av metoden i avsnittet om kovarianser eller med en vidareutveckling av denna. För stora avstånd är kovariansen ungefär noll pga oberoende, så då är kurvan ungefär lika med σ 2. Man lägger märke till att kurvan inte går genom origo, vilket den skulle göra om korrelationen för mycket små avstånd vore ett. Det är den inte ty om ett borrhål träffar en guldklimp, behöver inte ett närliggande hål göra det. Därför kallas skärningen med h-axeln för nugget. 4
.5 0.5 0 0 2 3 4 5 6 7 8 9 0 Figure : Plot av h ij = x i x j ) 2 /2 mot avståndet, d ij, och anpassning av kurvan h =.4.2e 0.7d 5