Lunds Universitet med Lund Tekniska Högskola Finansiell Statistik Matematikcentrum, Matematisk Statistik VT 2006 GMM och Estimationsfunktioner I laborationen möter du två besläktade metoder för att estimera parameterar, generaliserade momentmetoden och estimationsfunktioner. Metoderna appliceras bland annat på stokastiska differentialekvationer. Det är en fördel om du använder Matlab men du får naturligtvis använda vilket programspråk du vill. Notera att du måste kommentera din kod noggrannt om du använder något annat program än Matlab. Laborationen skall genomföras i grupper om maximalt två studenter per grupp. 1 Förberedelseuppgifter Läs kapitel 14.6 (översiktligt) och 14.8 i [1, utdelat material [2 samt laborationshandledningen. Förbered sedan laborationen genom att skriva de matlabfunktioner som behövs för laborationen. Innan laborationen börjar kommer några av frågorna nedan att ställas. Dessa måste besvaras korrekt för att laborationen skall godkännas. 2 Frågekatalog 1. Föreslå några lämpliga momentvillkor för att estimera parametrarna i modellen y i = β 0 + β 1 x i + ε i, (1) med GMM. ε i är oberoende och likafördelat brus. Dessutom är ε i oberoende av x j för alla i, j. 2. Diskretisera och bestäm lämpliga moment för att estimera parametrarna i CKLSmodellen. 3. Beräkna väntevärde, andramoment och tredjemoment för Cox-Ingersoll-Ross processen genom Dynkins formel (se ekvation 4). 1
3 Laborationsuppgifter 3.1 Regression Estimation med generaliserade momentmetoden är ett alternativ som främst bör användas då maximum likelihoodestimering inte är möjlig eller då man inte explicit vill gör ett antagande om fördelningen hos innovationerna i sin modell. Metoden har ett visst mått av godtycke vid specificering av lämpliga momentvillkor vilket ibland leder till sämre effektivitet än maximum likelihood 1. Samtidigt kan man för enklare modeller och med lämpligt valda momentvillkor visa att båda metoderna ger identiska estimatorer. Om antalet momentvillkor är lika med antalet parametrar kan man ofta bespara sig en del arbete vid estimationen eftersom man då kan lösa ett ekvationssystem istället för att lösa ett optimeringsproblem. Metoden brukar då kallas momentmetoden. Vid en första anblick ger metoden intryck av att vara en rent teoretisk konstruktion då det sanna parametervärdet krävs för att beräkna viktmatrisen vilken i sin tur krävs för att beräkna estimaten. Detta är emellertid inget problem då man kan visa att generaliserade momentmetoden är konsistent (men inte effektiv) för alla positivt definita viktmatriser. Pseudoalgoritmmässigt utförs estimationen därför som 1. Estimera parametrarna med en godtycklig positivt definit viktsmatris W, förslagsvis vald som en enhetsmatris, som ger en första uppskattning av parametrarna. ( 1 ) T ( 1 ) θ = arg min J N (θ) = arg min f(xt, θ) W f(xt, θ) N N 2. Använd dessa parameterskattningar för att estimera den optimala viktsmatrisen, vald som inversen av kovariansmatrisen för momentvillkoren. 3. Estimera nya parametrar med den nya viktmatrisen, och gör om från steg 2 tills parameterestimaten har konvergerat. Uppgift: För att introducera GMM skall ni estimera parametrarna i en linjär regressionsmodell. Datamängden är densamma som för laboration 1. Ladda in data genom att skriva > > load regdata.mat 1 Detta är inte alltid av ondo då man kan välja ekonomiskt lämpliga momentvillkor. Eftersom det inte finns någon allomfattande teori hur momentvillkoren skall väljas ser man ofta att de väljs bekvämt vilket ibland ger inkonsistenta skattningar. Samtidigt innebär det att man kan skatta modeller där man inte kan finna ett explicit uttryck för likelihoodfunktionen. 2
Använd dina resultat från förberedelseuppgift 1 för att estimera parametrarna. Beräkna 95% konfidensintervall för alla parametrarna. Jämför dina estimat (och estimatorer) med resultaten från laboration 1. 3.1.1 Tester Komplexa modeller kan jämföras med LR-tester om vi använder Maximum Likelihoodtekniker. För GMM finns det liknande tester. Teststorheten ges av [ N J N ( θ Restricted ) J N ( θ Unrestricted ) och har under nollhypotesen asymptotiskt en χ 2 (k)-fördelning där k anger skillnaden i antalet parametrar. Uppgift: Testa den linjära modellen mot den kvadratiska modell, y i = β 0 + β 1 x i + β 2 x 2 i + ε i. Slutsats? 3.2 Estimation av parametrar i stokastiska differentialekvationer Du kommer möta två olika processer under denna delen av laborationen Cox-Ingersoll- Rossprocessen och CKLS-processen. Cox-Ingersoll-Rossprocessen används ofta för att modellera räntor och defineras som dr t = κ(θ r t )dt + σ r t dw t. (2) Denna kan generaliseras till CKLS-modellen som skrivs som dr t = κ(θ r t )dt + σr γ t dw t. (3) Modellerna har också används för att modellera volatiliteter i stokastiska variansmodeller eftersom processerna alltid är positiva. Data kan laddas in genom att skriva > > load cirdata.mat > > load cklsdata.mat Data har simulerats genom att använda en Milstein diskretisering. Alla processerna har simulerats så att tidsavståndet mellan observationerna är t = 1. 3.3 Momentmetoder Genom att diskretisera den stokastiska differentialekvationen kan man använda t.ex. GMM för parameterestimation. Diskretiseringen sker vanligtvis genom att använda Euler-diskretisering men högre ordningens metoder fungerar naturligtvis ännu bättre. Fördelen att diskretisera processen är att vi kan estimera analytiskt svårhanterade modeller utan större problem. 3
Uppgift: Estimera parametrarna och deras kovariansmatriser i modellerna ovan genom att använda den generaliserade momentmetoden. 3.4 Estimationsfunktioner Det går ibland att undvika den bias som diskretiseringen medför genom att beräkna momenten exakt. Metoden heter estimationsfunktioner och är ett aktivt forskningsområde. Kort uttryckt används inte diskretisering av den stokastiska differentialekvationen utan exakta moment. Dessa beräknas genom Dynkins formel vilket egentligen bara är en tillämpning av Itôs formel. Dynkins formel ges av [ t E X [f(x t ) = f(x 0 ) + E X Af(X s )ds (4) där operatorn A defineras (i det generella, multivariata fallet) som 0 Af = n i=1 µ i f x i + 1 2 n ( ) σσ T i,j i,j=1 2 f x i x j. och där processen {X t } ges som lösningen till dx(t) = µdt + σdw(t). I vårt fall är {X t } en endimensionell process vilket gör Dynkins formels betydligt enklare (n = 1). Uppgift: Estimera parametrarna och deras kovariansmatris för Cox-Ingersoll-Rossprocessen genom att använda exakta moment, dvs genom att använda f(x) = {x, x 2, x 3 }. Tips: För att visa hur Dynkins formel fungerar ges här ett exempel där f(x) = x 2. Antag att vi skall beräkna momenten i CIR-processen. Ax 2 = κ(θ x) x2 x + 1 ) ((σ 2 x) 2 x 2 2 x 2 = κ(θ x)2x + 1 2 σ2 x2 = 2κx 2 + (2κθ + σ 2 )x Genom att föra in detta i formeln fås E [ [ t X Xt 2 = x 2 0 + E X ( 2κXs 2 + (2κθ + σ2 )X s )ds 0 Slutligen antar vi att vi kan byta plats på väntevärdet och tidsintegralen varefter vi deriverar båda sidor med avseende på t. Vi får då en linjär differentialekvation E X [X 2 t t = 2κE X [ X 2 t + (2κθ + σ 2 )E X [X t. 4
4 Feedback Kommentarer och synpunkter på laborationen är alltid välkomna. Skicka dem till Erik Lindström, erikl@maths.lth.se eller ring 046 222 45 78. 5 MATLAB rutiner fminunc Quasi-Newton baserad optimeringsrutin. fmincon Quasi-Newton baserad optimeringsrutin med bivillkor. fminsearch Simplexbaserad optimeringsrutin. Referenser [1 Madsen, H., Nielsen, J. N., Lindström, E., Baadsgaard, M. and Holst, J. Statistics in Finance, IMM;DTU; Lyngby och Matematisk Statistik, LTH, Lund 2004. [2 Nolsøe, K., Madsen, H., Nielsen, J. N. and Baadsgaard, M. Lecture Notes in estimation functions, IMM;DTU; Lyngby 5