Härledning av Black-Littermans formel mha allmänna linjära modellen Ett sätt att få fram Black-Littermans formel är att formulera problemet att hitta lämpliga justerade avkastningar som ett skattningsproblem för en linjär modell Skattningsproblemet visar sig vara ett generaliserat minsta-kvadratproblem MK-problem) En fördel med detta synsätt är att man slipper använda betingade väntevärden, som ju ej ingår som förkunskap till portföljteori fk Allmänna linjära modellen Nedan följer en ytterst kortfattad beskrivning av den allmänna linjära modellen Den som vill veta mer kan gå kursen Tillämpad matematisk statistik, eller läsa i det kompendium som Rolf Sundberg skrivit för den kursen Beskrivingen nedan är en mycket nedbantad version av delar av det som finns i kompendiet) Antag att vi har observationer y 1, y 2,, y N av de stokastiska variablerna Y 1, Y 2,, Y N Den allmänna linjära modellen förutsätter att de N stokastiska variablerna Y 1, Y 2,, Y N är oberoende och normalfördelade fördelningsantagandet kan relaxeras) och att där Y i m i + ε i, ε i N0, σ 2 ) m i a i1 θ 1 + a i2 θ 2 + + a ik θ k för någon uppsättning av parametrar {θ 1, θ 2,, θ k },där k < N, och kända koefficienter {a ij, i 1,, N, j 1,, k} Den stokastiska variabeln ε i Y i m i kallas för försöksfelet Försöksfelet kan bero på ren mätosäkerhet, men kan också bero på biologisk variation, tillverkningsvariation eller variation i yttre störningsfaktorer, t ex luftens temperatur, tryck och fuktighet På matrisform kan modellen skrivas eller Y Aθ + ε, ε N0, σ 2 I N ), 1) Y m + ε, m Aθ, ε enligt ovan Följande beteckningar har använts ovan Y Y 1 Y N, θ θ 1 θ N, m m 1 m N, ε ε 1 ε N 1
samt A a 11 a 1k a N1 a Nk och I N N N identitetsmatris Man kan nu fundera på följande statistiska frågeställningar rörande den allmänna linjära modellen Hur skattar man modellens parametrar θ och σ 2? Vilka egenskaper har dessa skattningar? Hur bildar man konfidensintervall för parametrarna? Hur testar man linjära hypoteser rörande parametervektorn θ? Exempel Två oberoende stickprov Givet är två mätserier Inom varje mätserie ser vi en slumpmässig variation mätfel), men dessutom kan det finnas en systematisk skillnad mellan mätserierna De två mätserierna kan då betraktas som stickprov från var sin normalfördelning, med var sitt väntevärde, men med samma varians mätprecision) Låt m, respektive n beteckna stickprovsstorlekarna Data kan då ses som utfall av N m + n oberoende stokastiska variabler Y 1,, Y N där Nθ 1, σ 2 ), 1 i m Y i Nθ 2, σ 2 ), m + 1 i m + n Vi får nu ett specialfall av den allmänna linjära modellen med 1 0 ) 1 0 θ1 A och θ 0 1 θ 2 0 1 Matrisen A består alltså av två kolumner: den första inledsmed m ettor och avslutas med n nollor, medan den andra inleds med m nollor och avslutas med n ettor Inferensproblem som kan vara av intresse i detta fall är t ex följande Skatta θ 1 och θ 2, samt θ 1 θ 2 Skatta σ 2 Testa hypotesen θ 1 θ 2 0, dvs undersök om det faktiskt föreligger någon systematisk skillnad mellan mätserierna 2
Skatting av θ Vi tänker oss alltså att vi har N observationer y 1, y 2,, y N av de stokastiska variablerna Y 1, Y 2,, Y N, där k Y i N a ij θ j, σ 2 j1 Sökt är en skattning av θ vi antar här att σ 2 är känd) Minns att maximumlikelihood-skattningen ML-skattningen) av θ erhålls genom att maximera likelihood-funktionen { Lθ 1, θ 2,, θ k ) 2πσ 2 ) N/2 exp 1 } 2σ 2 y m)t y m) där m Aθ och y y 1,, y N ) T Vi ser nu att för att maximera L skall man lösa min θ y Aθ) T y Aθ) min θ y Aθ 2) Låt nu f beteckna objektsfunktionen för minimeringsproblemet ovan, dvs fθ) θ T A T Aθ 2θ T A T y + y T y Gradienten för denna funktion ges av fθ) 2A T Aθ 2A T y Minimum erhålls då gradienten är noll minns att A T A alltid är positivt semidefinit) Detta leder till de sk normalekvationerna för θ A T Aθ A T y Om matrisen A T A är inverterbar blir θ unikt bestämt och ges av ˆθ A T A) 1 A T y 3) Anmärkning Matrisen A T A kommer att vara inverterbar om kolumnerna i A är linjärt oberoende, dvs om RangA) k Detta kan i detta sammanhang alltid uppnås genom en lämplig reduktion av parametrarna Anmärkning Notera att ML-skattningen överensstämmer med minsta-kvadratskattningen MK-skattningen) 3
Black-Litterman som linjär modell Vi börjar med lite notation: π jämviktsavkastningarna eller de implicita netto)avkastningarna Σ kovariansmatrisen för avkastningarna r P matrisen av prognosportföljer q vektorn med prognostal Ω kovariansmatrisen för prognoserna q τ parameter som styr hur stor vikt som läggs vid att µ skall ligga nära π i förhållande till att uppfylla prognoserna P µ skall ligga nära q) För att kunna plocka fram Black-Littermans formel behöver vi först formulera vårt problem som en linjär modell Vi tänker oss därför något oegentligt att jämviktsavkastningarna π är en observation av en stokastisk variabel Π och att Π Nµ, τσ), samt att prognostalen q är en observation av en stokastisk variabel Q där Q NP µ, Ω) Anmärkning Naturligast vore att låta Π Nµ, Σ), och detta går också alldeles utmärkt Vi återkommer till detta i samband med att vi tittar på det optimeringsproblem som avkastningarna beräknade enligt Black-Littermans formel löser Att vi trots allt väljer att ta med τ på detta sätt är för att det är så Werner Koch gör i sin presentation och för att detta leder till den vanligaste formen av Black-Littermans formel Låt nu Y så fås att Π Q Y Aθ + ε,, A där ε N0, C) med ) τσ 0 C 0 Ω IN P, och θ µ, 4) Observera att C inte är på formen σ 2 I N som den skall vara för att ovanstående modell skall falla inom ramen för den allmänna linjära modellen som den presenterats hittills I nästa avsnitt skall vi visa hur man kan hantera detta 4
Variansgeneralisering av allmänna linjära modellen Antag att Y satisfierar en linjär modell, förutom att V ary ) σ 2 C, där C är en känd matris Då C är positivt definit kan man alltid faktorisera C enligt C C 1/2 C 1/2, där C 1/2 är en positivt definit matris faktoriseringen är dock inte unik) Betrakta nu Y C 1/2 Y C 1/2 definieras analogt med C 1/2 och kan väljas som inversen till C 1/2 ) För Y gäller att multiplicera 1) med C 1/2 från vänster) ) Y C 1/2 A θ + ε 5) där ε C 1/2 ε N0, σ 2 I N ) om ε N0, σ 2 C), ty V arε ) V arc 1/2 ε) C 1/2 V arε) }{{} σ 2 C C 1/2 σ 2 C 1/2 C 1/2 C 1/2 σ 2 I N C 1/2 På modellen 5) för Y kan teorin för allmänna linjära modellen tillämpas direkt T ex fås MK-skattningen av θ ur 3) genom att byta y mot C 1/2 y och A mot C 1/2 A, dvs 1 ˆθ C 1/2 A) T C A 1/2 C 1/2 A) T C 1/2 y) A T C 1 A) 1 A T C 1 y Anmärkning Man kommer aldrig att behöva beräkna C 1/2 eller C 1/2 Precis som i beräkningen ovan kommer endast C eller C 1 ingå i slututtrycket 5
Black-Littermans formel Om vi nu använder uttrycken i 4) får vi följande MK-skattning av µ ˆµ 1 A T C A) 1 A T C 1 y T ) 1 1 IN τσ 0 IN T IN τσ 0 P 0 Ω P P 0 Ω { ) } I N P T τσ) 1 1 0 IN 0 Ω 1 P { } I N P T τσ) 1 1 Ω 1 I P N P T τσ) 1 π Ω 1 q } { τσ) 1 + P T Ω 1 P } 1 { τσ) 1 π + P T Ω 1 q ) 1 π q I N P T τσ) 1 0 0 Ω 1 ) π q Övning: Visa att formeln ovan är ekvivalent med µ π + τσp T Ω + τp ΣP T ) 1 q P π) Låt oss nu titta på det optimeringsproblem ˆµ löser Enklast är kanske att först titta på det optimeringsproblem man löser i fallet med en allmän varians, dvs 2), med y utbytt mot C 1/2 y och A utbytt mot C 1/2 A ) T ) min C 1/2 y C 1/2 Aθ C 1/2 y C 1/2 Aθ θ Kalla objektsfunktionen till ovanstående minimeringsproblem för f Vi har då att fθ) y T C 1/2 θ T A T C 1/2) ) C 1/2 y C 1/2 Aθ y T θ T A T ) T C 1 y Aθ) y Aθ) T C 1 y Aθ) Anmärkning Minimeringsproblemet med objektsfunktionen ovan är ett så kallat generaliserat MK-problem Generaliseringen ligger i att matrisen C 1 införts Den bestämmer hur µ:s avvikelser från π straffas beroende på i vilken komponent de förekommer 6
Låt oss nu titta på hur objektsfunktionen ser ut i Black-Litterman-fallet Vi har använd uttrycken från 4)) fµ) ) T ) 1 π IN τσ 0 π µ q P 0 Ω q T ) π µ τσ) 1 0 π µ q P µ 0 Ω 1 q P µ π µ) T q P µ) T τσ) 1 π µ) Ω 1 q P µ) π µ) T τσ) 1 π µ) + q P µ) T Ω 1 q P µ) IN P Av ovanstående framgår att vi försöker välja de justerade avkastningarna µ så nära jämviktsavkastningarna π som möjligt, samtidigt som vi vill välja dem så att prognoserna i möjligaste mån uppfylls, dvs P µ skall ligga så nära q som möjligt Då vi mäter närhet viktar vi med inverserna till kovariansmatriserna hörande till osäkerheten i r närhet till π), respektive q närhet till q) Vi ser också att τ fungerar som viktning mellan hur gärna man vill ligga nära π och hur gärna man vill uppfylla prognoserna Detta framgår kanske ännu tydligare om vi multiplicerar hela målfunktionen med τ vilket förstås inte ändrar den optimala punkten eftersom τ bara är en konstant) Vi får då följande MK-problem: { } min π µ) T Σ 1 π µ) + τq P µ) T Ω 1 q P µ) µ För att erhålla detta problem ur en linjär modell skall man anta Π N µ, Σ) och Q N P µ, 1 ) τ Ω Notera att man nu ser att τ i någon mening är en överflödig parameter eftersom vi ju bestämmer Ω helt själva Det kan dock vara praktiskt att ha kvar τ för att kunna styra hur nära vi vill ligga π jämfört hur gärna vi vill att prognoserna skall vara uppfyllda Anmärkning Om man tycker att det känns konstruerat att formulera Black- Litterman som en linjär modell kan man istället ta MK-problemet ovan som utgångspunkt för att härleda Black-Littermans formel µ ) 7