Optionsprissättning under modell- och prognososäkerhet
Optioner är finansiella kontrakt som används som försäkringar mot icke önskade kursrörelser. Sedan introduktionen av en organiserad handel i USA under 1970-talet har handeln exploderat till att idag omsätta minst 70 000 miljarder dollar årligen. Detta kan jämföras med USA:s BNP som 2004 var ca 12 000 miljarder dollar, dvs. omsättningen på optionsmarknaderna var åtskilliga gånger större än USA:s totala BNP. De första, och fortfarande använda, modellerna för att prissätta optioner visade sig oförmögna att hantera extrema förlopp såsom börskraschen 1987. Sedan dess har man arbetat med att utvidga modellerna genom att tillåta en mer generell dynamik. Dock har nästan varje utvidgad modell börjat med att postulera hur marknaden fungerar varefter en beräkning av optionsvärdet görs. Detta projekt syftar istället till att förbättra de befintliga modellerna genom att modellera osäkerhet vad gäller parametrar och val av modell. Från data, dvs. observationer från marknaden, kan man aldrig vara säker på vilken modell som har genererat dem. Däremot kan man ofta säga vilka modeller som inte kan ha genererat de erhållna observationerna. Genom att inte bara använda en modell utan, liksom agenter på en marknad, studera en blandning av modeller kan man kompensera för hur osäkerheten inverkar på priset.
Sedan starten i USA under 1970-talet har handeln med finansiella derivat formligen exploderat till att idag omsätta många gånger världens totala BNP. De första, relativt enkla modellerna för derivatinstrument (Black & Scholes mfl) har successivt utvecklats vidare med hjälp av avancerad matematik till mycket komplexa verktyg, ofta med ökad förklaringsgrad och minskad transparens som resultat.
Projektets syfte var att studera om det finns andra metoder för att förbättra befintliga värderingsmodeller än allt mer komplexa matematiska och statistiska modeller. Vår ansats var att studera vilken roll modell- och parameterosäkerhet spelar.
Varje beslut som baseras på något matematiskt verktyg kräver någon form av indata – dessa kan vara direkt observerbara storheter såsom kurser eller räntor, men flertalet avancerade modeller beror även på okända parametrar (och latenta tillstånd) som måste skattas från data. Dessutom är det rimligt att fundera över om modellen är korrekt varför det även är rimligt att fundera över ev. modellfel.
Vi har utvecklat en metodik för att hantera modell- och prognososäkerhet inom ramen för ”risk-neutral värdering”, så att framräknade priser är internt konsistenta. Ramverket är mycket allmänt och kan appliceras på nästan alla idag kända modeller, men ger samtidigt upphov till en ny typ av komplexitet för modellerna, som gör att enkla modeller kan förklara egenskaper hos marknadsdata som tidigare har krävt avsevärt mer advancerade matematiska modeller.
Ett problem som vi stötte på under projektet var svårigheten att genomföra de empiriska studierna korrekt eftersom de nya modellerna har ännu fler parametrar än de modellerna som vi baserade vår utvidgning på, vilket gav kalibreringsproblem. Vi har därför inom ramen för projektet fått lösa även vissa kalibreringsrelaterade problem.
Det viktigaste resultatet vi har uppnått är att vi har visat att anpassningen ”in-sample” och prognoser ”out-of-sample” blir bättre då man använder vårt ramverk, och detta gäller för en mycket stor klass av modeller. Det betyder att man via ramverket både kan prognostisera framtida priser bättre men också att man får en bättre uppfattning av framtida risker, så obehagliga överraskningar kan undvikas.
Vi har också inom projektet lyckats visa att man för derivat som kan prissättas mha Fouriermetoder (som är en mycket snabb och av industrin ofta använd numerisk metod) ofta kan härleda uttryck i sluten form för den karakteristiska funktionen som göra att derivaten fortfarande kan prissättas med Fouriermetoder. Det betyder att det beräkningsmässigt inte kostar mer att använda vårt utvidgade ramverk än att använda de modeller som redan används idag.
Dessutom har vi inom projektet visat hur man kan kalibrera modeller för derivatinstruement mot marknadsdata med en robust och logisk ansats som utnyttjar beroende över tiden. Denna ansats ger generellt betydligt ”lugnare” parameterskattningar än de vanliga metoderna som användas av akademin och industrin, men ger samtidigt en fullgod adaptiv kalibrering då marknaden ändras.
Den föreslagna utvidgningen av de traditionella derivatmodellerna skapar nya modeller med ett stort antal ytterligare parametrar, och det är troligt att de flesta av dessa inte gör så stor nytta. Det finns därför ett praktiskt intresse att hitta strategier för att reducera antalet parametrar; liknande problem finns t.ex. inom regressionsanalys, data mining och compressive sensing.
Ett annat problem är utvärdering av modeller. Statistiker är ofta intresserade av att minimera någon funktion av prediktionsfelen, dvs. hitta en så bra anpassning till data som möjligt. Detta är inte nödvändigtvis rätt för denna applikation eftersom den bästa anpassningen ofta överanpassar data, jfr bid-ask spreadar. Dessutom vet vi redan dagens priser och behöver därför inte skatta dem. Istället vill man ofta använda parametrar och modeller för att förutsäga framtida priser, primärt för att minimera risker. Då uppstår ett nytt problem, nämligen att vi behöver fler parametrar (historiska parametrar istället för risk-neutrala parametrar) som måste skattas från data, och vi har startat flera projekt inom detta området.
Projektets två viktigaste publikationer är (Lindström et al., 2008] och [Lindström, 2010]. Den första av dessa, [Lindström et. al., 2008] behandlar kalibrering av derivatmodeller mot marknadspriser genom att skriva om problemet som ett tracking-problem. Denna typ av problem har analyserats under lång tid inom ingenjörsvetenskapen, och genom att använda tekniker som bland annat används i mobiltelefoner och gps-navigatorer visade vi hur det är möjligt att få robustare och mer precisa parameter- och volatilitets-skattningar. Våra resultat visar tydligt att vinsten av att använda den av oss utvecklade metodiken blir störst för komplexa modeller, medan behov av avancerade kalibreringstekniker inte är lika stort för enklare modeller.
Den andra artikeln [Lindström, 2010] ger ett entydigt matematiskt bevis för hur man värderar derivat under parameterosäkerhet genom att utveckla befintlig teori inom området, och artikeln visar också empiriskt på hur stor förbättring man kan få genom att använda de under projektet utvecklade ramverket. Resultaten är tämligen goda, med förbättringar på mellan 5-20% relativt ursprungsmodellen för de olika modellerna.
Projekt har utöver de två ovan nämnda journalartiklarna stärkts av ytterligare en närliggande journalartikel, [Lindström, 2007] som behandlar parameterestimering. Utöver journalartiklarna har 6 konferensbidrag presenterats inom ramen för projektet, [Lindström & Holst, 2005, Lindström & Holst, 2006, Lindström et. al, 2006a, Lindström et. al, 2006b, Ströjby & Lindström, 2008, Hellquist et. al., 2010] samt vid seminarium på universitet i Sverige; Lunds universitet (nationalekonomi 2005-12-09, 2007-04-13, matematikcentrum 2006-02-10, 2007-02-03), KTH (matematiskt statistik, 2007-05-28), Växjö universitet (matematik och systemteknik, 2008-10-23) och Uppsala universitet (matematik, 2008-11-11). Forskningsprojektet har också fungerat som inspiration för ett stort antal examensarbeten som direkt eller indirekt har använt resultat från projektet.
The trade in financial derivatives has literally exploded since the introduction in the U.S. during the 1970s, and is now many times larger than total GDP for the world. The first, rather simple models that were used for valuing derivatives (Black & Scholes and others) have gradually evolved with the help of advanced mathematics into very complex tools, often resulting in increased explanatory power and reduced transparency.
The purpose of the project was to study whether there are other approaches for improving the existing valuation models than even more complex mathematical and statistical models. Our approach was to study the role of model- and parameter-uncertainty.
Any decision based on a mathematical tools require some form of input – the input can sometimes be directly observable variables such as prices or interest rates, but most advanced models also depends on some unknown parameters (and latent states such as volatility) that must be estimated from data. In addition, it is also reasonable to question the model itself, i.e. to consider model errors.
We have developed a methodology for dealing with model and forecast uncertainty within the "risk-neutral valuation" framework, such that computed option prices are internally consistent. The methodology is very general and can be applied to virtually all currently used models, but it does also gives rise additional features of the models. These features helps rather simple models to explain properties in market data that otherwise only can be captured by advanced mathematical models.
A problem that we encountered during the project was the difficulty of implementing the empirical studies as the new models have even more parameters than the models which we based our extension on. This resulted in serious calibration problems. We have therefore solved some additional calibration problems in addition to the original research problems.
The main result is that we have shown that both the “in-sample” fit and “out-of-sample” was improved when using our framework, and this holds for a large class of models. That means that the framework can be used to forecast prices better than before, but also gain a better understanding of future risks, so that unpleasant surprises can be avoided.
We have also shown a nice property for derivatives that can be priced using so-called Fourier methods (which is a very fast numerical method often used by the industry). It is often possible derive closed form expressions for the characteristic function when using our framework, and that means that the derivatives can still be priced using the Fourier method. It is therefore computationally equivalent to use our extended framework in comparison to the models currently used.
It was also demonstrated how to calibrate models to market data with a robust and logical approach that make use of the time-dependence of the parameters. This approach gives generally much "smoother" parameter estimates than the methods used by most academics and the industry, while still giving adequate adaptive calibration when the market changes.
The proposed framework is creating new models with a large number of additional parameters, and it is likely that most of them are not of much use. There is therefore of practical interest to find strategies for reducing the number of parameters. Similar problems show up in regression analysis, data mining and compressive sensing.
Another problem is evaluation of models. Statisticians are often interested in minimizing a function of prediction errors. This is not necessarily the best approach for this application as the best fit often over fits the data, cf. the bid-ask spread. In addition, we already know the current prices, and there is no need to estimate them.
A more relevant problem is instead to use the parameters and models to forecast prices, primarily to minimize (hedge) financial risk. This creates a new problem, namely that we need even more parameters (historical parameters instead of risk-neutral parameters) that must be estimated from the data, and we have started several projects in this area.
The most important publications generated from the project are (Lindstrom et al., 2008] and [Lindstrom, 2010]. The first of these, [Lindstrom et. al., 2008] treats calibrating derivative models against market data by rewriting the problem as a tracking problem. This type of problem has been studied for a long time in engineering. We showed how to obtain more robust and more precise parameter and volatility estimates by using techniques which are already in use in mobile phones and GPS navigators. Our results show clearly to the benefit of using the methodology developed by us will be greatest for complex models, while the need for advanced calibration techniques is not as great for simpler models.
The second article [Lindstrom, 2010] gives a mathematical proof of how to value derivatives under parameter uncertainty by extending the existing theory, and the paper also demonstrates empirically how much improvement can be obtained by using the framework developed during the project. The results are quite good, with improvements of between 50-20% relative origin model for the different models.
The project has in addition to the two journal papers mentioned above also benefited from a related journal article, [Lindstrom, 2007] which deals with parameter estimation. In addition, six conference papers presented in the context of the project, [Lindstrom & Holst, 2005, Lindstrom & Holst, 2006, Lindstrom et. al, 2006a, Lindstrom et. al, 2006b, Ströjby & Lindstrom, 2008, Hellquist et. al., 2010] and the results have also been presented at seminar at swedish universities: Lund University (Economics 2005-12-09, 2007-04-13, 2006-02-10 mathematics center, 2007-02 -03), KTH (Mathematical Statistics, 2007-05-28), Växjö University (Mathematics and Computer Science, 2008-10-23) and Uppsala University (Mathematics, 2008-11-11). The research project has also been the inspiration for a large number of masters’ theses.