Mittwoch, 7. September 2011

Parametric estimation for GARCH-class models with MS Excel and nonlinear GRG-Solver

There are quite a lot of software packages with the ability of estimating GARCH-class models, but some of them are too expansive (e.g. EViews) and the most are very difficult to handle. Therefore I create an open source Excel-Tool which is prepared for ARCH(1), GARCH(1,1), IGARCH(1,1), GJR-GARCH(1,1) and EGARCH(1,1). Other models will be added later. All parametric estimations are using the likelihood function in combination with a nonlinear GRG algorithm (Solver-Add-In for MS Excel is needed).

Everything you have to do is:
  1. Download and open the Excel spreadsheet 
  2. Import or copy some time series into the sheet “time series” with latest rate above (some are already available)
  3. Go to the sheet “Estimate”
  4. Chose model and time series and click the start button
The solver is now trying to maximize the likelihood function (MaxL), and gives back the corresponding parameters. The field statistics gives insights regarding the model quality. The second test statistic in the field explains the degree of clustering squared returns before the modeling. The fourth explains the degree by use of the model. It should be lower than the second test statistic, and ideally be close to 0.5. At this point, absolute randomness is reached. The first and third test statistic explains the clustering of the direction of price changes. Both should be close to 0.5, since these are assumed to be random. Have fun and give feedback!

Montag, 25. Juli 2011

Plädoyer gegen die fundamentale Aktienanalyse

Was ist eine fundamentale Aktienanalyse?

Die fundamentale Aktienanalyse versucht den sog. inneren Wert eines Wertpapiers zu ermitteln. Hierzu werden diverse Kennzahlen der Bilanzanalyse und Verfahren wie dem DCF und EVA herangezogen. Liegt der ermittelte Aktienwert dann über dem aktuellen Kurs, sollte gekauft werden und vice versa. Dem liegt die Idee zugrunde, dass der Kurs eines Wertpapiers mit der Zeit zu den inneren Wert gezogen wird (ökonometrischer Fachterminus: Mean-Reversion-Effekt).

Wo liegt das Problem?

Primo: Bereits der Mean-Reversion-Effekt ist in seiner Anwendung auf Kapitalmarktzeitreihen als kritisch zu betrachten. Informationen müssten demnach mit der Zeit "vergessen" werden. Typische hierfür sind u.a. die geometrisch brownsche Bewegung, der Wurzel-Diffusionsprozess, der Ornstein-Uhlenbeck-Prozess sowie alle stationären Box-Jenkins-Modelle. Famas fundamental geprägte Effizienzmarkthypothese geht allerdings davon aus, dass der Kurs eines Wertpapiers alle verfügbaren Informationen wiederspiegelt, womit den Fundamentalisten der argumentative Boden entzogen wäre. Als Alternative bieten sich die sog. integrierten Prozesse an (z.B. ARIMA oder IGARCH), die jedoch nicht mehr den Mean-Reversion-Effekt aufweisen und somit fundamentale Aktienanalysen ad absurdum führen. Werden sogar power laws in Kapitalmarktzeitreihen unterstellt, könnte es sehr nachteilig für Fundamentalisten ausgehen.

Secondo: Der obige Part ist stark finanztheoretisch und für Einsteiger eventuell zu abstrakt. Ich möchte daher noch ein eher Logik getriebenes Argument vorbringen. Nehmen wir zur Vereinfachung ein Unternehmen, das lediglich zwei Aktien ausgibt, die von zwei Fundamentalisten gehalten werden. Jeder Aktionär besitzt eine Aktie. Wann würde der Fundamentalist verkaufen? Genau dann, wenn der gehandelte Kurs den vom Fundamentalisten ermittelten inneren Wert überschreitet. Und jetzt beginnt es: der Anleger Nummer 1 müsse davon ausgehen, dass sein Kontrahent ebenfalls den inneren Wert kennt (alles andere wäre arrogant und/oder nicht mit der Effizienzmarkthypothese zu vereinen). Somit verkauft Anleger 1 nicht genau beim inneren Wert, sondern möglichst knapp darunter. Anleger 2 erwartet jedoch, dass Anleger 1 dies mit berücksichtigt und verkauft knapp unter dem "knapp darunter". Anleger 1 …

Es entfaltet sich das berühmte "ich denke dass du denkst dass ich denke"-Spiel, welches schon in der Kindheit verwendet wurde um möglichst intelligent Aussagen und Handlungen anderer zu hinterfragen. Tatsächlich stellt es eine rekursive Schleife dar, die in letzter Konsequenz nur zu einem führen kann: den aktuellen Kurs.

Warum funktionieren Fundamentalstrategien trotzdem?

Wenn man Geld an Kapitalmärkten anlegt, kann man gewinnen. Zu den Gewinnern zählen zweifelsohne Warren E. Buffett, George Soros und Lusha (ein russischer nicht fundamentaler Schimpanse). Diejenigen, die es mit fundamentalen Strategien versucht und dabei verloren haben, bleiben stumm und unberücksichtigt. Bereits Frédéric Bastiat hat in seinem Essay "Was wir sehen und was nicht" diese besondere Form des Bestätigungsfehlers beschrieben.

Welchen Wert haben dann fundamentale Kursprognosen und Handelsstrategien?

Keinen. Als rationaler Anleger muss man davon ausgehen, dass die anderen Anleger auch rational agieren und dann bringt die rekursive Schleife das Konzept zu Fall. Wenn die Effizienzmarkthypothese zugunsten der Mean-Reversion-Eigenschaft aufgehoben bzw. aufgeweicht wird und nicht vollkommen rationale Anleger unterstellt werden, kann alles passieren. Gerade deswegen gibt es ja die Effizienzmarkthypothese.

Weiteres:

Dieser Artikel ist hier auch in Essay-Form verfügbar und enthält eine einfache mathematisch Herleitung der rekursiven Schleife.

Zudem könnte die Vorlesung "Warning: Physics Envy May be Hazardous to Your Wealth" von Andrew W. Lo , Direktor des Laboratory for Financial Engineering am MIT, interessant sein, da er hier auch eine Erwartungsschleife für Wahrscheinlichkeiten erläutert.

Abschließen möchte ich mit einem Zitat von Burton Malkiel: "Under scientific scrutiny, chart-reading must share a pedestal with alchemy". Allerdings entstand aus der Alchemy die modernen Chemie und Pharmakologie welche heute nützliche Dienste leisten.

Sonntag, 24. Juli 2011

Das Phänomen des "volatility clustering"

Was ist das?

Es ist die empirisch nachzuweisende Eigenschaft in finanzwirtschaftlichen Zeitreihen, dass große Preisbewegungen wiederum eher große Preisbewegungen bewirken und vice versa. Steigt z.B. der Kurs einer Aktie heute überdurchschnittlich stark an, ist es sehr wahrscheinlich dass der Kurs morgen auch stark steigt ODER fällt. Das "ODER" ist deshalb von Bedeutung, da die Richtung der Preisbewegung als zufällig angenommen wird und nur das Ausmaß der periodischen Schwankung (beispielsweise absolute oder quadrierte Renditen) derartige Abhängigkeitsstrukturen aufweisen.

Wer hat erfunden?

Als Urheber gilt der "Rockstar der Mathematik" Benoît B. Mandelbrot. Er nutze in den Jahren 1961/62 seine Möglichkeiten als Mitglied der Benoit Mandelbrot mg 1804b Forschungsabteilung des Thomas J. Watson Research Center bei IBM, um seine Forschungsergebnisse zum Phänomen des unberechenbaren Verhaltens in der Natur (engl. erratic behavior, welche später zur Chaostheorie heranreifen sollte) auf andere Gebiete der Wissenschaft anzuwenden. In seinem 1963 erschienen Artikel "The Variation of Certain Speculative Prices" rechnete er mit einigen der hartnäckigsten Dogmen der Finanzwissenschaft ab. Darunter auch die gaußsche Mathematik für Wertpapierrenditen. Zwei Jahre vor Erscheinen seines Artikels beschäftigte Mandelbrot sich jedoch auf Anweisung von Albert L. Williams, Präsident von IBM in den Jahren 1961-66, mit einer kursierenden Tradingstrategie. Stanley S. Alexander, damals Professor am MIT, hatte 1961 ein Artikel herausgebracht, in dem er sein "Filterverfahren" beschrieb: steigt der Markt um 5% oder mehr, kauft und hält man; fällt er um 5% oder mehr, verkauft man und wartet ab. Als ich diese Zeilen in Mandelbrots Buch "Fraktale und Finanzen" las, fiel es mir wie Schuppen von den Augen. Im Rahmen meiner Ausarbeitungen zu dem Thema Volatilitätscluster entwarf ich eine ähnliche Handelsstrategie, die auf Abhängigkeiten (und somit nicht eingepreiste Informationen) in Kapitalmarktzeitreihen aufbaut. Der umgekehrte gedankliche Sprung von einer derartigen Handelsstrategie zu den Abhängigkeiten ist nicht weit. Vielleicht war Stanley S. Alexander der praxisorientierte Ideengeber für Mandelbrots empirische Untersuchungen.

Die Ära des GARCH

Fast 20 Jahre hat es gedauert, bis die Erkenntnisse der bedingten Heteroskedastizität (ökonometrischer Fachterminus) mithilfe mathematischer Modelle erklärt werden konnten. Im Jahre 1982 brachte der Nobelpreisträger Robert F. Engle den Artikel "Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of UK. Inflation" heraus, indem er die Idee einer zeitvariablen Varianz vorschlug. Die bis dahin gängigen Modelle (z.B. ARMA-Prozesse) sind allesamt von einer konstanten Varianz ausgegangen und versuchten lediglich den Mittelwertprozess einer Zeitreihe zu modellieren. Engle wendete hingegen einen Moving-Average-Prozess für die Varianz (zweite Moment alphastabiler Verteilungen) an, womit das volatility clustering erstmals mathematisch modelliert werden konnte. Vier Jahre später fügte der dänische Ökonom Tim Bollerslev konsequenterweise einen autoregressiven Term in Engles Gleichung ein und der berühmte und weit verbreitete GARCH war geboren. Bis heute wurden weit über 100 verschiedene ARCH- bzw. GARCH-Derivate entwickelt. Einen guten und relativ umfassenden Überblick lieferte Bollerslev in seinem Artikel "Glossary to ARCH (GARCH)". Diese statistischen Modelle werden oft als sehr kompliziert beschrieben (z.B. von Nassim Nicholas Taleb in seinem Bestseller "Der Schwarze Schwan"), können aber durchaus innerhalb weniger Wochen verstanden werden. Mein Hauptbuch zur Einarbeitung war Alois Geyers "Information, Erwartung und Risiko. Aspekte der Verteilung, Abhängigkeit und Varianz von finanzwirtschaftlichen Zeitreihen" sowie die Origanlartikel von Engle, Bollerslev, Cont, Mandelbrot. Viele Artikel und vor allem Promotionen zu dem Thema weisen die typisch akademische Verkomplizierung auf. Man sollte sich da nicht abschrecken lassen und bessere Quellen wählen!

Meine Abschlussarbeit mit dem Titel "Das Phänomen des 'volatility clustering' in finanzwirtschaftlichen Zeitreihen" kann hier heruntergeladen werden. Die Gliederung sieht wie folgt aus:

1. Einleitung
2. Volatilität auf Kapitalmärkten
2.1 Volatilität als Risikomaß
2.1.1 Historische Volatilität
2.1.2 Implizite Volatilität

2.2 Entstehung von Volatilitätsclustern
2.2.1 Time-Deformation Hypothese
2.2.2 Heterogeneous Agent Model

2.3 Auswirkungen von Volatilitätsclustern
2.3.1 Effekte auf die Finanztheorie
2.3.2 Effekte auf die Wohlfahrt

3. Empirische Untersuchung
3.1 Datensatz
3.2 Residuenanalyse
3.2.1 Einfache Renditen
3.2.2 Quadrierte Renditen

3.3 Teststatistiken
3.3.1 Ljung-Box Test
3.3.2 Modifizierter Wald–Wolfowitz Test

4. (G)ARCH-Modelle
4.1 Spezielle (G)ARCH-Modelle
4.1.1 ARCH
4.1.2 GARCH
4.1.3 IGARCH
4.1.4 GJR-GARCH

4.1.5 EGARCH
4.2 Parameterschätzung
4.2.1 Maximum-Likelihood-Methode
4.2.2 Ljung-Box Test integrierte Optimierung

4.3 Ergebnisse der Parameterschätzungen
5. Alternativmodelle
5.1 Multifractal Model of Asset Returns
5.2 Stochastic Volatility
6. Schlussbemerkungen

Weitergehende Fragestellungen:

  • Lässt sich Volatilität handelbar machen?
  • Lassen sich aus der Existenz von Volatilitätscluster Handelsstrategien ableiten?
  • Wie können GARCH-Modelle in VaR-Methoden eingebunden werden?
  • Gibt es ein ökonomisch optimales Ausmaß von Volatilität auf Kapitalmärkten?