Generalisierte autoregressive bedingte Heteroskedastizität (GARCH)
Was ist generalisierte autoregressive bedingte Heteroskedastizität (GARCH)?
Generalized AutoRegressive Conditional Heteroskedasticity (GARCH) ist ein statistisches Modell, das bei der Analyse von Zeitreihendaten verwendet wird, bei denen angenommen wird, dass der Varianzfehler seriell autokorreliert ist. GARCH-Modelle gehen davon aus, dass die Varianz des Fehlerterms einem autoregressiven gleitenden Durchschnittprozess folgt.
Die zentralen Thesen
- GARCH ist eine statistische Modellierungstechnik, die verwendet wird, um die Volatilität der Renditen von Finanzanlagen vorherzusagen.
- GARCH ist für Zeitreihendaten geeignet, bei denen die Varianz des Fehlerterms nach einem autoregressiven gleitenden Durchschnittsprozess seriell autokorreliert wird.
- GARCH ist nützlich, um das Risiko und die erwarteten Renditen für Vermögenswerte zu bewerten, die geclusterte Perioden der Volatilität der Renditen aufweisen.
Verstehen der generalisierten autoregressiven bedingten Heteroskedastizität (GARCH)
Obwohl Generalized AutoRegressive Conditional Heteroskedasticity (GARCH) Modelle können in der Analyse einer Reihe von verschiedenen Arten von Finanzdaten, wie zum Beispiel verwendet werden makroökonomische Daten, Finanzinstitute, sie verwenden in der Regel die Volatilität der Erträge für Aktien, Anleihen zu schätzen, und Marktindizes. Sie verwenden die daraus resultierenden Informationen, um die Preisfindung zu bestimmen und zu beurteilen, welche Vermögenswerte potenziell höhere Renditen erzielen werden, sowie um die Renditen aktueller Anlagen zu prognostizieren, um bei ihrer Vermögensallokation, Absicherung, Risikomanagement und Portfoliooptimierung Entscheidungen zu treffen.
GARCH-Modelle werden verwendet, wenn die Varianz des Fehlerterms nicht konstant ist. Das heißt, der Fehlerterm ist heteroskedastisch. Heteroskedastizität beschreibt das unregelmäßige Variationsmuster eines Fehlerterms oder einer Variablen in einem statistischen Modell. Im Wesentlichen entsprechen Beobachtungen überall dort, wo Heteroskedastizität vorliegt, keinem linearen Muster. Stattdessen neigen sie zum Clustern. Wenn daher für diese Daten statistische Modelle verwendet werden, die eine konstante Varianz annehmen, sind die Schlussfolgerungen und der Vorhersagewert, die man aus dem Modell ziehen kann, nicht zuverlässig.
Es wird angenommen, dass die Varianz des Fehlerterms in GARCH-Modellen systematisch variiert, abhängig von der durchschnittlichen Größe der Fehlerterme in früheren Perioden. Mit anderen Worten, es hat eine bedingte Heteroskedastizität, und der Grund für die Heteroskedastizität ist, dass der Fehlerterm einem autoregressiven Muster des gleitenden Durchschnitts folgt. Dies bedeutet, dass er eine Funktion eines Durchschnitts seiner eigenen Vergangenheitswerte ist.
Geschichte von GARCH
GARCH wurde 1986 von Dr. Tim Bollersev, einem damaligen Doktoranden, entwickelt, um das Problem der Vorhersage der Volatilität von Vermögenspreisen anzugehen. Es baute auf der bahnbrechenden Arbeit des Ökonomen Robert Engle aus dem Jahr 1982 auf, als er das Autoregressive Conditional Heteroskedasticity (ARCH) -Modell einführte. Sein Modell ging davon aus, dass die Variation der finanziellen Renditen über die Zeit nicht konstant ist, sondern autokorreliert oder bedingt/abhängig voneinander ist. Dies kann man zum Beispiel bei Aktienrenditen sehen, in denen Phasen der Volatilität der Renditen tendenziell zusammengefasst sind.
Seit der ursprünglichen Einführung sind viele Variationen von GARCH entstanden. Dazu gehören Nonlinear (NGARCH), das die Korrelation und das beobachtete „Volatilitätsclustering“ von Renditen behandelt, und Integrated GARCH (IGARCH), das den Volatilitätsparameter einschränkt. Alle Variationen des GARCH-Modells versuchen, die Richtung, positiv oder negativ, der Renditen zusätzlich zur Größe (im ursprünglichen Modell angesprochen) zu berücksichtigen.
Jede Ableitung von GARCH kann verwendet werden, um die spezifischen Eigenschaften der Aktien, Branchen- oder Wirtschaftsdaten zu berücksichtigen. Bei der Risikobewertung beziehen Finanzinstitute GARCH-Modelle in ihren Value-at-Risk (VAR) ein, den maximalen erwarteten Verlust (ob für eine einzelne Anlage- oder Handelsposition, Portfolio oder auf Divisions- oder unternehmensweiter Ebene) über einen bestimmten Zeitraum time Projektionen. GARCH-Modelle werden als bessere Risikomaßstäbe angesehen, als sie allein durch die Verfolgung der Standardabweichung erhalten werden können.
Zur Verlässlichkeit verschiedener GARCH-Modelle unter unterschiedlichen Marktbedingungen, auch in der Zeit vor und nach der Finanzkrise 2007, wurden verschiedene Studien durchgeführt.