Was ist der Unterschied zwischen dem Sharpe-Verhältnis und dem Alpha?
Die Messung des Risikos ist ein wichtiger Bestandteil der Bewertung bei Investitionen. Es gibt kaum risikofreie Anlageklassen, daher ist es wichtig zu wissen, wie das inhärente Risiko einer Anlage zu bewerten ist. Zwei gängige Risikomessungen in der modernen Portfoliotheorie (MPT), die sowohl auf die Analyse einzelner Aktien als auch auf die Analyse von Investmentfonds angewendet werden, sind die Sharpe Ratio und das Alpha. Diese statistischen Kennzahlen können die historische Volatilität aufzeigen und den Anlegern dabei helfen, festzustellen, welche Aktien und Fonds gut zu ihrer Anlagerisikotoleranz passen.
Die Sharpe Ratio ist eine risikobereinigte Renditemessung, die vom Ökonomen William Sharpe entwickelt wurde. Sie wird berechnet, indem die als US-Staatsanleihe definierte risikofreie Rendite von der Rendite der Anlage abgezogen und dann durch die Standardrendite der Anlage dividiert wird. Für Anleger zeigt die Sharpe Ratio, wie ein Investmentfonds seine Rendite erzielt. Auf diese Weise ist es nützlich, Fonds mit ähnlichen historischen Renditen zu vergleichen. Wenn beispielsweise Fonds A und Fonds B beide eine 10-Jahres-Rendite von 5% aufweisen und Fonds A eine Sharpe-Quote von 1,40 und Fonds B eine Sharpe-Quote von 1,25 aufweist, wählt der konservative Anleger Fonds A als höhere Sharpe-Quote zeigt eine höhere risikobereinigte Rendite an.
Alpha bietet auch eine Möglichkeit, die Rendite risikobereinigt zu messen, wendet die Kennzahl jedoch in Bezug auf eine Benchmark an, um die Leistung zu messen. Für Anleger, die eine Anlage suchen, die der Wertentwicklung einer ausgewählten Benchmark genau entspricht, ist Alpha die zu überprüfende Zahl. Ein Alpha von 1,0 zeigt an, dass der Fonds die Benchmark um 1% übertroffen hat. Je höher das Alpha, desto besser. Wenn der Fonds ähnliche Anlagen wie die Benchmark hält, zeigt ein positives Alpha den Wert des Fondsmanagers an.