Was ist der Unterschied zwischen Sharpe Ratio und Alpha?
Die Risikomessung ist ein wichtiger Teil der Bewertung bei Investitionen. Es gibt kaum risikofreie Anlageklassen, daher ist es wichtig, das inhärente Risiko einer Anlage einzuschätzen. Zwei gängige Risikomaße in der modernen Portfoliotheorie oder MPT, die sowohl auf die Analyse einzelner Aktien als auch auf Investmentfonds angewendet werden, sind die Sharpe-Ratio und das Alpha. Diese statistischen Kennzahlen können historische Volatilität anzeigen und helfen Anlegern dabei, zu bestimmen, welche Aktien und Fonds zu ihrer Anlagerisikotoleranz passen.
Die Sharpe Ratio ist eine risikoadjustierte Renditemessung, die vom Ökonomen William Sharpe entwickelt wurde. Er wird berechnet, indem die risikofreie Rendite, definiert als US-Staatsanleihe, von der Rendite der Anlage abgezogen und dann durch die Standardabweichung der Rendite der Anlage dividiert wird. Für Anleger veranschaulicht die Sharpe Ratio, wie ein Investmentfonds seine Renditen erzielt. Es ist auf diese Weise nützlich, um Fonds mit ähnlichen historischen Renditen zu vergleichen. Wenn beispielsweise Fonds A und Fonds B beide 10-Jahres-Renditen von 5% haben und Fonds A eine Sharpe-Ratio von 1,40 und Fonds B eine Sharpe-Ratio von 1,25 hat, wählt der konservative Anleger Fonds A als eine höhere Sharpe-Ratio weist auf eine höhere risikoadjustierte Rendite hin.
Alpha bietet auch eine Möglichkeit, Renditen auf risikoadjustierter Basis zu messen, wendet die Kennzahl jedoch in Bezug auf eine Benchmark an, um die Leistung zu messen. Für Anleger, die eine Anlage suchen, die der Wertentwicklung einer ausgewählten Benchmark genau entspricht, ist Alpha die zu überprüfende Zahl. Ein Alpha von 1,0 bedeutet, dass der Fonds die Benchmark um 1 % übertroffen hat. Je höher das Alpha, desto besser. Wenn der Fonds ähnliche Anlagen wie die Benchmark hält, zeigt ein positives Alpha den Wert des Fondsmanagers an.