Warum sich Portfoliomanager manchmal wie Sisyphos fühlen

Portfoliomanager versuchen die Benchmark zu schlagen, scheinen aber häufig zu scheitern. Was sind die Treiber von Outperformance?

Die griechische Mythologie ist voll von spannenden Geschichten mit einem gewissen Aktualitätsbezug. Ein schönes Beispiel ist die Sage über Sisyphos, der zur Strafe (er hatte den Göttervater Zeus, der ein Verbrechen begangen hatte, an den Flussgott Asopos verraten) in der Unterwelt einen Felsblock einen Berg hinaufrollen musste, der dann aber immer wieder ins Tal rollte. Müsste man diese Sage heute neu erzählen, würde man vielleicht die Geschichte eines Portfoliomanagers wählen, der immer und immer wieder hart arbeitet, um mit seiner Aktienselektion die Benchmark zu schlagen, und dann am Ende doch jedes Mal knapp scheitert.

Besser als der Schwarm?

Allerdings wäre dann noch zu klären, welchen Frevel der Portfoliomanager begangen hat, um als Strafe auf ewig in der Unterwelt Portfolios konstruieren zu müssen, die dann die Benchmark nicht schlagen. Der Frevel könnte vielleicht darin bestehen, überhaupt erst versucht zu haben, den Markt schlagen zu wollen. Denn eigentlich ist der Gesamtmarkt immer das Kondensat aller Entscheidungen, und wenn es so etwas wie Schwarmintelligenz geben sollte, müssten Märkte unglaublich effizient sein. Dann wäre es tatsächlich eine Anmaßung von Wissen, als Einzelner besser sein zu wollen als der auf der Schwarmintelligenz beruhende Markt.

Gibt es einen effizienten Markt?

Wer ein wenig Erfahrung im Portfoliomanagement hat, wird der These widersprechen, dass der Markt jederzeit effizient ist. Denn es gibt ganz offensichtlich immer wieder Übertreibungsphasen, Modeerscheinungen und auch einen ausgeprägten Herdentrieb. All das passt mit dem Bild eines effizienten Marktgeschehens nicht zusammen. Und gerade weil Ineffizienzen und Anomalien immer wieder an Märkten beobachtet werden können, ergibt es auch Sinn, nicht einfach breite Indizes nachzubauen, sondern selbst zu überlegen, welche Investitionen vielversprechend sein können.

Dabei ist die Erkenntnis tröstlich, dass man bei seinen Entscheidungen nie zu 100% richtig liegen muss.

Da man i.d.R. ein breit gestreutes Portfolio verantwortet, reicht es im Zeitverlauf nach Kosten aus, wenn man bei etwa 53% der Entscheidungen richtig liegt. Das hört sich zunächst einmal nicht unrealistisch an und kann von einem guten Portfoliomanager auch erreicht werden.

Doch jetzt kommt das Problem:

In den letzten Jahren wurde es zunehmend unmöglich, den Markt zu schlagen, selbst wenn man eine Trefferquote von deutlich über 50% mit seinen Entscheidungen realisieren konnte. Das klingt unplausibel, lässt sich aber an einem Beispiel illustrieren. Angenommen, das Investmentuniversum eines global agierenden Portfoliomanagers liegt weltweit bei 1000 Aktien. Nehmen wir weiter an, dass der Portfoliomanager im Durchschnitt von den 1000 möglichen Aktien 100 Aktien im Portfolio hält. Bei einer Trefferquote von 53% hinsichtlich der Entscheidungen bedeutet das, dass zu jedem Zeitpunkt etwa 53 Aktien im Portfolio gehalten werden, die während ihrer Haltedauer eine bessere Wertentwicklung aufweisen als die Benchmark. Unter normalen Umständen sollte das ausreichen, die Benchmark zu schlagen – und in der Vergangenheit war das auch i.d.R. der Fall.

Nun sind Aktien in einer Benchmark aber nicht alle gleichgewichtet.

Ganz im Gegenteil: Gerade aktuell sind sehr wenige Aktien für ein erhebliches Gewicht im Index verantwortlich; man spricht hier von einer hohen Konzentration, da z.B. im S&P500 Index die größten 15 Unternehmen zusammen ein größeres Gewicht haben als die kleinsten 200 Werte in dem Index. Wenn nun die Mehrzahl der besonders großen Unternehmen systematisch besser performt als der Rest der Aktien im Index, hilft eine hohe Trefferquote kaum noch, um die Benchmark zu schlagen. Denn diese hohe Trefferquote zeigt sich auch und vor allem in der Vielzahl von kleineren Werten, die aber im Index kaum eine Rolle spielen, während sie im Portfolio durchaus ein relevantes Gewicht haben können.

Wird es durch die Outperformance der großen Unternehmen im Index leichter?

Es ist sogar noch schlimmer: Solange die sehr großen Unternehmen systematisch die Benchmark outperformen – und das ist seit einiger Zeit der Fall – reicht auch eine Trefferquote von deutlich unter 50% bei den Entscheidungen, solange man die wenigen großen Werte eines Index im Portfolio hält und sogar noch stärker gewichtet als dies im Index der Fall ist. Genau das wird ein Portfoliomanager aus Risikogesichtspunkten aber kaum machen, weshalb man aktuell tatsächlich an den guten alten Sisyphos denken muss, wenn man Aktienportfolios verantwortet.

Der Unterschied zwischen Sisyphos und einem Portfoliomanager

Glücklicherweise gibt es dann aber doch einen Unterschied zwischen einem Portfoliomanager und Sisyphos, der ja per Definition nicht aus seiner Rolle schlüpfen konnte. Denn im Gegensatz zu Sisyphos ist ein Portfoliomanager nicht in seiner Situation gefangen, sondern hat viele Freiheiten, die Situation zu seinen Gunsten zu gestalten und neue Wege zu beschreiten. Daher bringt es auch wenig, Trübsal zu blasen und über die Situation zu jammern. Man ist eigentlich eher gut beraten, seinen Kopf frei zu machen und grundsätzlich zu überlegen, ob nicht der eine oder andere alte Zopf abgeschnitten werden muss, um angesichts der Herausforderungen auch in Zukunft im Portfoliomanagement erfolgreich zu sein.

Die Theorie der Risikoprämie

Die gängige Theorie besagt, dass man breite Märkte nur schlagen kann, wenn man Risikoprämien vereinnahmt. Risikoprämien vereinnahmt man dann, wenn man das Portfolio im Hinblick auf bestimmte Faktoren ausrichtet, von denen man annehmen kann, dass sie performancerelevant sind. Dazu gehören beispielsweise die Bewertung von Aktien, aber auch das Kursmomentum, die Volatilität und andere fundamentale sowie technische Kriterien. Die finanztheoretischen Grundlagen dazu wurden schon vor Jahrzehnten gelegt und mit Nobelpreisen belohnt.

Das Faktorinvesting

Da man versucht, performancerelevante Faktoren zu identifizieren und über die Selektion im Portfolio abzubilden, spricht man auch von Faktorinvesting. Das kann regelgebunden geschehen, aber wenn man ganz ehrlich ist, dürfte auch manch konventionell arbeitender Portfoliomanager nichts anderes als eine Form von Faktorinvesting betreiben. Selbst ein Warren Buffet, der über Jahrzehnte hinweg stringent seinen Value-Investing-Stil verfolgt, ist am Ende auch nichts anderes als ein Value-Faktor-Investor. Aber auch Warren Buffet musste in den letzten Jahren spüren, dass ein solcher Ansatz nicht konstant zu einer Outperformance führt.

Was bedeutet Risikoprämie?

Nicht ohne Grund spricht man von einer Risikoprämie. Die Prämie erhält man dafür, dass man durch die spezifische Konstruktion des Portfolios ein Risiko eingeht, das aufgrund ökonomischer Gründe und Zusammenhänge langfristig entlohnt wird, nicht aber jederzeit. Aus rein theoretischer Perspektive war das aber nie ein ernsthaftes Problem. Denn wenn man nur ein wenig Geduld mitbringt, müsste man sich bei langem Investmenthorizont keine Sorgen machen – die langfristige Outperformance ist in solchen Ansätzen quasi „eingebaut“, das postuliert zumindest der Mainstream der Finanzmarkttheorie. Doch ganz so einfach scheint es inzwischen nicht mehr zu sein.

Seit etwa zehn Jahren funktioniert beispielsweise der Value-Faktor so gut wie gar nicht mehr.

Das könnte an den niedrigen Zinsen liegen und wird sich auch in den kommenden Jahren vermutlich nicht änderen. Und mit den anderen Faktoren lässt sich zwar noch eine Trefferquote von knapp über 50% erzielen, nicht aber unbedingt eine Outperformance, wie oben schon beschrieben.

Was sind dann überhaupt Treiber für Outperformance?

Vielleicht ist es daher an der Zeit, etwas grundsätzlicher zu hinterfragen, was überhaupt Treiber für eine Outperformance sind. In der Wissenschaft wird diese Frage dadurch beantwortet, indem man Hypothesen aufstellt, die dann getestet werden. Übertragen auf das Faktorinvesting bedeutet dies, dass man z.B. zunächst die Hypothese aufstellt, wonach ein Portfolio mit Unternehmen, die sich beispielsweise durch eine hohe Profitabilität auszeichnen, besser entwickelt als der breite Markt. Nun stellt man ein Portfolio auf, das genau diese Aktien mit den gewünschten Eigenschaften erhält und testet dann, ob diese Hypothese empirisch bestätigt werden kann.

Diesmal sind wir anders vorgegangen

Wir schlagen stattdessen an dieser Stelle eine konträre Vorgehensweise vor, die eher einen opportunistischen Charakter hat, dafür aber erhebliche Erkenntnisgewinne verspricht. Statt eine Hypothese darüber aufzustellen, was aus welchen Gründen auch immer Aktien besonders gut funktionieren müsste, prüfen wir einfach, was besonders gut funktioniert hat!

Unser Untersuchungsaufbau schaut dabei wie folgt aus:

Monat für Monat erstellen wir (beginnend im Jahr 2007) zunächst eine Liste mit den 600 Aktien, die zu dem historischen Zeitpunkt den STOXX 600 gebildet haben. Für alle 600 Aktien haben wir für jeden Monat die Schätzungen für verschiedene Bilanzkennzahlen zusammengestellt, die zu dem Zeitpunkt den Echtzeit-Konsens für diese Kennzahlen darstellten. Die Kennzahlen sind so ausgewählt, dass damit eine sog. Faktor-Skyline dargestellt werden kann, die die fundamentalen Eigenschaften einer Aktie vergleichsweise umfassend beschreibt.

Wie haben sich diese 600 Aktien enwickelt?

Nun haben wir in einem weiteren Schritt überprüft, wie sich diese 600 Aktien in den dann folgenden 12 Monaten entwickelt haben. Für die dann 200 besten Aktien hinsichtlich ihrer Wertentwicklung 12 Monate nach der Zusammenstellung der Faktorsykline haben wir dann für die „Siegeraktien“ hypothesenfrei die „Siegerfaktorsykline“ berechnet, indem wir für jeden Faktor über alle 200 in der Folgeperiode gut performenden Aktien die durchschnittliche Faktorskyline kalkuliert haben.

Die Ergebnisse sind mehr als frappierend!

Die Ergebnisse sind mehr als frappierend und leider nicht kompatibel mit dem, was in Lehrbüchern zu finden wäre:

Denn die postulierte These von langfristig zu beobachtenden Risikoprämien kann so gut wie gar nicht bestätigt werden.

Nehmen wir als Beispiel das Thema Bilanzqualität.

Eine Kennzahl, die diesen Faktor gut repräsentiert, ist der operative Gewinn (EBITDA) geteilt durch die Zinsausgaben für die Unternehmensverschuldung. Je höher dieser Wert ist, umso besser ist die Bilanzqualität. Sowohl der ökonomische Sachverstand als auch die finanzwissenschaftliche Literatur würden das Postulat aufstellen, dass sich die „Siegeraktien“ und damit die outperformenden Aktien tendenziell durch einen überdurchschnittlichen Wert bei dieser Kennzahl auszeichnen. Historisch war das im Trend auch der Fall, wie die folgende Grafik zeigt.

Von einer systematischen Risikoprämie kann hier gar keine Rede mehr sein

Inzwischen liegt der Trend aber ziemlich exakt auf dem 50%-Quantil. Das bedeutet, dass sich besonders gut entwickelnde Aktien aktuell im Trend durch eine komplett durchschnittliche Bilanzqualität auszeichnen. Von einer systematischen Risikoprämie kann hier gar keine Rede mehr sein. Und eigentlich ist es sogar noch ein wenig schlimmer. Denn es bewegt sich nicht nur der Trend in Richtung einer Nichtkorrelation zwischen der Faktorausprägung und der dann folgenden Wertentwicklung;

De facto schwankt das Vorzeichen der Wirkungsrichtung auch noch so stark, dass fast eher von einer Lotterie als von einer Risikoprämie die Rede sein sollte.

Denn von einer Risikoprämie sollte man erwarten, dass die Prämie auf der Zeitachse nicht mit einer Wahrscheinlichkeit von 50% vereinnahmt werden kann, sondern zu einem deutlich höheren Prozentsatz.

Dieser Anspruch wird aber auch bei der folgenden Kennzahl nur bedingt erfüllt. Hier geht es um die Nettoverschuldung zum Unternehmenswert. Man würde vermuten, dass bei den „Siegeraktien“ tendenziell ein niedriger Wert zu beobachten sein müsste. In der Mehrzahl der Monate war das der Fall, nicht jedoch aber am aktuellen Rand.

Ähnliches gilt für die Eigenkapitalrendite.

Die Literatur würde unterstellen, dass die outperformenden Aktien im Bereich der hohen Eigenkapitalrenditen zu finden sind. Es gab aber lange Zeiträume, wo das nicht im Ansatz der Fall war. Im Trend bewegt sich der Wert aktuell ebenfalls in Richtung des 50%-Quantils. Mit anderen Worten: Es ist für die Wertentwicklung zunehmend egal, wie die Ausprägung der Eigenkapitalrentabilität ausfällt.

Ähnliche Erkenntnisse gelten beispielsweise für die Umsatzmarge oder z.B. das KGV.

Wie man es auch dreht und wendet

Egal wie man es dreht und wendet – das wilde Hin- und Herschwingen der fundamentalen Eigenschaften bei Aktien, von denen man weiß, dass sie später zu den sich besonders gut entwickelnden Aktien zählen werden, muss jeden irritieren, der von nachhaltig relevanten Risikoprämien ausgeht. Denn wenn am aktuellen Rand noch ein signifikanter Zusammenhang zwischen fundamentaler Eigenschaft und Wertentwicklung bestehen sollte, dürfte der Trend der Faktorexposures der „Siegeraktien“ nicht fast überall exakt auf dem Median der Faktorausprägungen liegen.

Muss man nun den Kopf komplett in den Sand stecken?

Aus unserer Sicht nicht, denn es gibt einen kleinen Lichtblick am Ende des Tunnels. Auch wenn die Veränderungen der Faktoreigenschaften der „Siegeraktien“ wie ein Random Walk, also ein zufälliger Prozess aussehen, ist das nicht der Fall. Es gibt hier vielmehr eine gewisse Persistenz oder Nachhaltigkeit im Zusammenhang zwischen fundamentaler Ausprägung und der dann folgenden Wertentwicklung.

Diese Zusammenhänge gelten nicht für Jahre, aber durchaus für einige Monate. Das lässt sich nutzen.

So können schon klassische statistische Methoden wie eine multiple Regressionsanalyse verwendet werden, um diese Zusammenhänge hochwertig auszuwerten und für die Portfoliokonstruktion zu nutzen. Unsere Rückrechnungen zeigen, dass (vor Kosten) eine jährliche Outperformance von etwa drei Prozent möglich erscheint, wenn diese Zusammenhänge mit derartigen klassischen statistischen Methoden ausgewertet werden.

Leider weisen diese Methoden einen großen Nachteil auf:

Sie unterliegen alle bestimmten Modellannahmen, die die Fähigkeiten dieser Modelle auf die eine oder andere Art limitieren. Vor allem können sie systembedingt unmöglich mit hochgradig nichtlinearen Zusammenhängen umgehen, die hier aber definitiv vorliegen. Aus diesem Grund haben wir eine Art „Mustererkennung“ programmiert, die komplett ohne Modellannahmen auskommt und einfach nach Aktien sucht, die ein ähnliches Faktorprofil aufweisen wie die „Siegeraktien“ der Vorperiode. Wenn man diesen Ansatz mit Fähigkeiten kombiniert, rechtzeitig Strukturbrüche in den Zusammenhängen zu erkennen und die „Lernperioden“ daraufhin anzupassen, dann weisen die Rückrechnungen auf ein erhebliches Performance-Potenzial hin, das genutzt werden sollte. Der Nachteil dieser Vorgehensweise liegt in einem vergleichsweise hohen Turnover und einem gewissen Opportunismus, der nicht unbedingt in jeder Hinsicht klassischen finanzmarkttheoretischen Dogmen entspricht.

Wenn es aber zum Erfolg führt, dann sollte das ein Anlass sein, diese Idee weiter zu verfolgen – damit am Ende nicht jeder Portfoliomanager glaubt, er muss das Schicksaal von Sisyphos teilen.


Erfahren Sie von uns die wichtigsten Nachrichten über das Thema Geldanlage.
✓ jede Woche neu ✓ immer aktuell ✓ jederzeit abbestellbar

Newsletter

Coronavirus BIld

Autor: Dr. Christian Jasperneite, Chief Investment Officer

Dr. Christian Jasperneite studierte an der Universität Passau VWL und promovierte anschließend an der Universität Passau am Lehrstuhl für Wirtschaftspolitik. Nach einem Forschungsaufenthalt an der Harvard University begann er im Jahr 2000 als Analyst im Makro-Research von M.M.Warburg & CO. Seit Anfang 2009 ist Dr. Jasperneite Chief Investment Officer bei M.M.Warburg & CO und verantwortet dort u.a. Fragen der strategischen und taktischen Allokation sowie der Portfoliokonstruktion und der Produktentwicklung.

Mit Warburg Navigator die passende Geldanlage finden

Investieren Sie Ihr Vermögen mit den Experten von M.M.Warburg & CO. Modern und unkompliziert.