In den folgenden Beiträgen soll eine einfache Einführung in die am weitesten verbreiteten und in der Praxis am häufigsten genutzten Faktormodelle gegeben werden. Ziel ist es, die theoretischen Grundlagen dieser Ansätze zu erläutern, ihre Relevanz anhand von Beispielen zur Portfoliokonstruktion zu verdeutlichen und damit ein Verständnis für die quantitative Aktienbewertung zu schaffen und für jeden zugänglich zu machen. Kritik und Ergänzungen nehme ich gerne an!
Quellen sind angegeben für diejenigen die gerne nachlesen.
Motivation
Warum ist die Auseinandersetzung mit Faktormodellen überhaupt relevant? In der Praxis verwenden die meisten institutionellen Asset Manager Faktoren zur Strukturierung ihrer Portfolios. Dies beruht auf der Erkenntnis, dass ein erheblicher Teil der Querschnittsvariation von Aktienrenditen durch systematische Risikofaktoren erklärt werden kann (vgl. Fama & French, 1993; Carhart, 1997). Für den aktiven Manager bedeutet dies zweierlei: Zum einen sind Faktormodelle unverzichtbar, um die eigene Wertschöpfung gegenüber dem Markt korrekt zu messen. Zum anderen lassen sich auf Basis etablierter Faktoren robuste Portfolios konstruieren, die langfristig stabile Renditequellen erschließen können.
Denn eine fundierte Bewertung ist nur im relativen Vergleich zu einer geeigneten Peergruppe möglich. Ein isoliert betrachtetes Multiple liefert ohne Referenz keine Aussagekraft. Konkret bedeutet dies: Ein Kurs-Gewinn-Verhältnis (KGV) von 40 lässt sich nicht eindeutig als ‚teuer‘ oder ‚günstig‘ klassifizieren, solange keine Vergleichsbasis vorliegt. Liegt die Vergleichsgruppe bei einem KGV von 100, erscheint ein Wert von 40 attraktiv; liegt er hingegen bei 20, wäre derselbe Wert überdurchschnittlich teuer. Diese Logik gilt analog für sämtliche anderen Bewertungsmultiples.
Damit liefert die Nutzung quantitativer Bewertungsmodelle einen klaren Mehrwert. Faktoren sind nicht das Ergebnis von Data Mining, sondern lassen sich wenigstens teilweise durch Risikoprämien oder durch Investoren Verhalten begründen. Sie sind deshalb nicht nur empirisch robust, sondern theoretisch plausibel und fundiert. Somit muss jeder Faktor marktneutral, also sowohl auf der Long- als auch auf der Short-Seite, replizierbar sein.
Praktische Relevanz und Herausforderungen
Kritisch wird in der Literatur häufig auf die Gefahr von „Crowding“ hingewiesen, also den potenziellen Renditeverlust durch übermäßige Kapitalzuflüsse in faktorbasierten Strategien. Dennoch zeigt die empirische Evidenz, dass Faktoren weiterhin in der Lage sind, systematische Mehrerträge zu liefern, selbst wenn die Renditeprämien über die Zeit variieren (Asness et al., 2022). Die entscheidende Herausforderung liegt weniger in der Frage, ob Faktoren obsolet geworden sind, sondern vielmehr in der korrekten Implementierung und fortlaufenden Weiterentwicklung der Modellkonstruktion.
Bislang wurde kein etablierter Faktor durch die Forschung als gänzlich nichtig erklärt. Allerdings hat sich die Methodik der Konstruktion weiterentwickelt, etwa durch die Kombination mehrerer Kennzahlen (Composite-Scores), sektor- und größenneutrale Umsetzung oder die Integration zusätzlicher Risiko- und Robustheitskriterien.
1. Der Value-Faktor
Der Value-Faktor zählt zu den ältesten und zugleich kontroversesten Risikoprämien. In den vergangenen Jahren war er insbesondere aufgrund schwacher relativer Ergebnisse vielfach in der Kritik. Historisch gilt Value jedoch als eine der grundlegenden Säulen quantitativer Kapitalmarktforschung und wird bis heute als essenzielle Benchmark zur Beurteilung relativer Aktien, Anleihen und anderer Assetklassen-Bewertungen genutzt (Asness, Moskowitz & Pedersen, 2013). Die Erwartungen an zukünftige Cashflows spiegeln sich im Marktpreis wider. Ein Value-Investor stellt dem seine eigene Einschätzung gegenüber, wie gut ein Unternehmen künftig Cashflows erwirtschaften kann, und leitet daraus den inneren Wert ab. Er geht davon aus, dass sich der Marktpreis langfristig diesem inneren Wert annähern wird. Diese Einschätzung basiert auf dem Wertschöpfungspotenzial des Unternehmens. Dazu gehören die Analyse der angebotenen Produkte und Dienstleistungen, die Wettbewerbsposition im Markt, das Potenzial für zukünftiges Wachstum, mögliche Veränderungen bei Margen und Kapitalbedarf sowie die Wahl der Finanzierung, die für die Umsetzung dieses Wachstums erforderlich ist.
Der Ursprung des Value-Investing geht auf Benjamin Graham und David Dodd (1934, Security Analysis) zurück. Ihr Paradigma bestand darin, unterbewertete Unternehmen anhand fundamentaler Kennzahlen zu identifizieren. Klassische Indikatoren waren dabei ein Abschlag des Marktpreises zum Buchwert, hohe Dividendenrenditen oder niedrige Multiples wie das Kurs-Gewinn-Verhältnis (P/E) und das Kurs-Buchwert-Verhältnis (P/B). Die dahinterstehende Annahme ist, dass in einem effizienten Markt (Fama, 1970) Wertpapiere zwar fair bewertet sein sollten, in der Praxis jedoch systematische Fehlbewertungen auftreten, die durch den Value-Ansatz ausnutzbar sind.
1.1 Moderne Operationalisierung von Value
In der empirischen Asset-Pricing-Literatur wird Value zumeist über einfache Bewertungskennzahlen gemessen.
Die gängigste Konstruktion, eingeführt von Fama und French (1992), verwendet das Kurs-Buchwert-Verhältnis (B/P) als Proxy für Value und bildet ein Portfolio, das aus Long-Positionen in Aktien mit hohem B/P und Short-Positionen in Aktien mit niedrigem B/P besteht. Ein hohes B/P bedeutet eine günstige Bewertung (oder hohes Risiko, aus Sicht der effizienten Markthypothese) und geht mit einer hohen erwarteten Rendite einher, während ein niedriges B/P das Gegenteil signalisiert. In der klassischen Umsetzung wird der Faktor einmal jährlich zum 30. Juni aktualisiert, basierend auf Buchwert- und Preisdaten vom vorangegangenen 31. Dezember. Diese Werte, und damit auch die Portfoliozusammensetzung, bleiben bis zur nächsten Anpassung ein Jahr später konstant. Das bedeutet, dass die für das Portfolio verwendeten Buch- und Preisdaten stets zwischen sechs und 18 Monaten alt sind. Fama und French (1992) trafen diese konservativen Konstruktionsentscheidungen, um sicherzustellen, dass die verwendeten Buchwerte zum Zeitpunkt der Portfoliokonstruktion tatsächlich verfügbar waren. Sie wählten also Preis und Buchwert aus demselben Stichtag, was aus damaliger Sicht naheliegend erschien. Spätere Forschung empfand diese lags in Buchhaltungsdaten suboptimal (Asness, C., & Frazzini, A. (2013)) und erweiterte dieses Spektrum um weitere Multiples, wie z.b.:
• Kurs-Gewinn-Verhältnis (P/E)
• Kurs-Buchwert-Verhältnis (P/B)
• Kurs-Umsatz-Verhältnis (P/S)
• Kurs-Cashflow-Verhältnis (P/CF)
• PEG-Ratio (Price/Earnings-to-Growth)
• EV/EBITDA, CF/EV oder EV/Sales
Diese Kennzahlen lassen sich einzeln oder kombiniert zu Composite-Scores verwenden, um die Robustheit zu erhöhen und bilanzspezifische Schwächen einzelner Branchen (z. B. durch immaterielle Vermögenswerte im Buchwert) zu adressieren (Asness, C., & Frazzini, A. (2020)).
1.2 Historische Performance des Value-Faktors
Die empirische Wertentwicklung des Value-Faktors von Fama und French (1992, 1993) weist eine signifikante Outperformance für Value-Titel auf, gemessen am Verhältnis von Buch- zu Marktwert (HML-Faktor). Über den Zeitraum von 1926 bis 2016 erzielte der klassische Long-Short Value-Faktor in den USA eine annualisierte Outperformance von etwa 1% p.a.. Vergleichbare Resultate lassen sich für internationale Märkte feststellen, wenngleich die Höhe der Prämie von Region zu Region variiert.
Neuere Forschungen haben die ursprüngliche Book-to-Market-Messung erweitert und Kombinierte/Multifaktoren entwickelt, die mehrere Bewertungskennzahlen kombinieren. Asness, C., & Frazzini, A. (2020) zeigen, dass ein globaler kombinierter Value-Faktor, konstruiert aus einer Vielzahl fundamentaler Multiples, auch nach Transaktionskosten eine robuste Prämie im mittleren einstelligen Prozentbereich p.a. liefert. Die Autoren betonen zudem, dass die schwache relative Performance von Value im Zeitraum 2010–2020 nicht das langfristige Bestehen der Prämie infrage stellt, sondern durch Bewertungsunterschiede zwischen günstigen und teuren Aktien erklärbar ist.
Hervorzuheben ist auch die Arbeit von Hanauer und Blitz (2021, Resurrecting the Value Premium). Sie zeigen, dass ein „enhanced value“-Ansatz, basierend auf einem breiteren Set an Kennzahlen, im US-Markt eine durchschnittliche Long-Short-Prämie von rund 5 % p.a., in Developed-ex-US- und Emerging Markets sogar über 8 % p.a., generiert hätte. In der Praxis-relevanteren Long-only-Umsetzung reduziert sich die Überrendite erwartungsgemäß, liegt aber immer noch deutlich über dem Markt bei 3% p.a..
1.3 Theoretische Begründungen
Die Value-Prämie lässt sich aus zwei Perspektiven erklären:
1. Risiko: Value-Titel sind häufig finanziell angeschlagen oder zyklisch abhängig und bergen daher höhere systematische Risiken (vgl. Chen & Zhang, 1998).
2. Verhalten: Investoren neigen dazu, Wachstumsunternehmen überzubewerten und Substanzwerte zu unterschätzen. Die Korrektur dieser Fehlbewertungen erfolgt nur langsam, was systematische Überrenditen für Value-Strategien ermöglicht (vgl. Lakonishok, Shleifer & Vishny, 1994).
1.4 Methodische Umsetzung
Die Umsetzung des Value-Faktors erfolgt typischerweise über eine Sortierung aller investierbaren Titel eines definierten Universums nach einer oder mehreren Bewertungskennzahlen. Dabei wird die relative Position jedes Unternehmens innerhalb der Querverteilung bestimmt, häufig durch Perzentilränge.
Theoretisch ergibt sich bei jedem Faktor die Konstruktion daraus, dass die günstigsten 30 % der Titel eines Universums als Kaufkandidaten definiert werden, während die teuersten 30 % als Verkaufspositionen dienen.
Beispiel: Angenommen, wir betrachten vier Unternehmen mit KGVs von 10, 12, 14 und 20. Die Aktie mit dem niedrigsten KGV (10) wird in das oberste Perzentil eingeordnet (günstigstes Perzentil), während die Aktie mit dem höchsten KGV (20) dem unterstem Perzentil (1) zugeordnet wird (teuerstes). Titel mit mittleren KGVs werden entsprechend in den dazwischenliegenden Rängen einsortiert.
Durch diese Rangbildung entsteht eine relative Bewertungsordnung innerhalb einer Peergruppe (z. B. Markt, Region oder Sektor). Darauf basierend können systematisch Portfolios konstruiert werden, etwa durch Kauf der günstigsten Aktien (oberes Quintil, Dezil oder Bspw top 20 nach Value) und Verkauf der teuersten (unteres Quintil, Dezil oder Bspw bottom 20 nach Value).
1.5 Praktische Umsetzung in EXCEL
Im nächsten Schritt wollen wir ein praxisnahes Beispiel betrachten und dabei auch auf die Rolle der Datenlieferanten eingehen. Denn genau hier entsteht der Mehrwert, den Portfoliomanager und Fondsgesellschaften durch aktives Management bieten können. Für den individuellen Investor sind entsprechende Datenquellen häufig nur schwer zugänglich oder mit hohen Kosten verbunden. Zusätzlich erfordert das eigenständige Sammeln von Daten (Data Scraping) in der Regel Programmierkenntnisse, die trotz moderner Werkzeuge wie ChatGPT nicht jedem Anleger zur Verfügung stehen. Auch die Weiterverarbeitung der Daten stellt eine Hürde dar, da hierfür meist fortgeschrittenes Wissen in Excel, VBA, R oder Python notwendig ist. Im Folgenden wird daher ein einfacher konkreter Weg aufgezeigt, wie sich ein Faktor auf Basis externer Datenquellen nachbilden lässt.
1. Datenimport
Als Ausgangspunkt benötigen wir eine Liste an Aktien-Tickern. Für kostenfreie Anwendungen bietet es sich an, auf die Bestände von börsengehandelten Fonds (ETFs) zurückzugreifen, da diese ihre Portfoliopositionen regelmäßig veröffentlichen müssen.
In diesem Beispiel verwenden wir den IUHC-ETF von BlackRock. (https://www.blackrock.com/de/privatanleger/produkt/280507/ishares-sp-500-health-care-sector-ucits-etf?switchLocale=y&siteEntryPassthrough=true )
Nach dem Download der Excel- oder CSV-Datei finden wir in Spalte A die benötigten Ticker. Diese kopieren wir und fügen sie in eine eigene Excel-Datei (Spalte A) ein. Anschließend filtern wir manuell nicht-aktienbezogene Positionen (z. B. Cash, Index-Ticker oder Derivate) heraus, sodass nur noch Aktien im Universum verbleiben.
2. Datenverarbeitung
Im nächsten Schritt markieren wir die Ticker in Spalte A und nutzen in Excel den Reiter Daten → Aktien. Dadurch werden die Ticker mit den entsprechenden Fundamentaldaten aus dem Microsoft-Datenservice verknüpft.
Nun können wir in Spalte B das Kurs-Gewinn-Verhältnis (KGV) abrufen. Dazu tragen wir in Zelle B1 die Formel ein:
=A1.KGV
und ziehen diese bis zur letzten Zeile des Universums (z. B. Zeile 60).
3. Konstruktion des Faktors
In Spalte C bilden wir nun eine Rangordnung auf Basis der Bewertungskennzahl. Dazu nutzen wir die Funktion QUANTILSRANG.INKL. In Zelle C1 lautet die Formel:
=100-QUANTILSRANG.INKL($B$1:$B$60;B1)*100
Erläuterung der Schritte:
• 100-... sorgt dafür, dass die günstigsten Unternehmen den höchsten Wert (100) erhalten, während die teuersten Richtung 0 fallen.
• QUANTILSRANG.INKL berechnet die relative Position innerhalb der Verteilung.
• $B$1:$B$60 ist das Universum, über das gerankt wird.
• B1 ist die aktuell bewertete Aktie.
• *100 transformiert das Ergebnis in. Prozentwerte.
So entsteht eine Perzentil-Skala von 0 bis 100, auf der günstige Unternehmen oben und teure Unternehmen unten einsortiert sind. Diese Scores können anschließend genutzt werden, um ein Value-Portfolio zu konstruieren (z. B. Kauf der Top-30 %, Verkauf der Bottom-30 %).
Anmerkung für die Theorienerds unter euch, denen das ausgelassene Thema Survivorship Bias aufgefallen ist:
Dieser Aspekt wurde bewusst nicht vertieft, da seine Erklärung den Rahmen sprengen würde und eine korrekte Implementierung ohne kostenintensive Datenlieferanten in der Praxis kaum möglich ist.