Was ist Soziale Gerechtigkeit?

Oktober 28, 2017

Der Beitrag „Du verdienst was du verdienst“ von Natascha ist polarisierend. Kein Wunder also, dass sich durch den Beitrag angestoßen eine größere Debatte entzündet hat. Um mehr Übersicht über die Debatte zu gewinnen rief Sebastian von hobbyinvestor.de zu einer Blogparade zu dem Thema soziale Gerechtigkeit auf. Hier also mein Beitrag zu dem.

Der Begriff „Soziale Gerechtigkeit“ wird vor allem in der politischen Debatte verwendet. In der Regel impliziert die Absicht sich für soziale Gerechtigkeit einzusetzen, den Willen zu mehr Umverteilung. Oft wird soziale Gerechtigkeit mit sozialer Gleichheit gleichgesetzt. Eine saubere Bestimmung wann die soziale Gerechtigkeit verwirklicht sei bleiben uns ihre Befürworter meist schuldig, daher wird der Begriff meist in unklarer Weise gebraucht. In eine politische Debatte ist das günstig und in einen gewissen Rahmen auch legitim. Günstig ist es deswegen, weil jeder Adressat selbst ausmalen kann, was er unter sozialer Gerechtigkeit versteht. Legitim, weil in der politischen Debatte, die Dinge auch verkürzt dargestellt werden dürfen.

Es stellt sich jedoch die Frage, ob der Begriff soziale Gerechtigkeit einen nur Schall und Rauch ist oder ob er einen harten Kern hat. Von den Philosophen die die soziale Gerechtigkeit in das Zentrum ihrer Überlegungen gestellt haben ist John Rawls vermutlich der bekannteste. Er definiert als Kriterium für Gerechtigkeit dass

„a) Jede Person hat den gleichen unabdingbaren Anspruch auf ein völlig adäquates System gleicher Grundfreiheiten, das mit demselben System von Freiheiten für alle vereinbar ist. b) Soziale und ökonomische Ungleichheiten müssen zwei Bedingungen erfüllen: erstens müssen sie mit Ämtern und Positionen verbunden sein, die unter Bedingungen fairer Chancengleichheit allen offenstehen; und zweitens müssen sie den am wenigsten begünstigten Angehörigen der Gesellschaft den größten Vorteil bringen (Differenzprinzip).“ [John Rawls: Justice as Fairness. A Restatement.]

Nach Rawls ist ökonomische Ungleichheit also nur dann gerechtfertigt, wenn die am schlechtesten Gestellen durch die Ungleichheit profitieren. Unabhängig davon was man von diesem Grundsatz denkt, ist deutlich dass er die Maximalforderung nach Gleichheit darstellt. Von einer noch schärferen Forderung würde schließlich niemand mehr profitieren. Rawls zufolge ist eine Abweichung von dieser Maximalforderung unfair. Er begründet dies mit einem Gedankenexperiment, dem Schleier des Nichtwissens. Seine Argumentation beruht darauf, dass die Menschen ihre Gerechtigkeitsvorstellungen an ihre eigene Situation anpassen. Wenn jemand ein sehr hohes Einkommen hat, wird er Gerechtigkeit in einer Weise definieren, die hohe Einkommen zulässt. Jemand ärmeres wird Gleichheit stärker betonen. Die Entscheidung was als gerecht zu gelten hat, müsse also von jemanden gefällt werden, der seine Stellung in der Gesellschaft nicht kennt. Dies ist der „Schleier des Nichtwissens“.

Rawls geht davon aus das man sich unter dem Schleier des Nichtwissens auf die von ihm benannten Gerechtigkeitskriterien einigen würde. Er geht davon aus das man lieber auf der sicheren Seite sein will und daher nach dem Minimax-Prinzip entscheidet. Also seine Entscheidungen so tritt, dass man versucht  das Ergebnis, das man im schlechtesten Fall erhält, zu optimieren. Bezogen auf die Verteilung von Gesellschaftlichen Gütern ergibt sich daraus gerade das Differenzprinzip. Unter dem Schleier des Nichtwissens ist der schlechteste Fall gerade, dass man sein Angehöriger der am wenigsten begünstigtsten ist. Also wird das Ergebnis, dass im schlechtesten Fall eintritt, optimiert, wenn die gesellschaftlichen Regeln so ausgelegt werden, dass sie dem am wenigsten begünstigten den größten Vorteil bringen.

Der größte Schwachpunkt in Rawls Argumentation ist der Rückgriff auf das Minimax-Prinzip. Tatsächlich begründet er auch nicht weiter warum man unter dem Schleier des Nichtwissens nach dem Minimax-Prinzip entscheiden würde, er schreibt lediglich, dass er es für plausibel hält. In der Tat sind auch viele andere Entscheidungsmaximen denkbar. Die meisten Menschen würden es wohl bevorzugen, die Regeln so zu gestalten, dass der Durchschnitt (Median) optimiert wird, aber gleichzeitig ein Existenzminimum gewährt wird. Das  Minimax-Prinzip ist von allen denkbaren Entscheidungsmaximen dahingehend extrem das es die pessimistische und am stärksten risikovermeidende Entscheidungsregel ist. Sinn macht das Minimax-Prinzip in strategischen Situationen, d.h. wenn ich einen vernunftbegabten Gegenspieler habe, der versucht mir den größten Schaden zuzufügen. Ein solcher Gegenspieler würde sich an meine Entscheidungen derart anpassen, dass das für mich schlechteste Resultat eintritt. Es macht in strategischen Situationen also Sinn das schlechteste Resultat zu optimieren, weil ich mir sehr sicher sein kann, dass es das Resultat ist, das tatsächlich eintritt. Das Mimimax-Prinzip in einer Situation anzuwenden um der es um das persönliche Schicksal geht, macht nur für jemanden Sinn, der das Leben als Gegenspieler betrachtet. Es ist absolut denkbar, dass Rawls persönliche Schicksalschläge (seine Brüder starben noch in seiner Jugend) ihn zu einer äußerst pessimistischen Lebenshaltung gebracht haben.

Wie wir also gesehen haben, hängen die Entscheidungen, die man unter dem Schleier des Nichtwissens treffen würde, ganz entscheidend von seiner Risikoneigung ab. Es ist m.E. nicht einsichtig warum eine bestimmte Risikoneigung objektiver oder rationaler sein sollte als eine andere. Die persönliche Risikoneigung erklärt sich vor allem aus jemandes Biographie, etwas was man unter dem Schleier des Nichtwissens nicht besitzt. Das Problem beschränkt sich nicht nur auf die Risikoneigung, viele andere Charakterzüge, die für das Gerechtigkeitsempfinden maßgeblich sind, hängen von Lebenserfahrung und Lebenswelt ab. Ist das Gerechtigkeitsempfinden nicht etwas, was durch zunehmende Erfahrungen wächst und sich durch erworbene Einsichten verändert? Wenn wir Leistung oder Bedürftigkeit selbst erfahren ändert sich auch unser Blick auf die Gerechtigkeit. Damit ist meines Erachtens ist Rawls Programm, die Gerechtigkeit auf objektive Grundsätze zu stellen, zum Scheitern verurteilt; Gerechtigkeit ist grundsätzlich subjektiv.

Betrachtet man die Frage, ob es eine objektive Gerechtigkeit gibt, genauer, zeigt sich eine weitere Problematik. Warum ist es so wichtig die Gerechtigkeit auf objektive Grundätzte abzustellen? Letztlich geht es darum welche Grundsätze allgemeine Verbindlichkeit erhalten und im Zweifel durch die Staatsgewalt durchgesetzt werden. Rawls möchte jemanden sagen können: „Wir besteuern dich jetzt so hoch, dass gerade noch ein Anreiz zur Mehrleistung übrigbleibt und du hast das Ganze als fair zu empfinden. Denn du empfindest das nur aus deiner subjektiven Lage als unfair, wärst du objektiv würdest auch du erkennen, dass es nur gerecht ist, dich so hoch zu besteuern.“ Warum sollte man aber die Entscheidung eines fiktiven Wesens als verbindlich ansehen, wenn dessen Entscheidung in Konflikt mit dem eignen biographisch erworbenen Gerechtigkeitssinn steht? Rawls Absicht die Gerechtigkeitsgrundsätze ein für alle Mal fest zu legen, stehen letztlich auch quer zu einer pluralistischen Gesellschaft in der Regeln durch kontinuierliches Aushandeln entstehen.

Eine Gerechtigkeit, wie sie Rawls konzeptioniert hat, steht immer im Konflikt mit der persönlichen Freiheit. Rawls Ansatz liegt bereits die Annahme zu Grunde, dass die Güter, die verteilt werden können, der Gesellschaft als Ganzes gehören und nicht der Einzelne frei über sie verfügen kann. Die Güterverteilung wird in Rawls Denken von den gesellschaftlichen Regeln bestimmt, die aus den Gerechtigkeitsgrundsätzen deduziert werden sollten. Sie entsteht nicht daraus das die Einzelnen in gegenseitigen Austausch treten, wie das eigentlich der Fall ist. Je mehr Spielraum der Einzelne hat, über seine Resoucen frei zu entscheiden, desto eher entsteht eine Güterverteilung, die nicht mit Rawls Vorstellung konform geht. Der Verlust an Freiheit wiegt umso schwerer, wie unklar ist worin der Schaden besteht, wenn Rawls Gerechtigkeitsvorstellungen nicht durchgesetzt werden. Die meisten Menschen dürften viel mehr am absoluten Lebenstandard als am relativen interessiert sein. Wenn ich für mich genug habe, was interessiert es mich noch, ob der reichste Mann der Stadt das Zehnfache oder das Hundertfache von meinem Güterstand hat? Gut ein Reicher hat mehr Macht, darum möchte ich Regeln haben, die die Ausübung von Macht generell beschränken unabhängig davon ob Reichtum die Quelle der Macht ist oder ob sie auf einer anderen Quelle beruht.

Insgesamt stehen wir also vor der unbefriedigenden Situation, dass Soziale Gerechtigkeit nur schwer zu fassen ist. Zwar spielt der Begriff in der Politischen Debatte eine große Rolle, jedoch lässt sich gar nicht objektiv sagen wann sie verwirklicht ist. Damit bleibt sein Gebrauch immer problematisch.

Die Suche nach den niedrig hängenden Früchten — Das deep value Depot

August 22, 2017

Vor wenigen Tagen rief Stefan von Stefansbörsenblog dazu auf die Renditen der deutschsprachigen Finanzblogger zusammenzutragen. Eine derartige Sammlung bietet sicher interessante Einblicke und da ich vor hatte über kurz oder lang meine Strategie als Ganzes vorzustellen, nutze ich die Gelegenheit und nehme gerne daran teil. Nicht zuletzt ist der vorgeschlagene Vergleichszeitraum nicht ganz unvorteilhaft für mich. Dazu später mehr.

Ziel der Blogparade „Wir machen uns alle nackig“ ist es die Rendite von interessierten Anlegern also vor allem Finanzbloggern und ihren Lesern vergleichbar zu machen. Um eine gemeinsame Basis für den Vergleich zu bieten schlägt Stefan vor den internen Zinsfuß als Berechnungsmethode zu verwenden und den Zeitraum vom 25. August 2015 bis 20.August 2017 zu betrachten.

Der Zeitraum ist mit etwa 2 Jahren zwar zu kurz um aussagekräftige Zahlen zu liefern, aber wenn wir das Vorgehen jedes Jahr wiederholen dürfte auf Dauer ein sehr interessantes Live-Experiment werden. Ernst zu nehmen sind auch Sorgen die im Kommentarstrang zum Aufruf laut wurden: Wenn man nur auf die selbst berichtet Zahlen vertraut, was hindert die Teilnehmer daran sich zu ihren Gunsten zu verrechnen? Oder etwas subtiler werden nicht vor allem diejenigen Auskünfte geben, die in dem gewählten Zeitraum besonders gut abgeschnitten haben? Man kann also auf einige Interessante Zahlen und einige aufschlussreiche Geschichten dazu hoffen, aber man sollte nicht den Fehler machen das Ergebnis für repräsentativ zu halten.

Bevor ich nun meine eigenen Zahlen besteuere möchte ich meine Anlagestrategie darlegen. Wenn man sein Vermögen gewinnbringend investieren möchte und bereit ist die nötige Zeit zu investieren, dann sollte man versuchen die höchste Rendite bei dem geringsten Risiko einzufahren. Ausgehend von diesen Grundgedanken habe ich vor fünf Jahren angefangen zu untersuchen welche Ansätze Aussicht auf Erfolg haben und welche weniger. Relativ schnell bin ich in der Value-Schiene gelandet, d.h. ich versuche bevorzugt in Aktien zu investieren, die in irgendeine Art billig sind. Durch Erfolg und Misserfolg hat sich dann auch mein Anlagestil weiterentwickelt und ich probiere gerne neue Ansätze aus. Andererseits hat es sich schnell gezeigt, dass es für mich am besten funktioniert solche Titel auszuwählen die eine starke Bilanz mit einer sehr niedrigen Bewertung kombinieren. Am liebesten sind mir daher Net-Nets.

Mein Investmentprozess sieht so aus, dass ich auf der Basis einer bestimmten Idee einen Aktienscreen konstruiere, dessen Parameter ich solange ändere bis ich auf etwa 40 Werte komme. Diese sehe mir der Reihe nach an, wobei ich die meisten Werte nach wenigen Sekunden verwerfe. Übersteht der Wert die erste Begutachtung, schaue ich mir den letzten Geschäftsbericht an, auf dessen Basis ich meine Investitionsentscheidung treffe. Im Erfolgsfall bleiben etwa ein bis zwei Werte bestehen in die ich investiere.

Leider wird es mit dem fortschreitenden Bullenmarkt immer schwerer niedrige bewertete Aktien zu finden. Daher weiche ich zunehmend auf andere Anlagestile aus. Wenn man sich vor Augen hält dass Qualitätsaktien ihre beste Performanz in Rezessionen haben und Value Aktien im jungen Bullenmarkt macht es vielleicht auch Sinn eine Strategie- bzw. Faktorrotation zu betreiben. Andererseits Deep Value ist niemals zu hoch bewertet, Deep Value stirbt im Bullenmarkt einfach aus.

Unabhängig von der inhaltlichen Aktienauswahl  habe ich mir einige formale Regeln zurecht gelegt:

  1. Um den Einfluss von Währungsschwankungen zu begrenzen und gleichzeitig eine möglichst gute Diversifikation zu erreichen strebe ich an um 40% meines Depots in nicht Euroländern zu investieren. Die Auswahl der Währungen erfolgt bottom-up. Das heißt ich investiere dort wo ich passende Aktien finde und stelle Makroöknomische Überlegungen in den Hintergrund.
  2. Ich investiere in 20 bis 25 Titel. Das ist für mich der beste Kompromiss aus Diversifikation und Zeitaufwand.
  3. Hat eine einzelne Aktie mehr als 10% Depotgewicht wird der Anteil reduziert. Das Gewicht mit der ich eine Position eröffne beträgt 5% oder weniger wenn nicht ausreichend Liquidität vorhanden ist. Ich strebe an, dass alle Positionen möglichst ähnliches Gewicht haben.
  4. Pro Monat sollte es etwa einen Verkauf und einen Kauf geben. Durch diese Weise versuche ich den Turn-Over zu begrenzen.
  5. Es wird angestrebt 10% des Depots in Cash zu halten.
  6. Finde ich Aktien mit attraktiver impliziten Volatilität schreibe ich ATM Puts die mit dem Bargeldbestand gedeckt sind.
  7. Ist die implizite Volatität generell niedrig investiere ich 2-4% des Depots in langlaufende ATM Calls.
  8. Es ist zulässig Aktien leerzuverkaufen.

Aber nun zu den Zahlen:

Depot am 31.08.2015:

Depot_30_07_2017

Depot 31.07.2017:

Depot_01_09_2015

Die Performanz in unterschiedlichen Zeiträumen:

Performanztabelle

Die Performanz für den jeweiligen Zeitraum entspricht dem internen Zinsfuß nach eigener Berechnung. Die Volatilität und Sharpe Ratio habe ich aus dem entsprechenden Report meines Brokers entnommen. Die Angaben zur Benchmark habe ich ebenfalls aus dem entsprechenden Report. Da die Performanz nach einer anderer Methode berechnet wird ist, die Performanz der Benchmark nicht mit dem internen Zinsfuß des Depots vergleichbar. Allerding zeigt der Vergleich die allgemeinen Tendenzen.

Neben dem Vergleichszeitraum und den Zeitraum seit Beginn meines Aktienengagements habe drei weitere Zeiträume ausgewertet, die durch unterschiedliche Strategien geprägt waren. Die Sturm und Drang Phase umfasst den Zeitraum in dem ich noch wenig Investmenterfahrung hatte. Typisch waren einfache KGV-Strategien und so landeten Werte wie EON und Commerzbank in meinem Depot. Was meine Performanz rettete waren kleine Werte wie KWG und Travel Viva. Da sich die Märkte in dieser Phase von dem Wiederaufflackern der Euro-Kreise 2011 erholten konnten sowohl der Gesamtmarkt als auch mein Depot hohe Zuwächse erzielen. Insgesamt spiegelte mein Depot die Performanz des Gesamtmarkts erstaunlich exakt wieder. Es gelang mir nicht mich positiv oder negativ gegenüber diesem abzusetzen.

Angeregt von den Erfahrungen aus meinen Anfänger Jahren versuchte ich in der darauffolgenden Phase an mich stärker vom Gesamtmarkt zu differenzieren und investierte verstärkt in Nebenwerte und probierte es mit verschiedene Optionsstrategien. Und damit fiel ich auf die Nase. In dem Zeitraum von 28.02.2014-31.10.2015 erlitt ich mit ALBEMARLE & BOND HOLDINGS und Mox Telekom zwei Insolvenzen, wodurch ich stark gegenüber meiner Benchmark zurückfiel. Ich sah mich gezwungen die Lehre aus meinen Erlebnissen zu ziehen und nach Wegen zu suchen das Risiko in meinem Depot zu reduzieren.

Mit den neuen Einsichten ausgestattet begann damit die dritte Phase, die vor allem dadurch geprägt ist, dass ich meinen Investments gegenüber deutlich anspruchsvoller geworden bin. Während mir in früheren Zeiten schon relativ oberflächliche Überlegungen ausgereicht haben, um ein Wert ins Depot zu legen, möchte ich heute ein genaueres Verständnis dafür haben, warum ein Titel nicht zu seinem Fairen Wert gehandelt wird. Es wäre sicher erfreulich, wenn ich die Performanz der letzten zwei Jahre halten könnte. Allerding hatte ich in dieser Zeit auch sehr viel Rückenwind erhalten. POLYTEC HOLDING AG legte eine Entwicklung hin mit der niemand rechnen konnte und den Aktionären von ZAPF CREATION AG wurde wenige Tagen nachdem ich eingestiegen bin ein Buy-Out angeboten, was zur Neubewertung dieses Titels führte und nur zwei günstige Begebenheiten zu nennen.

Ich hoffe dieser Abriss meiner Strategie und meiner Investmentbiographie konnte dem geneigtem Leser zu neuen Einsichten verhelfen oder zumindest eine gute Unterhaltung bieten.

Fundamentales Momentum

Juni 27, 2017

Wenn man versucht an den Aktienmärkten ein möglichst gutes Verhältnis aus Rendite und Risiko für sich zu gewinnen, kommt nicht darum sich mit den Verschiedenen Marktanomalien zu beschäftigen. Neben der Value-Anomalie gehört die Momentum-Anomalie zu den wichtigsten Marktanomalien. Momentum bezeichnet das Phänomen, dass Aktien die in einem bestimmten Zeitraum gut abgeschnitten haben auch im folgenden Zeitraum überdurchschnittlich gut abschneiden. Eine gute Einführung zu dem Thema Momentum hat Ferhat auf Weniger Schlecht Investieren in einer Artikelserie verfasst. In diesem Artikel möchte ich über die Ursachen von Momentum spekulieren.

Eines der spannendsten Ergebnisse zu dem Thema war, dass es sehr stark auf die betrachtete Zeitskala ankommt, ob sich Momentum ergibt. Betrachtet man die Aktien die in den vergangen 12 Monaten gut abgeschnitten haben, sieht man dass sie in der folgenden Zeit besser abschneiden als der Gesamtmarkt. Beobachtet man jedoch nur eine Periode von einem Monat schneiden die besseren Aktien schlechter ab. Auch bei einer Periode von 5 Jahren schneiden die besten Aktien schlechter ab als der Gesamtmarkt. Auf kurzen oder sehr langen Zeitskalen überwiegt also das Gegenteil von Momentum, das Reversal.

Momentum wird klassischer Weise damit erklärt, dass Anleger dazu tendieren neue Informationen nicht genügend berücksichtigen. Wenn ein Unternehmen gute Zahlen liefert, wird das zwar durch steigenden Aktienkursen honoriert, jedoch nicht in dem Maß wie das eigentlich der Fall sein müsste. In der Folge steigt der Kurs noch weiter, wenn im weiteren Verlauf die Unterbewertung aufgedeckt wird, die sich durch die nicht genügend berücksichtigten Informationen ergeben hat. Auf einen steigenden Kurs folgt also ein noch weiter steigender Kurs — Momentum.

Es ist auf dem ersten Blick nicht plausibel, warum Anleger auf diese Weise Reagieren sollten, also Informationen systematisch zu unterschätzen. Am ehesten liefert der Anker-Effekt eine Erklärung. Der frühere Kurs wäre demnach für viele Anleger ein Bezugspunkt für den fairen Wert der Aktie, der neue Kurs erscheint ihnen ungerechtfertigt und in der Folge erwarten sie das der Kurs dahin zurückkehrt wo er früher stand. Es ist jedoch nicht klar warum dieser Fehler, der zweifellos oft gemacht wird, nicht von besser informierten Anlegern ausgeglichen wird, wenn doch die dazu notwendigen Informationen öffentlich sind.

Meine Überlegung geht daher in eine andere Richtung. Kann es sein, dass das Gewicht von Neuigkeiten unterschätzt wird, weil die Neuigkeiten etwas implizieren, das über ihren face value hinausgeht. Dass sich in ihnen Entwicklungen niederschlagen, die sich noch nicht voll entfaltet haben und daher noch an Kraft gewinnen und die Dinge weiter in die eingeschlagene Richtung beeinflussen also Fundamentales Momentum bewirken.

Nehmen wir als Beispiel einen typischen Branchenzyklus, wie den Schiffsmarkt. Die Rate die ein Schiff verdienen kann hängt im Wesentlichen von dem Verhältnis zwischen Angebot und Nachfrage ab. Wenn es im Vergleich zur Nachfrage viele Schiffe gibt, sind die Raten niedrig, sind es wenige hoch. Nun braucht es ein bis zwei Jahre bevor neu bestellt Schiffe vom Stapel laufen. Gleichzeitig werden die Entscheidungsträger ihre Bestellungen an ähnlichen Überlegungen festmachen, so dass Bestellungen gehäuft auftreten. Dadurch kann sich Fundamentales Momentum bilden. Nehmen wir an wir befinden uns am Ende einer Hochphase: Die Raten sind noch relativ hoch, aber es befinden sich bereit viele Schiffe im Bau. Wenn die ersten Neubauten auf den Markt drängen, bewirkt die bereits Druck auf die Raten, die anfangen zu sinken. Die Ursache für die sinkenden Raten, der steigende Bestand an Schiffen, hat jedoch noch nicht voll durchgeschlagen, dass Groß der Neubauten kommt erst in den folgenden Monaten, wodurch die Raten erst mit Verzögerung ihr eigentliches Tief erreichen. Auf sinkende Raten folgen also sinkende Raten — fundamentales Momentum.

Die Schifffahrt ist insofern ein schlechtes Beispiel, das hier alle Informationen öffentlich zugänglich sind. Jedoch können wirkt sich das Prinzip fundamentalen Momentums auch oder sogar vor allem dann aus, wenn sich die zugrundeliegenden Entwicklungen nicht öffentlich abspielen. Das Momentum besonders klar auf Zeitskalen von einem Jahr auftritt, würde ich darauf zurückführen, dass dieser Zeitraum gerade mit der Zeitskala übereinstimmt auf der auch die typischen Fundamentalen Entwicklungen ablaufen.

Fundamentales Momentum wurde relativ kürzlich auch von der akademischen Finanzforschung entdeckt. Robert Novy-Marx untersuchte wie sich Preis Momentum und fundamentales Momentum zueinander verhalten. Er kam zu dem Ergebnis, dass Preis Momentum vollständig durch fundamentales Momentum erklären lässt. Strategien die auf fundamentales Momentum setzten profitieren sogar davon Preis Momentum zu vermeiden, auf diese Weise lassen sich die Volatilität senken und starke Einbrüche abmildern.

Wir haben also gesehen, dass es Gründe gibt anzunehmen, dass sich bestehende Trends in den Fundamentaldaten eines Unternehmens fortsetzten. Auch weißen erste wissenschaftliche Untersuchungen darauf hin, dass man eine Überrendite erzielen kann, indem man auf das Fortbestehen fundamentaler Trends setzt. Es macht also Sinn sich um ein Verständnis der fundamentalen Trends zu bemühen, wenn man sich starken Preisbewegungen ausgesetzt sieht. Auf diese Weise sollte man der Versuchung wiederstehen blind auf eine Gegenbewegung zu hoffen. Nach dem der Öl-Preis von 100 Dollar auf 70 Dollar abgestürzt sind, haben viele meiner Bekannten dies nicht beachtet und auf steigende Ölpreise gesetzt.

Rationalität und Empathie

Juni 15, 2017

Rationalität hat mit unter einen äußerst schlechten Ruf. Mit ihr werden Kaltherzigkeit und fehlendes Einfühlungsvermögen assoziiert. Im Folgenden werde ich der Frage nachgehen auf welche Weise sich Rationalität und Empathie wirklich beeinflussen.

Rationalität ist das Charakteristikum einer Person, die ihr Denken und Handeln an nachvollziehbaren und faktenbasierten Kriterien ausrichtet. Abhängig von dem Bereich über den gedacht oder in dem gehandelt wird, kann Rationalität Unterschiedliches bedeuten. Wichtig ist etwa die Zweckrationalität. Die ist verwirklicht, wenn die verwendeten Mittel dazu geeignet und angemessen sind, ein gefasstes Ziel zu erreichen. Zweckrationalität bedient sich insbesondere den Kenntnissen über Ursache-Wirkungs-Zusammenhänge. Eine andere Form von Rationalität ist z.B. die Fähigkeit, Überzeugungen in sich schlüssig und für andere nachvollziehbar zu entwickeln.

Empathie bezeichnet ein Spektrum von Fähigkeiten, die einem helfen sich in andere Menschen hineinzuversetzen. Man unterscheidet zwischen der emotionalen und der kognitiven Empathie. Emotionale Empathie lässt einen das gleiche empfinden, wie ein anderer, umfasst also Mitleiden und Mitfreuen. Kognitive Empathie ist die Fähigkeit Vermutungen darüber anzustellen, was andere Denken, Fühlen oder Wissen. Ein Standardbeispiel für Kognitive Empathie sind „False-Belief“-Aufgaben. Z.B. wird einem Kind in Anwesenheit einer Person, nennen wir sie A, gezeigt, dass ein Gegenstand in einer ersten Box liegt. Dann Verlässt A den Raum und der Gegenstand wird von der Box in eine andere gelegt. Ist die kognitive Empathie des Kindes weitgenug entwickelt, weiß es, dass A den Gegenstand immer noch in der ersten Box vermutet.

Studien zu der Frage, wie sich Rationalität und Empathie gegenseitig beeinflussen, kommen tatsächlich zu dem Ergebnis, das Menschen nicht gleichzeitig emphatisch und analytisch handeln können. Es hat sich gezeigt, dass wenn Menschen mit Aufgaben beschäftig sind, die analytisches Nachdenken erfordert, der Teil des Gehirns gehemmt wird, der mit Empathie im Zusammenhang steht und umgekehrt. Darüber hinaus wurde festgestellt, dass bei Menschen je nachdem ob sie bevorzugt emotionale Empathie oder kognitive Empathie verwenden, unterschiedliche Regionen im Gehirn stärker ausgeprägt sind. Dieses Ergebnis legt nahe, dass die Fähigkeit zu den Unterschiedlichen Arten von Empathie davon abhängt wie stark wir sie verwenden. Also auch die Gefahr besteht, dass diese Fähigkeiten abnehmen, wenn sie nicht oft genug verwendet werden.

Andererseits zeigt sich jedoch auch, dass Empathie von analytischen Fähigkeiten Profitieren kann. Menschen, die eher bereit sind ihren ersten Eindruck zu hinterfragen, schneiden besser dabei ab, die Emotionen anderer zu erfassen.

Meines Erachtens passen die Ergebnisse dieser Studien gut zu dem Alltagsempfinden. Menschen tendieren sehr stark dazu entweder einen emotionalen oder einen rationalen Zugang zu Welt zu haben. Andererseits gehen Defizite im analytischen Denken oft mit Schwierigkeiten einher sich in andere Menschen hineinversetzten zu können.

Um unser Leben bewältigen zu können benötigen wie sowohl gutes rationales Denken als auch gutes Einfühlungsvermögen. Da sich Rationalität und Empathie gegenseitig behindern können ist es wichtig sich bewusst zu sein, wann welche Fähigkeiten benötigt werden und der Neigungen entgegenzuarbeiten, sich nur auf ein bestimmtes Skill-Set zu verlassen. Menschen mit einem bevorzugt rationalen Zugang zur Welt würden stark davon profitieren sich mehr darum zu bemühen, was in anderen vorgeht und Menschen mit einen bevorzugt emotionalen davon ihre Intuition häufiger zu hinterfragen. Auf diese Weise kann man zu einer vollständigen Sicht auf die Welt kommen.

Entnahmestrategien

April 25, 2017

Was heißt es eigentlich für seine finanzielle Strategie, wenn man nach Jahren des Sparens seine finanziellen Ziele erreicht hat, also über genügend Vermögen zu besitzen um daraus ein passives Einkommen in gewünschter Höhe zu erzielen? Eines ist sicher die Anlageziele ändern sich. War es in der Ansparphase am wichtigsten eine hohe Rendite zu erzielen, steht nun der Kapitalerhalt und regelmäßiges Einkommen im Vordergrund. Das kann nicht ohne Auswirkungen auf den Anlagemix bleiben. Dazu einige Denkanstöße.

In der Ansparphase konnte es einen relativ egal sein, wie sehr der Wert des Vermögens schwankt. In diesem Zeitraum hat man die Mittel um Schwächephasen auszusitzen, was Aktien zum idealen Anlagevehikel macht. Diese haben perspektivisch eine hohe Rendite, aber man weiß nicht über welchen Zeitraum sich diese realisiert. Die Märkte können über Jahre seitwärts verlaufen oder sinken. Da man in der Ansparphase nicht auf das Vermögen angewiesen ist, trifft einen dieser Nachteil weniger.

In der Entnahmephase gilt das nicht mehr. Da man laufend Geld aus seinem Vermögen entnimmt, würde eine Phase ohne Gewinne dieses dezimieren. Andererseits ist man auch nicht mehr auf hohe Renditen angewiesen. In anderen Worten, es ist wichtiger, dass man mit hoher Wahrscheinlichkeit eine bestimmte Mindestrendite erzielt, als dass man die Change auf eine deutlich höhere Rendite behält. Es bietet sich anscheinend an von Aktien in andere Anlagen umzuschichten.

Der klassische Weg wäre in der Entnahmephase von Aktien in festverzinsliche Wertpapiere umzuschichten. Diese haben zwar den Vorteil ein verlässliches Einkommen zu bieten, aber in Zeiten der finanziellen Repression bräuchte man ein gigantisches Vermögen, um mit festverzinslichen Wertpapieren ein ausreichendes Einkommen zu erreichen. Weicht man in Anleihen in Fremdwährungen aus, riskiert man durch eine Aufwertung der Heimatwährung massive Einbußen hinnehmen zu müssen. Hinzu kommt, dass festverzinsliche Wertpapiere stärker von Inflation betroffen sind und daher auf der Sicht von Jahrzehnten ähnlich riskant wie Aktien sind.

Ein ähnlicher Weg, wie festverzinsliche Wertpapiere stellt die Investition in Immobilien dar. Sie bieten etwas höher Renditen als festverzinsliche Anlagen und schützen besser vor Inflation. Stellen sie also das ideale Anlagevehikel in der Entnahmephase dar? Leider nicht, denn Immobilien haben als Anlageobjekt eine unhandliche Größe. Selbst wenn man ein großes Vermögen hat, wird man nicht mehr als eine Hand voll Objekte besitzen. Will man besser diversifizieren ist man gezwungen die Objekte zu beleihen. Aber auch dann wird man in Immobilien in seiner näheren Umgebung investieren, so dass man davon abhängt wie sich in der eigenen Region die Mieten entwickeln. Mit Immobilien ist man unterdiversifizieren, der eigene Anlageerfolg hängt nur wenig mit dem Anlageerfolg des durchschnittlichen Immobileninvestors zusammen.

Sind am Ende Aktien verhältnismäßig doch nicht so schlecht? Zwar ist es schwer vorherzusagen, wie sich die Märkte entwickeln, dennoch gibt es Strategien die darauf abzielen aus einem Aktiendepot ein regelmäßiges Einkommen zu beziehen. Am einfachsten nachzuvollziehen ist die Dividendenstrategie. Hier geht man davon aus, dass die Mittel, die die Unternehmen ausschütten, dem entsprechen was man konservativ geschätzt verkonsumieren darf ohne das Vermögen anzugreifen. So plausibel wie das zunächst klingen mag, der Dividendenstrategie zu folgen, heißt nichts anderes als sein finanzielles Wohlergehen von der Kompetenz und Integrität anderer abhängig zu machen.

In den heutigen Tagen ist Dividendenrendite so hoch begehrt, dass es den Managern möglich ist die Aktienkurse nach oben zu treiben in dem sie einfach höhere Dividenden ausschütten. Mitunter wird daher die Dividende auf ein Niveau gehoben, das nicht nachhaltig ist, wie die Aktionäre Stonemores schmerzhaft erfahren mussten. Gibt man sich nur mit der durchschnittlichen Dividende aller Aktien zufrieden kann man nur mit 2-3% rechnen. Wenn man nicht bevorzugt auf dividendenstarke Aktien setzt, braucht mal also nach mit der Dividendenstrategie deutlich mehr Vermögen als mit einer Strategie, die die gesamte Ertragskraft des Aktienvermögens berücksichtigt.

Eine weiter Strategie, die sich großer Beliebtheit erfreut ist die 4%-Regel. Hier wird am Beginn der Auszahlungsphase der Betrag bestimmt, der 4% des Vermögens entspricht. Dieser Betrag wird dann Jahr für Jahr dem Vermögen entnommen. Der einmal gewählte Betrag ist fix und wird nicht den Schwenkungen des Vermögens angepasst. Die 4%-Regel geht auf eine Studie zurück, die den höchsten Betrag bestimmt hat, den man jährlich einem Depot entnehmen kann ohne in den folgenden 30 Jahren das Depot aufbrauchen. Es wurde von einem Depot ausgegangen, dass hälftig aus Aktien und Anleihen besteht. Untersucht wurden alle 30 Jahresperioden von 1925 und 1995. Die Autoren kamen zu dem Ergebnis, dass eben jene 4% ausreichend niedrig sind.

Das größte Problem der 4%-Regel ist, dass sie sich allein aus den Entwicklungen in der Vergangenheit ableitet. Die Welt von heute unterscheidet sich in einigen Punkten von der die wir zwischen 1925 und 1995 kennengelernt haben. Festverzinsliche Wertpapiere werfen keine Rendite mehr ab und Aktien sind relativ hoch bewertet. Es ist also fraglich ob ein Anteil von 50% festverzinslicher Wertpapiere sonderlich viel Sinn macht und ob man überhaupt noch mit 4% realer Rendite rechnen kann.

Will man auch in der Entnahmephase an Aktien festhalten, ist man also gezwungen die Entnahmerate dynamisch an die zu erwartende Rendite anzupassen. Dazu muss man sich eine Vorstellung bilden welche Ertrag man konservativ von Aktien langfristig erwartet. Diesen Betrag bereinigt um die Inflation und abzüglich eines Sicherheitspuffers entnimmt man nun den Aktiendepot. Jedes Jahr passt man den Betrag erneut an. Der Betrag wird typischerweise schwanken, sodass man gezwungen ist seinen Konsum entsprechend anzupassen. Die Schwankungen werden jedoch weniger heftig ausfallen, als die Schwankungen des Gesamtmarkts. Denn diese sind vor allem darauf zurückzuführen sind, dass sich die Einschätzung ändert wie hoch ein bestimmter Gewinn bewertet werden sollte, wie hoch das angemessene KGV oder eine vergleichbare Kennzahl ist. Andererseits wird der Ertrag in einer Rezession stark einbrechen, sodass man auf eine Reserve in schwankungsarmen Anlagen angewiesen ist, um Schwächephasen zu überstehen.

Eine weitere Möglichkeit den Ertrag von Aktien zu glätten bieten Optionen. Optionen sind dazu gemacht Chancen und Risiken neu zu verteilen. In der Entnahmephase kann man prinzipiell zum großen Teil auf die Chancen verzichten. Hier die Erwartungen um 20% zu schlagen ist zwar angenehm, viel wichtiger ist hingegen dass man nicht zu sehr hinter den Erwartungen zurückliegt. Optionen erlauben es seine Chancen gegen regelmäßige Einkommen zu tauschen, die entsprechende Strategie ist der Verkauf von Call-Optionen. Anderseits ist es auch möglich sich durch den Erwerb von Put-Optionen sich gegen starke Einbrüche Abzusichern. Kombiniert man beide Vorgehensweisen ergeben sich sogenannte „Collar“-Stategien. Die Nachteile, Optionen zur Glättung der Erträge zu verwenden, liegen in dem hohen Zeitaufwand, der damit verbunden ist und die Unsicherheit, ob und wieweit die langfristigen Erträge damit geschmälert werden.

Wie unser kurzer Abriss der unterschiedlichen Instrumente und Strategien gezeigt hat, ist die Aufgabe Vermögen in regelmäßiges Einkommen zu verwandeln alles andere als trivial. In Zeiten der finanziellen Repression ist es nicht mehr möglich eine einfache Regel ohne Nachdenken zu befolgen und damit sicher über die Runden zu kommen. Gerade die Instrumente die am ehesten Erfolg verheißen — Imobilien, Aktien und Optionen — setzten solide Kenntnisse der Materie voraus, die man sich schon beim Aufbau des Vermögens aneignen muss. Wie zehren in der Entnahmephase nicht nur von unserem Kapital, sondern auch von den Wissen, das wir uns in der Aufbauphase angeeignet haben.

Nobel Design Holding — Zu schön um wahr zu sein?

Februar 23, 2017

Wenn etwas zu schön ist um wahr zu sein, dann ist es in der Regel auch nicht wahr. Hobel Design Holding wirkt auf den ersten Blick wie ein Net-Net mit einem ROE von über 10%, und stellt damit ziemlich genau die perfekte Aktie dar. Was genau kommt zum Vorschein wenn man bei Nobel Design Holding etwas tiefer unter die Oberfläche bohrt?

Nobel Design Holding ist ein in Singapur angesiedelter Konzern der überwiegen Mobiliar vertreiben. Darüber hinaus bestehen Beteiligungen an Unternehmen für Immobilienentwicklung. Die Umsätze werden zu 60% in den USA erzielt, an zweiter Stelle folgt Singapur mit 36%, ein geringer Teil der Umsätze stammen aus Malaysia und Brunei. Über die verschiedenen Tochterfirmen werden unterschiedliche Kundenkreise angesprochen. Das bedeutende USA-Geschäft besteht jedoch allein in der Belieferung anderer Ketten (B2B). Eine Börsennotierung besteht seit 1996.

Das Unternehmen in Zahlen:

ISIN SG1D60018406
Aktienanzahl 216 954 000
Marktkapitalisierung 93.290 M SGD
Webseite http://www.nobel.com.sg/index.php
Aktueller Kurs 0.43 SGD
Unternehmensgewinn (letzte 12 Monate) 21.77 M SGD
Eigenkapital 30.09.16 156,158 M SGD

 

Das Geschäftsmodel lässt auf dem ersten Blick nicht erahnen, warum die doch recht ansehnlichen Eigenkapitalrenditen von über 10% erreicht werden können. Das Hauptgeschäft spielt sich in einen stark fragmentierten Markt mit wenigen Differenzierungsmöglichkeiten ab. Sieht man sich den Geschäftsbericht genauer an stellt man dann auch tatsächlich fest, dass das konsolidierte Geschäft kaum profitabel ist. 2015 entfielen zwei Drittel des Gewinns auf nicht kondolierte Joint Ventures, also auf die Immobilienprojekte. Für das eigentliche Kerngeschäft muss man noch weitere Abzüge machen, so dass es sich für 2015 so darstellt:

Unternehmensgewinn (2015) 18.294 M SGD
Anteil an Gewinnen von Joint Ventures 12.268 M SGD
Zinseinkommen 1.343 M SGD
Mieteinkommen 3.729 M SGD
Auflösung Rechnungsabgrenzungen 3.25 M SGD
Gewinn im Kerngeschäft -2.296 M SGD

 

Wie man sieht ist das eigentliche Kerngeschäft defizitär. Dennoch gelang es dem Unternehmen einen großen Berg an Cash anzuhäufen. Dies lag fast ausschließlich an dem sehr profitablen Projektgeschäft, das mittlerweile in den Joint Ventures organisiert ist. Leider ist kaum abzusehen, wie lange der warme Geldregen aus dem Projektgeschäft noch anhalten wird. Im Bericht zum Dritten Quartal 2016 berichtet die Geschäftsleitung davon, dass die meisten Projekte am Ende ihres Zyklus angekommen sind, darüber hinaus hat ein wichtiger Mieter gekündigt, so dass in naher Zukunft der Großteil der oben aufgeführten Miteinkommen ebenfalls wegfallen wird. Die Geschäftsführung rechnet für das vierte Quartal 2016 mit einem Verlust.

Ich gehe davon aus das das Kerngeschäft weiterhin defizitär bleibt, da meines Erachtens die wichtigste Ursache für die niedrigen Erträge, in der komplexen Konzernstruktur mit zahlreichen Tochtergesellschaften besteht. So besteht das bord of directors aus 16 Mitgliedern, von denen elf Mitglieder Managementaufgaben wahrnehmen. (Die anderen üben Aufsichtsfunktionen aus.) Da die schwache Ertragslage durch Erträge aus Nebenaktivitäten ausgeglichen wird, sehe ich hier auch keinen großen Handlungsdruck Verbesserungen zu erreichen. Ein Lichtblick ist das Geschäft in den USA. Hier werden hohe Eigenkapitalrenditen, bei hohen Wachstum erzielt. Da ich jedoch auch hier keine dauerhaften Wettbewerbsvorteile sehe, gehe ich davon aus, dass sich auch hier die Profitabilität langfristig zurückgeht.

Ein weiterer Negativpunkt ist die Entwicklung der Aktienanzahl. Diese ist von 165.101 Millionen 2009 auf 212.722 Millionen 2015 gestiegen. Meine erste Befürchtung, dass sich hier das Management auf Kosten der Aktionäre bereichert hat sich zum Glück nicht bestätigt. Zwar spielt ein Aktienoptionsprogramm auch eine Rolle. Der Großteil der neuen Aktien stammt jedoch aus Optionsscheinen, die 2011 herausgegeben und 2013 und 2014 gewandelt wurden. Das Projektgeschäft war in dieser Zeit so erfolgreich, dass trotz des starken Anstiegs der Aktienzahl, der Buchwert je Aktie von 0.17 SGD 2009 auf 0.69 SGD 2015 angestiegen ist. Der Anteil des Cashbergs an der Bilanz hat sich hierbei stark erhöht.

Die Aktionärsstruktur nehme ich mit gemischten Gefühlen war. Der COO (geschäftsführende Direktor) Wee Ai Quey hält 11.12% der Aktien. Das ist genug, um die Interessen des Managements mit denen der übrigen Aktionäre in Einklang zu bringen, aber zunächst zu wenige als das der Direktor Sonderinteressen durchsetzen könnte. Weitere wichtige Aktionäre sind Chee Peng Choong mit 23.73% einer der Gründer und langjähriger Geschäftsführer, Goon Eu Jin Terence mit 10.8% der CEO (Vorsitzende der Geschäftsleitung) und Kho Chuan Thye der erste Externe mit der höchsten Beteiligung mit 9.58%. Insgesamt können also drei Insider die Gesellschaft kontrollieren, was problematisch sein kann. Die Beteiligung der Geschäftsführer ist an sich angemessen und das einer der Gründer noch einen hohen Anteil hält ist an sich ebenfalls positiv zu bewerten.

Zur Bewertung des Unternehmens wähle ich den Ansatz den Wert der operativ nicht notwendigen Anlagegüter und den Wert des Operativen Geschäfts zusammen zu addieren und die Langfristigen Schulden und ggf. negative Working Capital vom Wert abzuziehen. Die Bewertung bezieht sich auf die Zahlen zum 30. September 2016. Operativ nicht notwendig ist der Cashberg von 103.164 Millionen SGD (nur die Bankanlagen mit Fälligkeit länger 3 Monate) und die Beteiligungen an den Joint Ventures mit 38.936 Millionen SGD. Einen Ertragswert weise ich den Joint Ventures nicht zu, da ich davon ausgehe das die Projekte weitestgehend durch sind und die Erträge bald wegfallen werden. Die langfristigen Schulden betragen gerade einmal 2.252 Millionen SGD und das Working Capital abzüglich Cashberg ist positiv. Das operative Geschäft bewerte ich mit Null, da es defizitär ist und ich nicht erwarte, dass sich das in naher Zukunft ändern wird.

Cashberg 103.164 M SGD
Joint Ventures 38.936 M SGD
Operatives Geschäft 0 SGD
Working Capital (ohne Cashberg und Vorräte) 0 SGD
Schulden -2.252 M SGD
Minderheiten -4.990 M SGD
Bewertung 134.858 781 M SGD
Markkapitalisierung 86.781 M SGD

 

Quellen: http://quicktake.morningstar.com/StockNet/SECDocuments.aspx?Symbol=547&Country=sgp

Läuft der Ausbau der Erneuerbaren Energien vor die Wand?

Januar 19, 2017

Der Anteil der Erneuerbaren Energien der Erzeugung elektrischer Energie hat mittlerweile 32% erreicht. Bis 2020 sollen 35% erreicht werden. Heißt dass das die Energiewende erfolgreich verläuft? Nicht unbedingt. Denn es ist abzusehen, dass der weitere Ausbau auf massive technische Hindernisse stößt.

Die Problematik ergibt sich aus der sehr ungleichmäßigen Energiebereitstellung durch erneuerbare Energien. Erneuerbare Energien wie Windkraft und Photovoltaik liefern bezogen auf ihre Spitzenleistung nur verhältnismäßig wenig Energie. Dieser Sachverhalt wird am besten durch den Nutzungsgrad festgestellt, dem Verhältnis aus Vollaststunden zur Betriebszeit. Vollaststunden sind der Zeitraum in Stunden die eine Anlage unter Volllast laufen müsste, um die gleiche Arbeit umzusetzen die sie im betrachteten Zeitraum tatsächlich umgesetzt hat. Der Nutzungsgrad von Windenergie liegt bei 18,8%, der von Photovoltaikanlagen bei 12,6% zum Vergleich Kernkraftwerke erreichen einen Nutzungsgrad von 88% und selbst Gaskraftwerke einen von 36,2% (Quelle). Der niedrige Nutzungsgrad für zu Problemen, da der Zeitraum in dem die Leistungsabgabe erfolgt nicht kontrolliert werden kann.

Wenn man z.B. 30% des Stromverbrauchs durch Windkraft abdecken will entspricht das im Mittel etwa 20 GW. Bei einem Nutzungsgrad von 20% würde man eine Nennleistung von 100 GW Windkraft benötigen. Da die Leistungsabgabe von Windkraftanlagen untereinander stark korreliert sind, erreicht an windstarken Tagen die gesamte Leistungsabgabe von Windkraftanlagen einen relativ hohen Anteil an der Nennleistung aller Windkraftanlagen. In der Folge übersteigt die Energiebereitstellung aus Windkraft immer öfters die Energienachfrage. Mit wachsendem Anteil erneuerbaren Energien wächst daher der der Anteil an Energie für die kein Abnehmer gefunden wird. Analog gilt das auch für die Photovoltaik.

windkraft

Die überschüssige Energie führt zu negativen Strompreisen, d.h. sie ist nicht nur wertlos, bei ihrer Entsorgung fallen darüber hinaus auch noch zusätzliche Kosten an. Wie wirtschaftlich eine Windkraftanlage ist, hängt also nicht alleine von den Merkmalen der Anlage selbst ab, sondern auch davon wie viele andere Windkraftanlagen am Netz angeschlossen sind.

Ein häufiger Einwand gegen diese Argumentation ist, dass es doch möglich sei die überschüssige Energie zu speichern. Dies scheitert jedoch an den eigenen Schwierigkeiten eines solchen Unterfangens. Die Probleme fangen damit an, dass nicht genügend Speicher zur Verfügung stehen. Die effizienteste Form der Speicherung wären Pumpspeicherkraftwerke mit Kosten von 3 bis 5 Cent/kWh und Tag. In Deutschland bestehen Speicherkapazitäten von 40 GWh und Leistungen von 7 Gw. Für den weiteren Ausbau fehlt es an geeigneten Standorten. Auch Druckluftspeicher werden höchsten regionale Bedeutung erlangen. Es bleibt die Umwandlung der überschüssigen Energie in Wasserstoff und dann zwecks Speicherung in Methan. Diese Alternative wird unter dem Stichwort Power-to-Gas (PtG) diskutiert. PtG hat jedoch einen Gesamtwirkungsgrad von nur 35%, auf die Art gespeicherte Energie wäre also allein schon ohne Berücksichtigung der Abschreibung auf die PtG-Anlagen dreimal so teuer wie die ohnehin schon teure Windenergie.

Hinzu kommt, dass Speicher nicht mehr wirtschaftlich sind. Genau wie Spitzenlastkraftwerke lohnen sie sich nur wenn an den Strombörsen hohe Preise zu erzielen sind. Da die erneuerbaren Energien diese Zeiten reduzieren, lassen sich Pumpspeicherkraftwerke nicht mehr wirtschaftlich betreiben.

Insgesamt zeigt sich das der Ausbau der Erneuerbaren Energien um so teuer wird, je weiter der Ausbau voranschreitet. Wir haben den Punkt erreicht ab dem die Kosten für die Abregelung der Anlagen und der Entsorgung der überschüssigen Energie zunehmend relevant werden. Technologien um diese Probleme zu beheben stehen kurzfristig nicht zur Verfügung und es ist nicht absehbar, dass diese auch nur halbwegs wirtschaftlich angewendet werden können. Ich rechne daher mittelfristig mit weiteren Reformen des Erneuerbare-Energien-Gesetz, die den weiteren Ausbau verlangsamen und schließlich ganz stoppen.

Einzelaktien oder ETFs?

Januar 12, 2017

Durch die Finanzblogger-Scene läuft ein Bruch. Das Verhältnis der beiden Seiten ist teils durch Koexistenz teils durch feindliche Ablehnung geprägt. Die Rede ist von der Spaltung zwischen passiven und aktiven Investoren. Als Anleger steht man vor der Entscheidung welchen Anlagestil man verfolgen sollte.

Passive Anleger gehen davon aus, dass sie nicht die Fähigkeit haben durch eine geschickte Auswahl von Aktien oder anderen Techniken wie Markttiming eine überdurchschnittliche Rendite zu erzielen. Ihr Ziel ist es daher, der Rendite des Gesamtmarkts möglichst nahe zu kommen und dabei nicht mehr Risiko einzugehen als notwendig. Ihr bevorzugtes Anlagevehikel sind daher ETFs, also börsengehandelte Indexfonds.

Eine andere Variante dieses Anlagestils sieht es vor, zwar in Einzelaktien zu investieren, aber in der Ansparphase nie Aktien zu verkaufen. Typischerweise wird ein Investor mit dieser Variante keine Zufallsauswahl treffen, sondern in Aktien investieren, deren Chancen-Risiko-Verhältnis er für überdurchschnittliche hält. Beliebt sind etwas Blue-Chips und Dividendenaktien. Mit dieser Auswahl befindet sich der Investor schon auf halben Weg im Lager der aktiven Anleger.

Aktive Anleger glauben, dass sie sie entweder höhere Renditen als der Gesamtmarkt einfahren oder sich für ihr Portfolio ein günstigeres Verhältnis aus Chancen und Risiko ergibt. Anleger die von ihren Fähigkeiten besonders überzeugt sind, werden versuchen ihre Rendite durch Kredithebel oder Derivate wie Optionen zusätzlich zu steigern. Die Entscheidung zwischen aktivem oder passivem Investieren ist also keine rein binäre Entscheidung, es gibt vielmehr ein Spektrum von Anlagestilen, die in unterschiedlichen Maß aktiv sind. Diejenigen die meinen der reinen Lehre der finanzwissenschaftlichen Orthodoxie folgen zu müssen, kommen jedoch um eine reine ETF-Strategie nicht herum.

Für die ETF-Anhänger sprechen zwei Argumente, die im Zusammenspiel die ETF-Strategie als zwingend erscheinen lassen. Zum einen ist das das Argument der effizienten Märkte, zum anderen der Effekt der Diversifikation. Das Argument der effizienten Märkte besagt, im Kurs von Anlagegegenständen bereits alle relevanten Informationen eingepreist sind. In der Folge haben alle Anlagegegenstände die gleiche risikobereinigte Renditeerwartung. Dass die Renditeerwartung für alle Aktien gleich ist besagt nicht, dass der Anlageerfolge bei allen Aktien derselbe ist. Jede Aktie ist mit einem ihr eigentümlichem Risiko behaftet. Je nachdem in welcher Form sich dieses Risiko materialisiert fällt das Ergebnis für jede Aktie sehr unterschiedlich aus. Dem Argument der effizienten Märkte zufolge lässt sich dieses Risiko nicht besser einschätzen als es sich bereits im Preis  der Aktie wiederspiegelt. Was sich jedoch erreichen lässt ist, dass sich die eigentümlichen Risiken der unterschiedlichen Aktien verringern indem man von jeder einzelnen Aktie nur sehr wenig hält, das ist der Effekt der Diversifikation.

Ein großer Vorteil der ETF-Strategie ist, dass dadurch sehr einfach eine hohe Diversifikation erreicht werden kann. Hält man nur eine Aktie muss man von einer jährlichen Standardabweichung von knapp 50% des Vermögens ausgehen. Je mehr Aktien man hält umso kleiner fallen die Schwenkungen aus. Hält man den gesamten Markt kann man mit einer Standardabweichung von nur knapp 20% rechnen. Hält man nur 20 oder 30 Aktien hat man eine um ein bis zwei Prozentpunkte höhere Standardabweichung. (Quelle)

Die Annahme von effizienten Märkten hat den Nachteil, dass sie sich nicht belegen lässt. Eine Studie, die die Markteffizienzhypothese testen will, kann nur einzelne Strategien auf eine Überrendite hin untersuchen. Sie kann nie ausschließen, dass es nicht doch eine Strategie gibt, die funktioniert. Hinzukommt, dass sich viele Entscheidungen im Investitionsprozess sich nicht auf eine formale Strategie abbilden lassen, der menschliche Faktor sozusagen unberücksichtigt bleibt.

Schließlich gibt es viele empirische Ergebnisse, die der Markteffizienzhypothese wiedersprechen, d.h. es gibt Strategien, die so einfach sind, dass sie sich formalisieren lassen, die dennoch den Markt schlagen. Die Finanzmarktforschung nennt solche Strategien häufig Faktoren so wurde der Value, Small Cap und Momentum-Faktor entdeckt. Die finanzakademische Orthodoxie verteidigt sich gegen diese Anomalien indem sie die Faktoren als Indikatoren für Risiko interpretiert. Wobei noch niemand genau sagen konnte, worin das Risiko das mit den Faktoren eingeht genau bestehen soll.

Wir können also die Hypothese effizienter Märkte getrost außer Acht lassen. Ein besseres Modell um zu beschreiben, welche Informationen in den Aktienkursen bereits enthalten sind, ist das Modell des marginalen Investors. Stellen wir uns eine Reihe von Investoren vor, jeder hat schätzt den Wert einer Aktie etwas unterschiedlich ein. Wenn der Kurs unter dem Wert liegt, den der Investor für die Aktie schätzt, ist er bereit diese in seinem Portfolio zu halten. Durch den Marktprozess verteilen sich  die Aktien nun auf diejenigen Investoren, die ihren Wert am höchsten eingeschätzt haben. Der Marginale Investor ist der, der gerade so Aktien erhält, das ist dann der Fall wenn sein Wertschätzung genau dem Kurs der Aktie entspricht. Der Marginale Investor hat die bewundernswerte Fertigkeit den Kurs der Aktie zu bestimmen. Die Konsequenz ist, dass wir davon ausgehen können, dass die Informationen, die dem Marginalen Investor bewusst sind, gerade diejenigen sind, die im Kurs eingepreist sind oder andersherum Informationen die dem Marginalen Investor unbekannt sind, sind auch nicht im Kurs enthalten.

Die Entscheidung ob man sich eine Überrendite gegenüber dem Markt zutraut, läuft also auf die Frage hinaus ob man für informierter hält als den marginalen Investor. Die besten Chancen auf einem Informationsvorsprung erreicht man, wenn man systematische Fehler anderer Investoren ausnutzt. Beispiele wären: Psychologische Fehler (Ankereffekt, Panik), mangelnde Branchenkenntnisse (mit guten Chancen ist der marginale Investor kein Branchenexperte, aber kann man sich dem so sicher sein?), mangelndes Verständnis für den Kapitalzyklus (die Wirkung von Investition und Deinvestition auf die Wettbewerbssituation), mangelndes Verständnis für die langfristige Bedeutung von Qualität, keine hinreichende Berücksichtigung von operativ nicht notwenigen Anlagegütern (Net-Nets).

Wenn man nicht bereit ist die Zeit und Mühen auf sich zu nehmen, die erforderlich sind, um einen Informationsvorsprung gegenüber dem Marginalen Investor zu haben, fährt man mit ETFs sicherlich besser. Trifft man beim Zusammenstellen des Portfolios keine Auswahl, die repräsentativ für den gesamt Markt ist, besteht das Risiko, dass man selbst die systematischen Fehler begeht, die von anderen Investoren ausgenutzt werden können.

Wenn man sich für einen passiven oder aktiven Anlagestil entscheidet muss man sich mit zwei Faktoren auseinandersetzten. Die weniger entscheidende ist, ob es einem als aktiven Anleger gelingt eine hinreichende Diversifikation aufrecht zu erhalten. Wesentlich bedeutsamer ist die Frage wie man seine eigenen Fähigkeiten einen Kurs zu bestimmen einschätzt und zwar nicht gemessen an objektiven Kriterien, sondern gemessen an denjenigen anderen Investoren, die aktuell für die Kurse bestimmend sind. Aber auch für die Anleger die vielleicht keine Überrendite erwarten kann es sich lohnen eine aktive Auswahl zu treffen. Als aktiver Anleger ist man in höheren Maß für seine Ergebnisse selbst verantwortlich, der Anspruch des Investierens an Intellekt und Charakter steigt damit. Viele werden bereits daraus eine Befriedigung gewinnen sich diesen Herausforderungen zu stellen.

Vitamin D!

Dezember 22, 2016

Die meisten dürften über Vitamin D so viel wissen, dass es in der Haut gebildet wird und man sich deswegen möglichst oft der Sonne aussetzen sollte. Was den wenigsten jedoch klar sein sollte ist, dass es sehr anspruchsvoll ist ausreichend Vitamin D zu bilden und man daher mit einigen einfachen Maßnahmen man sehr viel für die eigene Gesundheit tun kann, wenn man sich bewusst um eine gute Vitamin D Versorgung kümmert.

Vitamin D wird über mehrere Zwischenschritte von der Haut gebildet, wenn sie UVB-Strahlung mit einer Wellenlänge von 290–315 Nanometern ausgesetzt ist. Leider ist es so, dass UVB-Strahlung relativ schnell von der Atmosphäre absorbiert wird. Nur wenn der Sonnenstand mehr als 35 Grad beträgt kann nennenswert Vitamin D gebildet werden. Dieser Sonnenstand wird in unseren Breiten von Oktober bis März gar nicht erreicht und erst von Mai bis August ist die Sonne ab 17 hoch genug. Das heißt jemand der unter der Woche einen 9 to 5 job nach geht, kommt die meiste Zeit des Jahres nur an den Wochenenden dazu größere Mengen Vitamin D zu bilden. Gleichzeitig spielt die Aufnahme von Vitamin D über die Nahrung nur eine untergeordnete Rolle.

Die Notwendigkeit sich der Sonne auszusetzen beißt sich daher mit unseren modernen Lebensstil, die Folge ist, dass Vitamin D Mangel weit verbreitet ist. Man geht davon aus das die Hälfte der Deutschen eine Vitamin D Unterversorgung haben. Vitamin D wurde zwar zuerst wegen seiner Rolle im Calciumhaushalt untersucht, inzwischen weiß man jedoch das Vitamin D auf äußerst vielfältige Weise auf den Körper wirkt. Ein Vitamin D Mangel erhöht das Risiko für zahlreiche Krankheiten darunter Herz-Kreislauf-Erkrankungen, Autoimmunkrankheiten, Osteoporose und Krebs. Die Vitamin D Versorgung beeinflusst insgesamt die Sterblichkeit maßgeblich.

Interessant ist das obwohl viele Studien, die nach einem Zusammenhang zwischen Vitamin D-Konzentration im Blut und Krankheiten suchten, diesen in der Regel fanden. Studien hingegen, die untersuchten, ob Menschen, die zusätzlich Vitamin D einnehmen, mit geringerer Häufigkeit erkranken, häufig zu dem Schluss kamen, dass kein Zusammenhang besteht. Eine Erklärung für diesen Umstand könnte sein, dass Vitamin D im Zusammenspiel mit verschiedenen Kofaktoren wirkt. So ist für die Nutzung von Vitamin D Magnesium notwendig. Zusätzliches Vitamin D sorgt dabei zu einem höheren Magnesium-Verbrauch. Leidet man unter einem Magnesiummangel kann auch das Vitamin D nicht vollständig wirksam werden.

Ein weiterer Wichtiger Mitspieler ist das Vitamin K2. Der Hintergrund ist die mögliche Nebenwirkung von Vitamin D: Es ermöglicht den Körper die Aufnahme von Calcium. Wird zu viel Calcium aufgenommen, setzt es sich in Gewebe und Gefäßen ab und verursacht entsprechende Krankheitsbilder. An dieser Stelle kommt das Vitamin K2 ins Spiel. Es sorgt dafür das Calcium auch vom Körper genutzt wird und schützt so vor Verkalkung. Dieser Zusammenhang ist vor allem deswegen bedenklich, da ein Vitamin K2 Mangel verbreitet ist.

Es empfehlen sich einige Maßnahmen um Vitamin D Mangel vorzubeugen. Im Sommer ist darauf zu achten sich zur Mittagszeit regelmäßig der Sonne auszusetzen und dabei mindestens Gesicht, Hände und Unterarme unbedeckt zu halten. Hält man sich unter der Woche viel in geschlossenen Räumen auf sollte man wenigstens die Mittagspause dafür nutzten. Die Vitamin D Produktion hört auf wenn eine leichte Rötung erreicht ist, eine längere Sonnenbestrahlung mach keinen Sinn. Daher ist es hilfreich der Sonne möglichst viel Haut zu zeigen.

Im Winter sollte man über die Einnahme von Vitamin D Präparaten nachdenken. Hier ist zu beachten, dass die noch verbreiteten Dosierungsempfehlungen von 400 IE (40 IE Vitamin D entsprechen 1 µg)  nach neueren Erkenntnissen viel zu niedrig sind, man geht von einem Tagesbedarf von 3000 IE aus. Zum Vergleich unter optimalen Bedingungen bildet der Körper 10 000 bis 20 000 IE.

Wie wir gesehen haben spielt Vitamin D für die Gesundheit eine herausragende Rolle. Gleichzeitig verhindert unser moderner Lebensstil eine ausreichende Versorgung. Daher sind die Chancen groß dass man sein körperliches Wohlbefinden steigern kann, wenn man sich bewusst um eine ausreichende Versorgung von Vitamin D und seine Kofaktoren kümmert.

Weiter Informationen: http://www.vitamind.net/

Welche Rendite kann man langfristig für Aktien erwarten?

Dezember 17, 2016

Wenn man plant mit welchen Mitteln man seine finanziellen Ziele erreichen möchte, ist es eigentlich unerlässlich zu wissen welche Renditen man mit die einzelnen Anlageklassen erreichen kann. Für die interessantesten Anlageklassen wie Aktien lässt sich das jedoch nicht im Vorhinein sagen. Darin unterscheiden sie sich von festverzinslichen Geldanlagen und das ist meines Erachtens die Ursache für ihre historische Überrendite gegenüber diesen. Um dem Dilemma aus möglichen Überrendite gegenüber Unkenntnis der zukünftigen Rendite zu entkommen, muss der Anleger eine Prognose erstellen welche Rendite er durch seine Aktienanlage erwartet. In diesen Artikel will ich erläutern, wie eine solche Prognose aussehen kann.

Prognosen haben den Nachteil, dass sie eigentlich nie eintreffen. Wir haben jedoch die günstige Situation, dass unsere Prognose nicht exakt sein muss. Es reicht wenn wir eine Mindestrendite angeben können, die mit hoher Wahrscheinlichkeit übertroffen wird. Die einfachste Schätzung der zukünftigen Renditen ist es die Renditen der Vergangenheit fortzuschreiben. Schon bei diesem Versuch lauern einige Fallstricke. Die Rendite an der wir interessiert sind soll eine Prognose des Zukünftigen Vermögens ermöglichen im einfachtesten Fall nach der Formel: zukünftiges Vermögen = heutiges Vermögen * ( 1 + Rendite ) ^ Anlagezeitraum

Nun ist die Rendite bei Aktien nicht konstant, sondern schwankt von Jahr zu Jahr und wird oft sogar negativ. Man muss also einen geeigneten Mittelwert finden. Setzt man in diese Formel das arithmetische Mittel ein, erhält man ein Vermögen das höher ist als das tatsächliche, wie man anhand einer Tabellenkalkulation leicht nachvollziehen kann. Was hingegen tatsächlich funktioniert ist das geometrische Mittel. Wir sind daran interessiert welche Renditen im geometrischen Mittel erzielt wurden und werden.

Der zweite Fallstrick ergibt sich aus der Frage ob das Vermögen zukünftig die gleiche Kaufkraft hat wie heute. Wieviel Inflationssteuer muss der Anleger also im Laufe der Zeit zahlen? Die Frage ist ähnlich schwierig wie die nach der Rendite am Aktienmarkt, denn die Inflation ist schwer zu prognostizieren und die Preissteigerung des eignen Warenkorbs kann von der des offiziellen Warenkorbs abweichen. Wir behalten diese Schwierigkeiten im Hinterkopf, aber verwenden der Einfachheit und Vergleichbarkeit halber die offizielle Inflationsstatistik. Die Frage die uns also interessiert ist, welche realen Renditen konnten an den Aktienmärkten im geometrischen Mittel erzielt werden.

Die beste Zusammenstellung der historischen Renditen, die ich kenne ist das Credit Suisse Investment return Yearbook. Zusammenfassend kommt die Studie zu dem Ergebnis, dass von 1900 bis 2012 die weltweite, anualisierte Realrendite etwa 5% betrug. Die Renditen vielen jedoch von Nation zu Nation sehr unterschiedlich aus, so dass sich ein tieferer Blick in die Studie lohnt. Fälle die besonders herausstechen sind China und Russland, dort hat die jeweilige Machtergreifung der Kommunisten zu einen Totalverlust aller Anlagen geführt.

Lässt sich eine bessere Schätzung erreichen, wenn man weitere Informationen hinzunimmt? Die reale Rendite die am Aktienmarkt erreicht wird, richtet sich nach drei Faktoren: Die Anfänglichen Dividendenrendite, die Veränderungen der realen Gewinne je Aktie und der Veränderung des Kurs-Gewinn-Verhältnisses. Die anfängliche Dividendenrendite ist bekannt. Die Änderungen des Kurs-Gewinn-Verhältnis haben über lange Zeiten betrachtet nur einen geringen Einfluss auf die Rendite. Wir machen also sicher keinen großen Fehler, wenn wir einfach annehmen, dass es am Ende der Zeit ungefähr die gleiche Höhe hat wie heute. Die große Unbekannte ist also, wie sich die realen Gewinne je Aktie entwickeln.

Man könnte versucht sein, das langfristige Wirtschaftswachstum zu verwenden, um abzuschätzen wie sich realen Gewinne je Aktie entwickeln. Es hat sich jedoch gezeigt, dass die Gewinne pro Aktien deutlich hinter dem Wirtschaftswachstum zurückfallen. Die Gründe dafür sind, dass ein Teil des Wachstums auf neu gegründete Unternehmen entfällt und bestehende Unternehmen ihr Wachstum oft dadurch finanzieren, dass sie neues Kapital aufnehmen und somit der Gewinn pro Aktie verwässert wird. Des Weiteren kann sich der Anteil der Unternehmensgewinne am Sozialprodukt ändern. In den letzten Jahren war das Gewinnwachstum je Aktie überdurchschnittlich, was vor allem darauf zurückzuführen war, dass dieser Anteil gestiegen ist. Im langfristigen Mittel sind die Gewinne pro Aktie um 1,7% pro Jahr gestiegen. Bei einer Dividendenrendite von 2,7 Prozent für den DAX ergibt sich eine zu erwartenden reale Rendite von 4,4%.

Geht es noch einfacher? Der Autor dieses lesenswerten Artikel trifft eine Prognose allein auf Basis der relativen Nachfrage nach den unterschiedlichen Anlageklassen: the single greatest predictor of future stock market returns. Er kam in 2013 auf eine Prognose von 6% nominal Rendite.

Wir haben insgesamt gesehen, dass wenn man sich als Anleger Gedanken über die Rendite der verschiedenen Anlageklassen macht die reale geometrische Rendite ausschlaggebend ist. Nominalrenditen oder arithmetisch gemittelte Werte zeichnen ein zu positives Bild. Aktien haben sich historisch mit 5% rentiert, ausgehend von Ausschüttung von 2,7% und einem langfristigen Wachstum der Gewinne pro Aktien von 1,7% kann man für die Zukunft eine Rendite von 4,4% erwarten.