Top-10-Investments

Folge (Mathematik)

Inhaltsverzeichnis.

[1] WMP steht für Weltmarktportfolio [2] Mit Hilfe von Portfolioselektion bzw. 922922.pw bestimmt man die passende Risikoklasse, die bei Fonds . Als Folge oder Sequenz wird in der Mathematik eine Auflistung von endlich oder unendlich vielen fortlaufend nummerierten Objekten (beispielsweise Zahlen) bezeichnet.

Alle Artikel

Also ist da auch wieder Overcrowding zuverlässig am Werk, wie nicht anders zu erwarten. Für eine zukunftssichere, langfristige Investment-Strategie mit risikoadjustierter Überrendite taugen also Ansätze nur mit passiven Instrumenten immer weniger, wenn es mehr sein soll.

Anders sieht es hingegen mit der Kombination von passiven und handverlesenen, aktiven Assets aus. Ich setze dafür seit knapp 20 Jahren z. Das gelingt aber nur, wenn man die sehr seltenen, wettbewerbsfähigen Quant-Fonds gut verstehen, finden und allokieren kann.

Die dürfen nach meiner Erfahrung nur echtes, reines Alpha erzeugen. Und ihr Alpha muss statistisch signifikant sein. Welchen Fonds es gelungen ist, diese harten Anforderungen in der Vergangenheit zu erfüllen, die haben entsprechende Kernkompetenzen nachhaltig aufgebaut. Wenn die die dann noch weiterhin aufrechterhalten können, dann verflüchtigt sich deren Alpha nicht so schnell.

Das ist ganz ähnlich wie bei gut geführten Firmen aus anderen High-Tech-Branchen, wie z. Die bleiben auch nur vorne, wenn sie sehr "aktiv" ständig innovieren, um ihre Wettbewerbsfähigkeit aufrecht zu erhalten. Overcrowding ist bislang seit immerhin 70 Jahren, seit es diese Quant-Fonds gibt, auch kein Problem.

Denn die sind selbst von professionellen Investoren kaum zu verstehen. Und die verwandten Hedgefonds haben allgemein einen sehr schlechten Ruf, was viele davon abschreckt. Das kenne ich zwar nicht näher, aber ein paar Spezis, die das machen. Deren Alpha dürfte auch noch lange erhalten bleiben. Denn an beides trauen sich nur die Hartgesottenen ran. Nur wenn die es wirklich "drauf haben", werden die dann reichlich entlohnt. Aber es gilt wie immer auch hier: Wegen dieser hohen Hürden hat es m.

Wer echtes Interesse daran hat, bitte offline melden. Ich teile gern meine Erfahrungen damit. Ist aber vermutlich auch ein Nachhaltigkeitsfaktor. Happily, Peter has taken up his facile pen again to describe these changes, a virtual revolution in the practice of investing that relies heavily on complex mathematics, derivatives, hedging, and hyperactive trading. This fine and eminently readable book is unlikely to be surpassed as the definitive chronicle of a truly historic era.

Das bin ich auch. Halte es aber per se nicht für unmöglich. Und wenn Herr Kommer diese Möglichkeit in Betracht zieht, will ich sie nicht vorschnell verwerfen. Jörg Warum hälst Du gerade Value für vergänglich? Der Value Ansatz ist mindestens seit Graham er Jahre? Trotzdem scheint der Faktor bis in die jüngste Zeit wohl funktioniert zu haben? Warum sollte er gerade ab heute verschwinden? Insbesondere wenn Value an ein höheres Riskio gekoppelt ist?

Umgekehrt, wenn political Risk in der Vergangenheit Überrenditen gebracht hat, warum sollten die Anleger nicht diesen genauso zum Verschwinden bringen? Man tippt ja nicht Putin, Erduan, Orban, etc. Das ist für mich ein ganz klares Gegenargument. Denn Kommer hat den ähnlich unzureichenden, empirisch ermittelten, angeblichen Diversifikationsnutzen von passiven Rohstofffutures-ETFs auch völlig falsch eingeschätzt und noch bis vor kurzem als vorteilhaft empfohlen.

Jetzt erst Jahre nach den meisten anderen Meinungsführern inklusive seinem Zitatgeber Swedroe ist er umgekippt. Bei den extrem schwierigen Einschätzungen im reflexiven Finanzmarkt halte ich mich dagegen schon immer an den weltweit hoch anerkannten Bogle und bin damit bislang sehr gut gefahren. Das kann ich jedem sehr empfehlen. Denn er hatte schon vor über 60 Jahren in den 50er Jahren!

Daher bin ich in die für mich sehr vorteilhaft niedrigste Kosten, Seelenfrieden ohne Zögern ab Verfügbarkeit in D um komplett umgestiegen. Vor den passiven Rohstoff-Invests hat er mich ebenfalls sehr vorteilhaft bewahrt keine vermögensschädliche Realisierung von Tracking Error Regret wie Kommer jetzt in seiner neuesten Auflage von "Souverän investieren" beschrieben.

Mit seinem strikten Abraten von unlogischem, passivem Factor Investing wird Bogle sicher wieder genauso recht behalten und vor völlig unnötigen Vermögensschäden und Zeitverschwendung durch Hin- und Herüberlegen schützen.

Der Value-Faktor funktioniert natürlich bis heute und wird es sicher noch weiter tun, indem er den Markt durch unterscheidbare Eigenschaften segmentiert, so wie der Weltmarkt durch Regionen oder Branchen mit unterscheidbaren Eigenschaften segmentiert wird.

Aber was hilft das einem Normalanleger? Und der Value-Faktor ist davon nur ein sehr Zweifhafter unter vielen anderen. Warum also überhaupt einen müden Gedanken daran verschwenden, wenn dessen geringe Relevanz so klar auf der Hand liegt? Er funktioniert aber nur sehr aktiv mit kleinsten, möglichst exotischen Titeln und Direktbeteiligungen mit ausreichend tiefem Verständnis langfristig zur systematischen Erzielung von risikoadjustierter Mehrrendite.

Relativ gut funktionieren nach meiner Erfahrung noch ebenfalls verwandte aktive Relative Value Arbitrage Hedgefondsstrategien, am besten Macro mit kostengünstigsten Futures, die hoch gehebelt long und short kleinste, kurzfristige Bewertungsunterschiede gezielt als reines Alpha ausbeuten. Das habe ich im "Onanisten-Thread" zum Nachlesen genauer beschrieben. Für höheres systematisches Risiko gibt es im langfristigen Durchschnitt meistens eine höhere Rendite. So wahrscheinlich auch für das riskantere Value-Segment.

Aber eine höhere Rendite kann man mit einer Erhöhung z. Denn die Effizienzkurve flacht zu höheren Risiken hin ab. Denn das versuchen die meisten Marktteilnehmer und reduzieren die Mehrrendite unter den eigentlich zu erwartenden Wert.

Das ist ähnlich wie wenn man freiwillig Überstunden für den halben Stundensatz leistet. Was macht es also für einen Sinn, es der Masse gleichzutun?? Das war im reflexiven Finanzmarkt langfristig immer nachteilig! Ergo, eure Skepsis ggü. Immer wenn etwas zu gut klingt , um wahr zu sein, ist es so. Lasst euch also nicht von irgendwelchen selbsternannten Experten irritieren.

Das habe ich mir auch seit 20 Jahren erfolgreich zum Grundprizip gemacht und kann es jedem wärmstens empfehlen. Kommer verbreitet hier ganz offensichtlich verwirrende, kurzlebige Anlagemoden, aus welchen Gründen auch immer. Bogle, Swensen oder Finanzwesir, die unisono von dem Schrott abraten oder zumindest nicht Normalanleger verwirrend zuraten.

Wer sein Buch Souverän Das ist und bleibt sein Verdienst. Wenn du das als Investment Pornographie verstehst, geht das für eine rational begründete Kritik zu weit. Dann liegt dir eine andere Ausgabe des "Kommer" vor als mir. Ich beziehe mich genau auf diese aktuelle von Darin weist Kommer in der Einleitung extra darauf hin:. Aber das würde ich ganz eindeutig als typisch marktschreierisch bezeichnen, das jeglicher seriösen wissenschaftlichen Basis entbehrt, selbst für die grauenhaft nachlässige Factor Community!

Denn mit einem "Turbo" im KFZ verbindet man gemeinhin einen wesentlichen Leistungszuwachs im mittleren 2-stelligen Prozentbereich! Das soll also ganz zweifelsfrei genau diese finanzpornographische Gier auslösen, von der Kommer mit seinen Faktorfonds von dem sektenähnlichen US-Dreibuchstabenverein "DFA" primär lebt.

Auch hier wieder zum dramaturgisch krönenden Abschluss der ultimative Doppelturbo-Multifaktor-Schrott. Damit ist eine jungfräuliche Finanzseele sehr sicher nachhaltiger gehirngewaschen und für immer verdorben als Kommers nach seiner eigenen DFA-Gehirnwäsche in gefestigterem Alter.

Jetzt hat Kommer es geschafft, dass ich auf Multifaktor setzen möchte. Ich finde, wenn man sich einfach daran hält, was er als mehr oder weniger geeignet befindet, macht man bestimmt nichts falsches. Aber selbst gegen dieses Störfeuer der verhassten autonomen Blogger hat dieser Kommer mit seinem darauf abzielenden Hinweis gut vorgesorgt:.

Daraus spricht ein echter Marketing- und Sales-Profi, der an alle störenden Einflüsse denkt. Das mit Tanja ist leider beileibe kein Einzelfall. Ich habe so ähnliche Beiträge von Anfängern, die zumindest noch letzte Zweifel an dieser Kommer-ziellen Faktor-Wunderwelt hatten, in diversen Finanz-Blogs und -Foren schon sehr oft gelesen.

Damit war ich fortan gegen all solche Anfechtungen sicher gewappnet. Und diese Entscheidungssicherheit möchte ich hier gern so wirksam wie möglich weitergeben.

Wenn das rechtzeitig vor der Kommer-ziellen Gehirnwäsche erfolgt, ist sicher noch was zu retten. Und wenn über diese Interessenkonflikte gut fundiert aufgeklärt wird, wie z. Ja, das zerstört leider viel wenn nicht restlos alles von Kommers guter Aufbauarbeit für anlegerorientiertes, echt passives Investieren. Oder was würdest du von einem Pfarrer halten, der am Sonntag von der Kanzel gegen Sex vor der Ehe wettert und zur Aufbesserung seines Einkommens noch ein einschlägiges Etablissement im Nebenerwerb betreibt?

Aus meiner Sicht drischt er mit dem "Zerpflücken" leider nur noch vertrauensheischend auf eine leicht andere Variante aktiven Investierens ein. Damit versucht er überaus raffiniert, von der Abzocke durch seine eigene, auch noch sehr tumbe Variante aktiven Investierens mit Very Dumb Alpha als angeblich besseres, passives Investieren im Vergleich zum echt passiven Original nach Bogle im bewährten Finanzporno-Stil abzulenken.

Gier frisst Hirn, wie bekannt. Damit missbraucht er m. SEIN selbstloses Werk schändlichst. Die machen mich nämlich genauso krank wie diesen von CarstenP dankenswerterweise verlinkten Zeitgenossen: Den Schrott selber siehst du ja zum Glück ähnlich kritisch wie ich. Aber den gibt es überhaupt nur zur Bereicherung all der Finanz-Zwischenhändler inkl. Kommer, Swedroe und Konsorten. Da braucht es doch nicht zu wundern, wenn er nach seinem eigenen Vorbild genauso zerpflückt wird.

Das fordert er doch geradezu heraus. Im Abspann hier noch zwei zentrale in ihrem Widersinn nicht zu übertreffende, aufeinanderfolgende Aussagen zum Kommer-ziellen Investment-Ansatz:. Das ist hochkompetentes Marketing für Abzockerprodukte. Denn wenn ein Kunde das ohne nachzufragen schluckt, oder wie er dazu ggf. Ich glaube wir beziehen uns schon auf die gleiche Ausgabe. Meiner Meinung nach sind Kapitel 5.

Aktien langfristig anderen Asset-Klassen ueberlegen, investieren sollte passiv, global, breit gefaechert, steuerminimierend und kostenguenstig erfolgen. Das Kommer Buch ist so konzipiert, dass derjenige der diese Grundideen verstanden hat, auch ueber alles Ruestzeug verfuegt, die Umsetzung selbst zu gestalten. Meiner Meinung nach ist dies sogar unabdingbar. Wenn jemand blind einer Empfehlung folgt sei es Kommer, Finanzindustrie etc , bleibt er anfaellig es zu einem spaeteren Zeitpunkt wieder zu tun und dann zB im Crash alles verkaufen weil irgendjeman es ihm empfiehlt.

Das Kommer Buch kann die Hausaufgaben des einzelnen nicht ersetzen, und will es auch nicht Kommer sagt selbst dass diese Hausaufgaben sehr viel Zeit brauchen. Das ist keine inhaltliche Kritik sondern rein emotional bis hin zu menschlich abwertend. Ich kann dir jedoch versichern, auch hier ist nicht alles schwarz und weiss - letztlich sind wir alle nur Menschen.

Jede Industrie hat positive und negative Seiten: Leider viele lang und deftig ausgeführte, jedoch durch nichts belegte, Vorwürfe an Kommer, den unwissenden Anlegerneuling zu übervorteilen. Faktorinvesting ist sicher kein Markettiming, aber auch nicht wirklich Stockpicking. Trotzdem sind beides irgendwie Wertpapiere in Wertpapierdepots und Teil "des Marktes". Warum sollte jetzt aber die Klasse der Aktien nicht noch weiter in Untergruppen zerfallen, wie z.

An sich würde man das erwarten. Aber Aktien in Unterklassen zu zerlegen nach statistischen Kriterien und selektiv zu kaufen ist etwas anderes, als klassisches Stockpicking zu betreiben a la: Kommer bleibt dementsprechend Anbieter-neutral und betreibt kein Marketing fuer einen bestimmten Anbieter. Oder spielst du wie von dir ebenfalls angedeutet auf eine Beziehung zu DFA an? Die angegebenen Fonds weisen eine TER zwischen 40bp und 55bp auf. Klar, das ist heutzutage nicht ohne, aber deutlich weniger als die wohl meisten aktiven Fonds.

Leider ist es schwierig deiner Argumentation zu folgen, meiner Meinung nach verschwimmen durchaus valide Kritikpunkte zB "Einsteiger sollten nicht mit Smart-Beta starten" mit allgemeinen Anschuldigungen die fast schon an Verschwoerungstheorien grenzen zB "Kommer betreibt hochkompetentes Marketing für Abzockerprodukte".

Fuer Diskussion bin ich immer gerne, aber eben nur auf sachlichem Niveau. Sunnyberny Schaust du mal hier: Warum hebt dieser Kommer die starke Erweiterung und Modernisierung dessen umfangreichsten Abschnitts 5.

Was willst du mit dem Link sagen? Ich verstehe es wirklich nicht. Sachliche Diskussionen wie gesagt gerne aber für zusammenhangslose, langatmige, durch keinerlei Fakten belegte Posts, ohne Argumente aber voller Pauschalisierung bis hin zu deftigen Beleidigungen mit infantilen Kraftwörtern, ist mir meine Zeit wirklich zu schade. Seine Gehirnwäsche dort, die jeder Vertriebspartner über sich ergehen lassen muss, kann ursächlich für seine bedauerlichen Fehltritte sein.

Mit deren Wiederholung wollte ich nicht nerven. Im Trader-Thread habe ich meine Smart-Beta-Kritik noch tiefer mit komplexer Systemtheorie fundiert, wer es ganz genau wissen möchte. Ich wollte nur auf übersehene Missstände deutlich aufmerksam machen und zum Nachdenken anregen. Dazu liest man meistens ähnliche Begründungen, wie z. Juni im Finanz-Onanisten-Thread:. Bei vielen Themen hat er ja Recht. Aber das ist die Wurzel allen Übels. Denn bei bestimmten Themen nutzt er seinen erarbeiteten Kommer-Bonus in anlegerschädlicher Weise.

Das ist das typische Vorgehen smarter Dealer. Er setzt dazu in seinem zur Bibel passiven Investierens in D hochstilisierten Werk somit eindeutig Finanzpornographie ein. Die schürt bei ungefestigten Gemütern die Gier nach diesen Schrottprodukten mit der angeblichen Turbo-Performance! Die hier verlinkten kraftvollen Worte sollen daher die eigentlich um Aufklärung bemühten Leser aufschrecken, und zwar stilechten Branchen-Jargon.

Das soll zum Nachdenken über den weit verbreiteten "Authority Bias" animieren. Denn Respektlosigkeit wirkt oft Wunder, wie im verlinkten Thread erstaunlich schnell gelungen. Warum hat selbst unser sonst absolut sachlicher Finanzwesir wohl den treffenden Begriff "Very Dumb Alpha" geprägt nein, der und alle anderen aus einschlägigen Finanzthemen-Quellen zusammengetragenen "infantilen Kraftwörter" stammen nicht von mir?

Die heilsame Wirkung habe ich mir hier aber wohl vergeblich erhofft. Nun gut, dann versuche ich es nochmal von Neuem, Erleuchtung zu verschaffen. Der inhaltliche Bezug zu diesen zur Selbstbereicherung erdachten Marketing-Gags ist neben der schon wiederholt verlinkten Bogle Bible z.

Aber niemand sagt das dem durchschnittlichen Investor, weil da kein Profit drin ist. Der über alle Zweifel erhabene Vanguard-Artikel Joined at the hip: ETF and index development sollte restlos jeden aufrütteln, der dafür immer noch mehr Faktenbelege braucht.

Dann bricht diese jäh ab. Und Under-Performance setzt ein, die den überhöhten Kosten entspricht. Das ist ganz ähnlich den bisherigen Haupt-Abzockerprodukten, den aktiven Publikumsaktienfonds. Die werden von Kommer vertrauensheischend zerpflückt, um dann andere Abzocker-Produkte in grün pseudo-wissenschaftlich verkompliziert hochzujubeln.

Wie durchsichtig ist denn das? Da braucht sich doch niemand zu wundern, wenn das ebenfalls zum Zerpflücken des Zerpflückers reizt. Das autoritäts- und wissenschaftsgläubige Dumb Money merkt diesen Betrug jedoch leider nicht, weil Kommer, Swedroe und Konsorten die Gier dafür mit Finanz-Pornographie - missbräuchlich eingebettet in Boglesche Finanzratio - geweckt hat. Die vernebelt die Sinne, verhindert kritisches Nachdenken, verwirrt gleichzeitig durch völlig sinnfreie Verkomplizierung und treibt Anleger endlich wieder in deren Fänge.

Die unkontrollierte Fehlsteuerung im Oberstübchen aus der Steinzeit hindert die Meisten leider daran, diese Manipulation zu durchschauen. Daher wollte ich hier bewusst störend beleuchten, dass dieser Kommer nach seiner Aufbauarbeit passiven Investierens nun leider zum Fahnenträger dieser Massenverblödung mutiert ist, um seinen eigenen Laden florieren zu lassen.

Denn meist nur solch ein Schlag auf den Hinterkopf kann den daran Interessierten nach bereits eingetretener Verblödung den notwendigen Gegenimpuls versetzen, um davon wieder loszukommen, wie von einer Sucht. Siehe dazu Tanja's Geständnis einer Angefixten:. Mein erster, für manche offenbar verstörender Verweis auf die ähnlich kritische Amazon-Rezension hier vor einer Woche hat jedenfalls unglaublich vielen Lesern schon geholfen.

Denn die Anzahl der Votes für diese Rezension ist allein in der kurzen Zeit seit dem Verweis darauf um ganze 13 in die Höhe geschossen - herzlichen Dank für die zahlreiche stille Zustimmung! Die sorgt für eine rundum gediegene Ausdrucksweise, damit der reibungslose Verkauf des dort verkloppten Schunds nicht durch unbequeme Wahrheiten gestört wird. Danke für den interessanten Artikel Joined at the hip.

Während Fondsanbieter per Gesetz nicht mit Backtestingdaten werben dürfen, kann aber der Indexanbieter entsprechende Daten auf der Homepage anbieten. Dies ist eine Lücke im Gesetz, die von Fondsanbietern ausgenutzt wird. Wenn Du den Artikel aber mal genau anschaust wirst Du feststellen S.

Alle im Buch von Kommer veröffentlicht Mai erwähnten Multifaktorfonds wurden aber zwischen Januar und März aufgelegt. Diese "Finanz-Fehleranalyse" unterstreicht nochmal meine Empfehlung, dass Sicherheit sehr teuer ist und hohe Opportunitätskosten mit sich bringt. Das gilt vor allem heute, wo diese Kosten bei der Nullzinspolitik besonders hoch sind und sich auf der anderen Seite viele Chancen auf hohe unkorrelierte Erträge bieten.

Um die nutzen zu können, muss man sich natürlich ständig weiterbilden. Leider vom Aussterben bedroht. Anregungen dazu gibt es ja genug hier und anderswo. Und vom Aussterben bedroht sehe ich Alpha nicht, ganz im Gegenteil.

Nach fast 10 Jahren von den Zentralbanken verordneter Dürre kann bald wieder ein richtiger Alpha-Schub kommen. Das macht insbesondere vor dem aktuellen Hintergrund Sinn, dass die klassische Beta-Welt durch QE so überreichlich mit Geld überschwemmt wurde.

Das kann die Beta-Renditen auf viele Jahre wenn nicht gar Jahrzehnte als ergiebige Renditequelle austrocknen, siehe Japan seit fast 30 Jahren.

Mit aktiven Strategien meine ich natürlich nicht hyper-aktives Zocken oder pseudo-aktives Smart Beta, das nur Dumb Alpha ist, sondern gut fundierte, aktive Strategien, die z. Denn diese Vorhersagbarkeit ist mittlerweile ausreichend nachgewiesen, und mithilfe des Zusammenspiels der beiden Haupt-Finanzmarkttheorien, d.

Ja genau, und hier ist die andere Seite der Medaille: Wer mehr Rendite will, muss mehr Risiko eingehen. Allerdings ist es unvernünftig, wenn man mehr Risiko eingeht als man muss oder ertragen kann. Die einfachste Möglichkeit, das Risiko von einem Aktien-Portfolio zu senken, ist es risikoarme Anlagen Tagesgeld, Festgeld, Anleihen mit dazu zu mischen.

Die "Opportunitätskosten" verringerte Renditeerwartung , die risikoarme Anlagen mit sich bringen, sind halt der Preis für die Portfolio-Risikoreduktion. Und die persönliche Risikotoleranz zu überschätzen oder das Portfolio-Risiko zu unterschätzen, kann sich als teurer Fehler herausstellen, der die "Opportunitätskosten" in den Schatten stellt.

Und hier noch 2 kürzlich erschienene Artikel bzgl. The Half-Life of Investment Strategies. Das besagen auch die beiden wohl häufig begangenen Finanzfehler, die ich zuvor zitierte.

Wenn man die vermeidet, gilt nämlich genau dies nicht mehr:. Dies gilt nur unter der Annahme, dass man innerhalb seines Anlage-Wissenshorizonts verbleibt, also hier i. Aktien, Anleihen und evtl. Nimmt man weitere möglichst gering oder un-korrelierte Anlageklassen dazu, gilt dies nach der Modernen Portfolio-Theorie MPT nicht mehr.

Die wird im ersten Link von Morningstar passend zitiert:. Das funktioniert umso besser, je geringer die Korrelation alternativer Anlageklassen zu den bestehenden ist, wie bei einigen LAs:. Genau das ist die minimale Basis-Anforderung für die Aufnahme alternativer Anlageklassen in mein Portfolio. Ich verschärfe die u. All diese Anforderungen zeigen die dominierende Rolle von Statistik hierbei auf. Wer die noch nicht so gut beherrscht aber trotzdem alternativ diversifizieren will, sollte vor allem anderen erst mal bei der Statistik mit der Weiterbildung anfangen.

Beide generieren reines Alpha und sind daher mittelfristig unkorreliert zu Aktien und Anleihen. Damit konnte ich bislang meine Volatilität insbesondere Drawdowns während Crashs etwa halbieren aber musste trotzdem keine Opportunitätskosten tragen, sondern konnte sogar nennenswert absolute Überrendite im Vergleich zu reinen Aktien durch das Rebalancing-Alpha erzielen.

Das Wahrnehmen neuer Chancen klappt nur nach tiefem Verständnis deren Up- and Downsides durch ständige Weiterbildung nicht nur bzgl. Die hilft daher im ganzen Leben und hält bei Laune. Da scheint es ein mittleres Intelligenz-Optimum zu geben, auch wenn die dümmsten Bauern immer die dicksten Kartoffeln haben sollen.

Auch Warren Buffett sagt, dass man für finanziellen Erfolg kein Genie braucht, sondern "nur" Fehler minimieren muss. Und dabei hilft Weiterbildung und ständiges neue Erfahrungen sammeln mit Skin in the Game sowie mit neuen Chancen und Risiken. Sonst zahlt man sich dumm und dämlich für unnötige Sicherheit. Also hüten wir uns davor mit Weiterbildung, Meinungs- und Erfahrungsaustausch hier über Alpha Aber dann sollte auch deutlich gemacht werden, dass die Verkleinerung der Opportunitätskosten "Risiko" durch Wissenserwerb eine zwangsläufige Steigerung der Opportunitätskosten "Zeitaufwand" zur Folge hat.

Für mich ist das einer der wesentlichen Gründe weiterhin passiv unterwegs zu sein. Es kann ja jeder seine eigenen Schlüsse ziehen, aber die Lektionen im Ben Carlson Artikel liefert er doch selbst, dass es keine unveränderlichen Finanzgesetze gibt und dass man sich darauf einstellen sollte falsch zu liegen und Bescheidenheit die Grundeinstellung sein sollte.

Ein Grund ist, dass die erwartete geringe Korrelation sich nicht realisiert hat, da viele LAs ihre Rendite u.

Das ist nur ein weiteres Beispiel, dass es schwierig ist die Zukunft von z. Korrelationen vorherzusagen und Alpha zu generieren Vielleicht war es ja nur gut gemeint, um niemand ahnungslos ins offene Messer laufen zu lassen. Ein simples Portfolio bevorzuge ich ansonsten auch: Enthält einfach nur ca. Das war mir bekannt. Ich mache das also prinzipiell genauso, nur statt renditezehrenden reinen Geldwertanlagen nehme ich eben unkorreliertes, reines Alpha, das die Rendite treibt.

Ich nutze damit, wie Markowitz auch, den einfach und robust nutzbaren Hauptteil der MPT, die Diversifikation ohne zweifelhaftes Beiwerk. Das ist immer vorteilhaft, und zwar umso mehr je geringer die Anlageklassen korrelieren. Mit der MVO mache ich es genauso. Ich nutze die für immer gültigen Erkenntnisse, dass dieses "free lunch" der Diversifikation primär von den statistischen Eigenschaften, d. Aber ich wende diese Erkenntnisse in einfachster und robustester Form rückwärts an, indem ich die Anlageklassen und deren Bestandteile so auswähle, dass sie möglichst ähnlich gering korrelieren, rentieren und schwanken.

Geldwerte, Rohstoffe, Gold und die meisten Alternatives, die das nicht erfüllen, lasse ich einfach weg. Damit brauche ich keine zweifelhafte extra MVO. Mit dieser Negativauswahl schrumpft zudem vor allem das unüberschaubare Universum der Alpha-Fonds auf einen sehr kleinen handhabbaren Rest zusammen, der mir dementsprechend bislang einen enormen Nutzen bringt.

Die Gleichverteilungsstrategie habe ich auch schon immer angewendet und viel interessante Kritik geerntet, weil ich mich bei dieser wichtigsten Anfangs-Entscheidung auf bewährtestes Wissen in aktueller Interpretation gestützt habe, nämlich auf die Talmud-Strategie. Denn die enthält wertvollstes Erfahrungswissen, das sich über Jahrtausende mit apokalyptischen Umbrüchen bewährt hat, in hoch verdichteter, leicht nutzbarer Form. Die im Artikel erwähnten "tweaks now and then" von Markowitz sind dann bei mir z.

Dessen erster von ihm mitentwickelter Alpha-Fonds war auch mein erster langfristig bis heute vor über 20 Jahren investierter. Denn ich habe David Harding bereits Ende der 90er Jahre als einen der wenigen wahren Könner identifiziert und als mein Standard für die Bewertung aller anderen Alpha-Manager gesetzt.

Die weiteren 6 bis jetzt kamen dann mit zunehmender Erfahrung immer schneller dazu. So sehr ich Ben Carlson schätze, kann auch er falsch liegen. Wahrscheinlich hat er jedoch nur plakativ überzeichnet, um seine richtige Kernbotschaft rüberzubringen.

Nämlich dass das weitaus meiste Wissen 99, Deswegen ist mir ja dieser Kommer so ein Dorn im Auge. Weil er als selbsternannter Passiv-Pabst genau solch vergängliches Wissen immer noch als für die Ewigkeit gemachtes souveränen, passiven Anlegen marktschreierisch "mit Turbo" verkauft.

Und das nachdem er selber mit den ertragslosen Rohstoff-ETFs, die er lange ähnlich als langfristig wirksames Diversifikationsmittel angepriesen hat, nach der für das meiste ökonomische Wissen üblichen Halbwertszeit von knapp 10 Jahren Schiffbruch erlitten hat. Wenigstens gibt er das in der neuesten Auflage von "Souverän investieren" zu. Aber dass er mit all dem aktives Investieren betreibt und dass das ganz anders funktioniert, das hat er scheinbar nicht verstanden und verbreitet seinen Unverstand auch noch auflagenstark in der ahnungslosen Anlegerwelt, die glaubt, dass man mit Kommer nicht falsch macht.

Aber es gibt selbst in der Finanzwissenschaft auch ab und zu praktisch unveränderliche Gesetze bzw. Die sind sogar ganz leicht zu erkennen.

Denn dafür gibt es i. Und wenn man sich daran hält, liegt man tatsächlich meistens? Oder willst du die geteilten Wirtschaftsnobelpreise u. Mit der Bescheidenheit verhält es sich beim Investieren genau wie mit der Intelligenz. Das Optimum liegt nach meiner Erfahrung meistens beim goldenen Mittelweg. Ich sehe diesen im gesunden Selbstbewusstsein und -vertrauen, das immer wieder ausgelotet und weiterentwickelt werden sollte.

Keine "Overconfidence" aber auch keine lähmende "Risk Aversion". Sonst wird das nichts mit dem Alpha. John Bogle ist gemeinhin auch als sehr bescheidener Mensch in der Lebensführung bekannt. Aber an seiner Mission, optimales passives Anlegen mit reinem Beta zu demokratisieren, hat er zu Recht niemanden im Zweifel gelassen. Und mit den bahnbrechenden Erkenntnissen insbesondere von Shiller kommt jetzt aktives Alpha als dauerhafte Renditequelle dran. Darum geht es hier.

Dabei ist es besonders hilfreich, wenn man schon lange vor dem Nobelpreis selber draufgekommen ist und sein Ding gegen den seinerzeit von der EMH-Dogmatik dominierten Zeitgeist durchgezogen hat.

So war das bei Bogle m. Beides ergänzt sich hervorragend, am besten in einfachst möglicher Reinstform. So, jetzt sollte eine differenzierte Basis vorliegen, dass jeder seine eigenen Schlüsse ziehen kann. Das hatten wir doch schon mal im Finanz-Onanisten-Thread. Ich sehe das bekanntlich ähnlich. Aber du setzt dazu halt hauptsächlich auf reine Geldwertanlagen als Sicherheitspuffer.

Der wirkt primär mittel- bis langfristig, erhöht die Gesamtrendite und ich bezahle das mit etwas höheren kurzfristigen Schwankungen, die jedoch reversibel sind, und mit mehr Weiterbildung, die mich interessiert, mir auch sonst im Leben viel hilft und geistig mobil erhält. Dass das Alpha dauerhaft positiv bleibt, dafür vertraue ich auf David Harding und seinesgleichen, die mit Vorhersagen auch sehr professionell umgehen können, wie du selber durch das Harding-Zitat bestätigst:.

Wir liegen also gar nicht so weit auseinander. Aber wenn man das zitiert, sollte man auch wissen, worauf der hoch geschätzte David Harding das bezieht, siehe hier. Darin geht es um die Weiterentwicklung seines Weltklasse-Alpha-Fonds, um wettbewerbsfähig zu bleiben und unkorreliertes Alpha gegen die ständig effizienter werdenden Märkte - das ist ein unveränderliches Finanzgesetz mit Nobelpreis, s.

Die lässt er dann alle durch seinen persönlichen Alpha-Filter laufen. Bis jetzt bin ich dabei von meinen ersten beiden Alpha-Fonds von Harding nicht enttäuscht worden, wie bei allen anderen, die ich seit 20 Jahren nach und nach durch meinen persönlichen Alpha-Filter zur Allokation durchgelassen habe.

Die war bei mir jedenfalls entscheidend, um die beiden auch im Morningstar-Artikel favorisierten Anlageklassen "Managed Futures" und "Market Neutral" mit den prinzipiell und somit dauerhaft geringsten Korrelationen als einzig sinnvolle auszuwählen und zu allokieren, siehe mein Beitrag vom Die Statitik ist also nicht nur zur Portfoliokonstruktion und zum Schutz gegen offene Messer wichtig, sondern für den gesamten Investmentprozess mit Alpha vom Theorieverständnis bis zur Alpha-Manager- und -Fondsauswahl.

Ich kann seinen Blog für alle an reinem Alpha ernsthaft Interessierten sehr empfehlen. Denn Niels verfolgt die zum Finanzwesir komplementäre Mission der Demokratisierung von reinem Alpha durch systematisches Trading. Das Portfolio aus Alpha und Beta zusammenbasteln darf sich dann jeder selber, wie hier auch Nein, natürlich kann ich dafür keine Halbwertszeit angeben.

Es sind trotzdem nur Theorien und Modelle, mit denen man versucht die Realität zu beschreiben und besser zu verstehen, und das gelingt nur mit begrenzter Genauigkeit. Damit lässt sich die Zukunft leider nicht vorhersagen. Einerseits weil die Finanzwelt sich ändert, die Märkte entwickeln sich weiter.

Und andererseits kennt man die zukünftigen Modellparameter nicht, daher ist die MPT für den praktischen Anlage-Gebrauch ziemlich nutzlos. Es ist allerdings ein schönes Spielzeug für Backtests und dergleichen, und um ein besseres Verständnis für Diversifikation und den Rendite-Risiko Zusammenhang zu bekommen. Für diejenigen, die sich für die mathematischen Aspekte etwas mehr interessieren, hier eine Einführung: Calculating the Efficient Frontier.

Alpha ist die Differenz aus realisierter Rendite und per Beta prognostizierter Rendite, das hat mit Korrelation zu Beta erstmal gar nichts zu tun. Alpha wird rückwärts-schauend bestimmt, es kann also auch verschwinden oder sich komplett zum Nachteil realisieren. Glückwunsch, dass du auf die richtigen Alternativen gesetzt hast und nicht auf die falschen Alternativen, wie z.

Klar kann man einen Regentanz aufführen und danach wird es auch mal regnen, d. Man hätte sich den Regentanz auch sparen können und es hätte vielleicht trotzdem geregnet Das ist doch genau der Punkt, du hast dich dafür entschieden, das so zu machen. Du willst mehr Rendite und akzeptierst dafür ein etwas höheres kurzfristiges Risiko, das ist deine persönliche Entscheidung.

Und diejenigen, die kein höheres kurzfristiges Risiko eingehen wollen, mischen einfach risikoarme Anlagen zu ihren Aktien und akzeptieren eine geringere Renditeerwartung, das ist deren persönliche Entscheidung. Na das ist bei dem nachgewiesen und höchst anerkannt Erreichten an Verständnis doch für ein reflexives soziales System schon mal enorm viel für die ebenfalls begrenzt genauen Ziele, die man sich damit setzen kann.

Denn ich strebe ja keine genaue absolute Gesamtrendite an, sondern eine, die. Und diese Ziele konnte ich fast 20 Jahre lang bis heute durchgängig erreichen.

Das sollte auch für die Nichtzufälligkeit des Ergebnisses sprechen, das damit die Anforderungen des t-Tests der Statistik erfüllt. Das ist nur eine Frage der Genauigkeit.

Im Rahmen meiner Ziele ist das vorhersagbar und auf Basis der Verhaltensökonomie, die die mittelfristige Vorhersagbarkeit von Preisentwicklungen nachgewiesen und nobelpreiswürdig logisch erklärt hat, auch verstanden. Und warum diversifizierst du dann selber extrem hoch mit Aktienindex-Fonds und Geldwertanlagen, wenn diese Hauptaussage der MPT praktisch so nutzlos sein sollte? Vergleich mal die heutige seriöse Anlagepraxis mit der bevor sich die Haupterkenntnisse der MPT verbreitet haben.

Sie erzielen mit der MVO angewendet u. Testen Sie Ihre Klasse geeignet. Es ist recht offensichtlich, dass diese relativ leicht zu knacken ist. Jahrhundert als Verbesserung der bis dahin gebräuchlichen Caesar-Chiffrierung entwickelt hat. Dabei wird als Schlüssel ein Wort festgelegt, genauer eine Zeichenfolge von n Zeichen. Zur Chiffrierung wird der Schlüssel nun hintereinander über den Klartext gelegt und dann die einzelnen Zeichen des Textes und des Schlüssels addiert. Ordnet man den Buchstaben die Zahlen 0 bis 25 zu, so kann man die Zeichen mittels der Formel berechnen.

Schreiben Sie ein Programm, das als Kommandozeilenargumente den Namen einer Textdatei sowie ein Schlüsselwort akzeptiert. Es soll sodann die Datei mit diesem Schlüssel chiffrieren und das Ergebnis in einer anderen Datei speichern. Implementieren Sie dabei die Chiffrierung in einer eigenen Klasse - analog zu der oben beschriebenen Klasse Caesar für das gleichnamige Verschlüsselungsverfahren.

In umfangreicheren Programmen werden Sie indessen nicht umhin kommen, einige der C-Funktionen zu verwenden. In diesem Abschnitt will ich Ihnen daher einen knappen Überblick über die wichtigsten Funktionen geben und Sie auf einige typische Anwendungsfälle hinweisen. Später werden wir uns dann einige Details herausgreifen. Die C-Abkömmlinge sind dabei wieder in eigenen Header-Dateien gekapselt, deren Name derselbe ist wie in Standard-C, allerdings ohne Erweiterung und mit dem vorangestellten Buchstaben c.

In diesen wird dann jeweils die eigentliche Header-Datei eingebunden. Beispielsweise verwenden Sie die Funktionen aus stdlib. Dann können Sie die Funktionen wie gewohnt aus Ihrem Code heraus aufrufen. Dieser Tipp ist jedoch nur für Implementierungsdateien sinnvoll, und dort auch nur, sofern keine Kollisionen mit anderen Funktionen Ihres Projekts zu befürchten sind.

Wenn Sie Datentypen der Standardbibliothek in Header-Dateien verwenden, ist ein solches Kommando generell unangebracht, da Sie nie im Voraus wissen können, in welche Programme dieser Header irgendwann einmal eingebunden werden soll.

In Header-Dateien ist es daher am besten, die Referenzierung der Elemente der Standardbibliothek explizit mittels eines vorangestellten std:: Näheres zu Namensräumen finden Sie ab Seite Andererseits schadet das using -Kommando auch hier nicht, so dass Sie es aus Gründen der Portabilität in diesem Fall der Aufwärtskompatibilität am besten stets in Ihren Code aufnehmen, sobald Sie eine Bibliotheksfunktion irgendeiner Art verwenden. Wenn Sie einen Blick in die jeweiligen Dateien werfen, werden Sie feststellen, dass die Prototypen teilweise nur ziemlich schwer lesbar sind.

Das liegt an den hohen Portabilitätsanforderungen von C, durch die manche Definitionen etwas trickreich gestaltet sein müssen. Darüber hinaus gibt es noch einige wichtige Funktionen, die nicht Teil der ISO-C-Bibliothek sind, da sie vom jeweiligen Betriebssystem abhängen und daher nicht portabel sind.

So gibt es zu so gut wie allen Bibliotheksfunktionen Beschreibungen, die Sie mittels des man -Kommandos aufrufen können. Wenn Sie beispielsweise wissen möchten, wie die Funktion sqrt definiert ist und in welcher Header-Datei sie sich befindet, geben Sie ein: Sie unterteilen sich in folgende Abschnitte, wobei nicht alle zwingend erforderlich sind: Hier stehen die Fehlerkonstanten, die für den jeweiligen Fall in der C-Bibliothek definiert sind.

Je nachdem, wie viele Pakete Sie installiert haben, kann es vorkommen, dass ein Stichwort mehrfach unter den man -Seiten vorhanden ist. Jeder Abschnitt deckt ein Gebiet des Umgangs mit dem System ab. Üblicherweise sind diese Bereiche wie folgt definiert: Auf Seite haben Sie ja bereits gesehen, wie Sie darauf zugreifen können.

Jeder bessere Taschenrechner kann trigonometrische Funktionen und beliebige Potenzierungen. Sie können vielfältige mathematische Funktionen nutzen. Sie haben dazu aber zwei Möglichkeiten: Sie programmieren selbst eine Funktion, etwa in rekursiver Form: Diese Funktion dürfte gerade dann deutlich schneller sein, wenn in Ihrem Programm häufig kleine Exponenten auftauchen. Weitere Funktionen in cmath sind: Wenn Sie also ganz sicher gehen wollen, dass Sie mit einer Zuweisung keinen Überlauf hervorrufen, prüfen Sie vorher den Wert ab, zum Beispiel: Einige hängen vom Betriebssystem beziehungsweise der Prozessorarchitektur ab.

Sie sollten also in Ihren Programmen nicht den Wert für Ihren Rechner eintragen, sondern lieber die Konstante verwenden. Damit bleibt Ihr Code portabel. Die obere Hälfte enthält dabei die ganzzahligen Werte aus der Datei climits und die untere die Gleitkommawerte aus cfloat. Wie soll das aber das Programm erfahren, wenn es einen Rückgabewert eines bestimmten Typs und keinen Fehlercode erwartet? Sehr viele Bibliotheksfunktionen geben, wenn sie ihre Arbeit nicht zufrieden stellend erledigen können, selbst -1 zurück und setzen errno auf einen konstanten Wert, der der Art des Fehlers entspricht.

Die symbolischen Konstanten für die Fehlercodes und die globale Variable errno sind in der Datei cerrno definiert. Was wir also brauchen, ist die Umsetzung des Fehlercodes in einen beschreibenden Text. Auch dazu bietet uns die C-Bibliothek Unterstützung, sogar in dreifacher Form: Die Funktion strerror ist lediglich eine Kapselung für den Zugriff auf diese Tabelle.

Im Extremfall kann es auch vorkommen, dass eine Funktion einen Fehlercode setzt, der in der Liste nicht enthalten ist. Da Sie dann einen Zeiger jenseits des Feldendes erhalten würden - mit all den bekannten Problemen -, sollten Sie vor dem Indizieren auf Einhaltung der Listengrenze prüfen.

Betrachten wir als Beispiel die Bildung der Quadratwurzel aus einer negativen Zahl. Die C-Bibliothek rechnet nicht mit komplexen Zahlen, weshalb hier ein Fehler auftritt.

Diesen wollen wir mit den gerade besprochenen Funktionen auswerten. Probieren Sie doch selbst mal aus, ähnliche Fehler zu provozieren und dann abzufangen! Fragen Sie den Inhalt von errno immer sofort nach dem Aufruf der Bibliotheksfunktion ab! Denn wenn Sie zwischendurch noch etwas anderes tun, könnte es bereits den nächsten Fehler geben.

Und selbst wenn alle Aufrufe erfolgreich sind, können doch in dahinter liegenden Unterfunktionen Fehler aufgetreten sein, die den Wert von errno beeinflussen. Hat dieses keine Vorkehrungen getroffen, um das Signal abzufangen, hält die Shell es an. Sicher kennen Sie die Verwendung von kill ohne weitere Optionen, nur mit der Prozessnummer, um hängen gebliebene Prozesse endgültig zu beenden.

Auch bei Prozessen gibt es Signale. Signale können aber auch von Prozessen absichtlich erzeugt werden, um andere Prozesse damit zu benachrichtigen.

Das Schicken von Signalen ist somit eine einfache Form der Interprozesskommunikation. Die Datei csignal definiert Konstanten für alle Signale. Die wichtigsten finden Sie in Tabelle 3. An dieser sehen Sie auch, dass die Ausnahmezustände, die durch Signale beschrieben werden, vielfach sehr schwer wiegend sind und letzte Meldungen eines sterbenden Prozesses darstellen.

Da ein Signal aber nicht in einer globalen Variablen hinterlegt ist, müssen Sie der jeweiligen Funktion die Signalnummer mit übergeben. Signale versenden Ein Prozess kann Signale sowohl an sich selbst als auch an andere Prozesse schicken. Wie man einen solchen Mechanismus aufbaut, erkläre ich Ihnen gleich.

Wenn Sie ein Signal an einen anderen Prozess schicken wollen, benötigen Sie zunächst dessen Prozessnummer. Wie wir bereits auf Seite und folgende gesehen haben, kann man diese entweder mittels des ps -Kommandos oder über die Funktion getpid bestimmen. Diese übergeben Sie dann zusammen mit dem gewünschten Signal an die Funktion kill , welche folgende Signatur hat: Mögliche Fehler sind unter anderem, dass kein Prozess mit der übergebenen Nummer existiert oder die Signalnummer nicht gültig ist.

Signale abfangen Um ein Signal abzufangen, verwenden Sie die Funktion signal. Diese ist deklariert als: Zerlegen wir also diese Deklaration, um sie besser verstehen zu können: Der Funktionsname, das dürfte klar sein, ist signal. Das erste Argument vom Typ int soll sicher die Nummer des Signals sein, das wir abfangen wollen. Was brauchen wir also noch?

Eine Reaktion, wenn das Signal eintrifft; am besten sollte eine von uns bereitgestellte Funktion aufgerufen werden. Dieser Wunsch wird uns auch erfüllt; denn das zweite Argument ist ein Zeiger auf eine Funktion , die void zurückgibt und einen int -Wert erhält.

Ein derartiger Funktionszeiger ist auch der Rückgabetyp von signal , was die Deklaration zusätzlich verkompliziert. Beide Konstanten können Sie auch an signal übergeben. Wir wollen ein kleines Programm betrachten, das sich nicht - wie sonst üblich - mit dieser Tastenkombination stoppen lässt. Eine kleine Pause ist in Form der sleep -Funktion eingebaut. Diese wartet die als Parameter angegebene Zeit in Sekunden, bevor sie die Programmausführung fortsetzt.

Die Funktion sleep ist übrigens in der Header-Datei unistd. Wie kann man das Programm aber trotzdem beenden? Die dazu nötige Prozessnummer könnte man sich aus der durch ps aux oder Ähnliches erhältlichen Liste heraussuchen. Es geht aber auch etwas einfacher. Und ein Druck auf diese Tasten hält das Programm augenblicklich an. Dabei wird sogar die Prozessnummer ausgegeben, etwa: Entsprechend oft wird dann auch Ihre Reaktionsfunktion aufgerufen.

Sie sollten sich also merken, ob Sie bereits das Herunterfahren Ihres Programms initiiert haben oder nicht, damit Sie diesen Befehl nicht zweimal geben. Da ist es sinnvoll, wenigstens Möglichkeiten der Konvertierung in andere Datentypen zu kennen. Für elementare Datentypen bietet diese Header-Datei die Deklarationen einiger Bibliotheksfunktionen an. Im Einzelnen sind das: Die Verwendung ist so einfach, dass Sie damit sicher auch ohne Beispiel von mir zurechtkommen.

Im Grunde handelt es sich bei diesen Funktionen nur um Kapselungen der allgemeineren Funktionen strtol und strtod. Diese führen zwar noch eine zusätzliche Fehlerprüfung durch, haben aber eine so gewöhnungsbedürftige Syntax, dass ich sie nur Profis empfehlen würde. Zufallszahlenerzeugung In vielen Programmen, beim Testen, bei Spielen oder bei Simulationen ist die Verwendung von zufällig erzeugten Werten sinnvoll. Die C-Bibliothek bietet Ihnen gleich zwei Funktionen dazu an: Aber letztlich werden Sie diese Unterschiede wohl nur selten merken.

Sie wissen sicher, dass Zufallszahlenalgorithmen nur pseudo-zufällig arbeiten. Sie sind stets abhängig von einem Initialwert. Ist dieser gleich, so werden zur gleichen Zeit auch die gleichen Zufallszahlen erzeugt. Diesen Initialwert können Sie mit der Funktion srandom setzen. Wenn Sie also ganz sicher gehen wollen, dass bei jedem Programmlauf etwas anderes erzeugt wird, initialisieren Sie den Zufallsgenerator am besten mit der Uhrzeit: Wenn Sie so etwas vorhaben, müssen Sie auf eine genauere Timer-Funktion wie ftime oder gettimeofday zurückgreifen.

Als Beispiel nehmen wir uns ein Feld aus sechs Elementen und füllen es mit Zahlen zwischen 1 und 49 - wie beim Lotto. Wir müssen nur aufpassen, dass keine Zahl doppelt erscheint. Sie haben sich sicher schon gedacht, dass dies als Abkürzung für unsigned int gemeint ist.

Hier könnten Sie etwa von int auf long umschalten, ohne dass der restliche Code geändert werden müsste. Quick-Sort Ein Feld zu sortieren ist eine häufig vorkommende Aufgabe. Von den verschiedenen Verfahren, die es dafür gibt, ist der Quick-Sort-Algorithmus eines der effizientesten.

Erstere werden wir hier verwenden, auch wenn ich Ihnen für Ihre langfristige Programmierarbeit eher zur anderen Version rate. Die Funktion qsort ist ebenfalls in cstdlib deklariert. Zum einen arbeitet die Funktion auf dem Feld, das durch einen Zeiger auf void definiert ist.

Daher muss der Benutzer selbst eine Vergleichsfunktion schreiben und als Argument übergeben. Der Prototyp ist damit: Wie Sie sehen, muss diese int zurückliefern und zwei Feldelemente in Form von konstanten Zeigern auf void verarbeiten können.

Anwenden wollen wir die Funktion auf unser Feld mit den Lottozahlen. Daher setzen wir qsort ein, um sie in die gewohnte Form zu bringen. Auch dafür gibt es in cstdlib deklarierte Funktionen. Man unterscheidet dabei zwischen der normalen Programmbeendigung und der abnormalen.

Für erste und das ist die empfohlene Methode! Wenn eine Variable mit dem angegebenen Namen übrigens nicht existiert, erhalten Sie einen Nullzeiger zurück. Dazu gehört das Lesen und Schreiben von Dateien. Ich hatte Ihnen schon mehrfach empfohlen, wo immer es geht, string -Objekte zu verwenden, da dabei die Gefahr von Fehlern wesentlich geringer ist. Manchmal ist die Verwendung von char -Strings aber leider unumgänglich, besonders im Zusammenhang mit Funktionen der C-Bibliothek und des Betriebssystems.

In diesem Abschnitt will ich Ihnen daher einige nützliche Funktionen zum Zugriff auf solche Zeichenketten und zu deren Manipulation kurz vorstellen. Die meisten davon sind recht einfach, so dass Sie bei Bedarf sicher schnell damit zurechtkommen werden. Dabei muss der Speicherplatz für dest schon bereitgestellt sein.

Auch hier muss bereits ausreichend Speicherplatz für dest vorhanden sein. Zudem dürfen sich die beiden Strings nicht schon vorher überlappen. Die Variante strncat hängt nur die ersten n Zeichen an. Die Funktion liefert einen Zeiger auf den Beginn des Teilstrings zurück; wird dieser aber nicht gefunden, ist der Rückgabewert 0.

Auf Beispiele will ich an dieser Stelle verzichten - auch weil Sie diese Funktionen eher als Ausnahme denn als Regel verwenden sollten. Das Fehlerrisiko ist beim Umgang mit char -Strings einfach zu hoch. Und falls Sie diese Klasse für zu aufwändig halten und zu viel Overhead darin sehen, sollten Sie wenigstens eine eigene Klasse erstellen, um die Speicherverwaltung für diese Zeichenketten zu kapseln und damit halbwegs sicher zu machen.

Genauere Informationen über fast alle Funktionen gibt das man -Kommando. Schlägt eine Bibliotheksfunktion fehl, gibt sie sehr oft -1 zurück und setzt die globale Variable errno auf einen Fehlercode. Mit den Funktionen perror und strerror lässt sich dieser in Klartext umwandeln. Signale zeigen unter Unix Ereignisse von Prozessen an. Mit Hilfe der Funktion signal können Sie in Ihren Programmen auf Signale reagieren und mit kill selbst welche versenden. Wollen Sie einen anderen Bereich, müssen Sie das Ergebnis entsprechend skalieren.

Dabei soll der Benutzer die Koeffizienten eingeben können. Überprüfen Sie alle möglichen Fehlerfälle, auch die der verwendeten mathematischen Funktionen. Verwenden Sie ein Feld, in dem Sie vermerken, welche Zahl wie oft geworfen wurde. Geben Sie dann die Häufigkeiten der einzelnen Augenzahlen aus. Dabei ist wobei a i die Häufigkeit der Zahl i sei. Erstellen Sie ein Programm sigempf , das auf eingehende Signale reagieren kann.

Es soll folgende Eigenschaften umfassen: Das Programm soll zudem einen Timer verwalten, der alle 5 Sekunden abläuft. Verwenden Sie dazu die Funktion alarm , für die Sie unistd. Stellen Sie sich vor, Sie arbeiten für einen Hersteller von Aquarien. Dieser bestimmt den Preis seiner Produkte, indem er das Volumen mit einem konstanten Faktor preisfaktor multipliziert.

Erstellen Sie einen kleinen Editor, der zeilenorientiert arbeitet. Dabei soll auf Kommandos, die der Benutzer eingibt, reagiert werden.

Folgende Kommandos soll das Programm unterstützen: Abspeichern des Editorinhalts in die Datei mit dem gegebenen Namen mit Überschreiben einer eventuell vorhandenen Datei x: Beenden des Programms 3. Dies ist in der Praxis jedoch nur bei kleinen Projekten der Normalfall. Sinn dieser Aufteilung ist es unter anderem, dass damit voneinander abgegrenzte Einheiten geschaffen werden, die von verschiedenen anderen Komponenten und Programmen genutzt werden können.

Handelt es sich um recht allgemeine Aufgaben, die von einer Komponente gelöst werden, so kann diese unter Umständen in mehreren Projekten eingesetzt, also wiederverwendet werden. Um nicht immer mit allen Objektdateien einer solchen Komponente hantieren zu müssen, fasst man diese zu einer Bibliothek zusammen.

Im dortigen Abschnitt haben wir auch bereits zwei Typen von Bibliotheken kennen gelernt: Eine statische Bibliothek wird bereits zur Compile-Zeit, genauer beim Verlinken des ausführbaren Programms, eingebunden. Bei einer dynamischen Bibliothek wird die Verbindung zwischen Programm und Bibliothekscode erst zur Laufzeit hergestellt.

Der Linker legt also lediglich Platzhalter an, über die dann bei Bedarf die eigentlichen Implementierungen gefunden werden. Aus diesem Grund kann ein solches Programm nur laufen, wenn ihm die benötigten dynamischen Bibliotheken zur Verfügung stehen. Beide Arten von Bibliotheken haben ihre Vor- und Nachteile, auf die ich in den jeweiligen Abschnitten eingehen will. Dementsprechend arbeiten die meisten Applikationen, die Sie unter Linux verwenden, mit dynamischen Bibliotheken.

Es gibt jedoch immer noch viele gute Gelegenheiten, wo Sie eine statische Bibliothek erzeugen und verwenden können, so dass diese nicht als bedeutungslos abgestempelt werden darf. In diesem Abschnitt wollen wir uns ansehen, wie Sie unter Linux sowohl statische als auch dynamische Bibliotheken erzeugen können.

Für die Verwaltung eines solchen Archivs steht uns das Werkzeug ar zur Verfügung. Übrigens kann ar nicht nur Objektdateien zusammenfassen, sondern ganz beliebige Dateien, also beispielsweise auch Texte.

Allerdings verwendet man es eigentlich nur für Objektdateien, in allen anderen Fällen kommt meist tar zum Einsatz.

Eine statische Bibliothek ist wie ein Vorratsrucksack, den jedes Programm individuell schultern muss. Wenn Sie die man -Seite von ar aufrufen, werden Sie feststellten, dass dieses Werkzeug eine Vielzahl von Optionen versteht.

Für das Erzeugen einer statischen Bibliothek brauchen Sie davon zum Glück nur wenige. Ähnlich wie bei tar geben Sie auch hier die Liste der Optionen als erstes Kommandozeilenargument an; das Minus davor darf entfallen.

Der erste Buchstabe steht für das Kommando, das Sie ausführen wollen, zum Beispiel d für Löschen delete , m für Verschieben ins Archiv move , r für Ersetzen, aber auch Hinzufügen replace und x fürs Extrahieren extract.

Die weiteren Buchstaben sind dann wirklich optional. So geben Sie ein c an, wenn Sie das Archiv erst erzeugen wollen es wird zwar immer erzeugt, wenn es nicht vorhanden ist, ohne das c aber mit einer Warnung , oder ein v , wenn Sie ausführliche Ausgaben haben möchten, was gerade passiert.

Eine wichtige Eigenschaft von solchen Archiven ist ihr Index. In diesem werden die Symbole aus den enthaltenen Objektdateien abgelegt. Der Linker benutzt diesen Index, um die passenden Einsprungpunkte für die jeweiligen Funktionen zu finden. Ohne einen solchen Index wäre eine Bibliothek für den Linker unbrauchbar.

Der Archiver ar sorgt dafür, dass der Index auch dann aktuell bleibt, wenn Sie einzelne Dateien des Archivs austauschen, löschen oder neu einfügen. Damit haben wir auch schon die Kombination von Optionen, die Sie normalerweise für die Erzeugung einer statischen Bibliothek verwenden: Das nächste Argument ist dann der Name der Bibliothek, gefolgt von einer oder mehreren Objektdateien.

Sie können eine Bibliothek in einem Befehl erzeugen, indem Sie alle Objektdateien, die enthalten sein sollen, hintereinander angeben. Sie können jedoch ar auch mehrfach für die gleiche Bibliothek aufrufen, etwa um eine Datei nach der anderen hinzuzufügen. Wenn Sie unsere Bibliothek libxy. Nur die Buchstaben zwischen diesen beiden Teilen werden an -l übergeben; so wird aus libxy.

Natürlich können Sie aber auch eine Bibliothek als Ganzes dem Linker übergeben wie eine normale Objektdatei, also unter Umgehung der Option -l. Handelt es sich um eine Bibliothek, die Sie lediglich zur Organisation Ihres Codes anlegen und die nicht in verschiedenen Projekten verwendet werden soll, ist diese zweite Variante völlig ausreichend.

Dann fällt beispielsweise auch die Namenskonvention weg. Wie bei allen anderen Funktionen so müssen Sie auch Bibliotheksfunktionen erst deklarieren, bevor Sie sie verwenden können siehe Seite Wie üblich erfolgt die Angabe des Prototyps beziehungsweise der Klassendeklaration in einer Header-Datei. Wenn Sie also Ihre Bibliothek in mehreren Projekten verwenden möchten, müssen Sie dafür sorgen, dass die Header der Bibliotheksfunktionen in jedem Projekt erreichbar sind entweder durch die Pfadangabe mit der Compiler-Option -I , durch symbolische Links im Dateisystem oder durch einfaches Kopieren.

Wenn Sie wissen möchten, welche Funktionen und andere Symbole sich in einer Bibliothek befinden, können Sie das Kommando nm verwenden. Dieses funktioniert sowohl für statische als auch für dynamische Bibliotheken. Die Ausgaben, die es produziert, sind etwas unübersichtlich, daher sollten Sie diese Ausgaben am besten in eine Datei lenken oder über eine Pipe an Kommandos wie grep weiterreichen.

Wenn Sie beispielsweise wissen möchten, ob eine Funktion namens getEntry in der Bibliothek libcppdir. Klassenname und Methodenname werden - getrennt durch eine Zahl - aneinander gehängt. Der häufigste Einsatz von nm ist in der Tat die Suche. Mehr Informationen zu nm finden Sie auf der zugehörigen man - oder info -Seite. Warum verwendet man eigentlich statische Bibliotheken? Dafür gibt es mehrere Gründe: Zum einen werden dadurch die Bestandteile einer Software sauber voneinander getrennt.

Dadurch können die Verantwortlichkeiten für einzelne Teile des zu entwickelnden Softwaresystems gut gegeneinander abgegrenzt werden. Aber auch wenn Sie nur allein an einem Programm arbeiten, ist es oft sinnvoll, in sich mehr oder weniger geschlossene Teile des Systems zu einer Bibliothek zu machen, um sie vom Rest zu trennen. Zum anderen können Sie insgesamt die Übersichtlichkeit über ein Projekt verbessern, indem Sie es in einzelne Bibliotheken aufteilen.

Diese Vorkompilierung kann Ihnen letztlich einige Compile-Zeit ersparen - auch wenn dieses Argument angesichts heutiger Prozessorgeschwindigkeiten erheblich an Bedeutung verloren hat. Hier wäre es völlig unpraktisch, wenn Sie alle einzelnen Objektdateien weitergeben müssten. Eine Bibliothek zu vertreiben, ist auch unter diesem Gesichtspunkt sinnvoll.

Wenn Sie sich jedoch dafür entscheiden, Ihre Bibliothek als Open Source freizugeben, müssen Sie sich noch ein passendes Lizenzmodell auswählen. Das kann auf viele potenzielle Nutzer abschreckend wirken. Näheres dazu erfahren Sie auf Seite Zugriff auf Verzeichnisse Auch in diesem Abschnitt möchte ich Ihnen die Vorgehensweise wieder anhand eines Beispiels erklären.

In diesem werden wir vier weitere Funktionen der C-Bibliothek kennen lernen, die nicht zu den Gruppen aus Abschnitt 3. Sie dienen dazu, die Einträge von Verzeichnissen zu bestimmen und auszuwerten. Die Funktion opendir öffnet das Verzeichnis, das als Parameter angegeben ist, und gibt einen Zeiger darauf zurück. Mit Hilfe dieses Zeigers können wir uns Zugriff auf die weiteren Einträge verschaffen. Ist die Rückgabe ein Nullzeiger, ist die Funktion fehlgeschlagen - wahrscheinlich gibt es das angegebene Verzeichnis einfach nicht oder das Programm hat nicht die nötigen Zugriffsrechte.

Mit readdir können wir ein Element nach dem anderen auslesen. Solange die Funktion einen Wert ungleich 0 zurückgibt, hat sie einen neuen Eintrag gefunden. Wiederhole den Aufruf von readdir so oft, bis der Rückgabewert 0 ist. Diese Informationen sind direkt mit der jeweiligen Datei verknüpft; über die Funktion stat können wir sie bestimmen. Dabei schreibt stat sie in eine Struktur vom Typ stat.

Dazu verwenden wir ein Objekt vom Typ std:: Mehr dazu finden Sie ab Seite Dort gibt es auch einen kleinen Schönheitsfehler: Interessant ist also eigentlich nur die Methode setDir , denn hier setzen wir readdir und stat auch wirklich ein.

Eine ähnliche Funktion wie readdir , allerdings mit einer etwas anderen Aufgabe und anderen Schnittstelle, ist glob. Hiermit können Sie die Einträge eines Verzeichnisses auf einmal einlesen; diese werden in einem Puffer abgelegt. Das Besondere ist, dass Sie die Einträge nach einem Muster auswählen können - in gleicher Weise, wie Sie das auch bei ls oder rm machen.

Im Gegensatz zu readdir bezieht sich glob immer auf das aktuelle Verzeichnis; wollen Sie ein anderes untersuchen, müssen Sie erst in dieses wechseln mittels chdir. Wir bauen also wieder eine Klasse, analog zu Directory , und nennen sie Globber. Die Methode runMatch sucht nach Verzeichniseinträgen und speichert die gefundenen in einen Vektor ab.

Beide Klassen zusammen wollen wir als Bibliothek zur Verfügung stellen. Dazu sind beim Übersetzen die folgenden drei Befehle notwendig: Wenn Sie sie in einem Programm nutzen möchten, brauchen Sie dazu diese Bibliothek selbst, aber auch die Header-Dateien directory. Zum Linken der Bibliothek verwenden wir die Option -l , so dass der dazu nötige Befehl lautet: In der Praxis geben Sie diese ganzen Befehle natürlich nicht immer von Hand ein, sondern schreiben sie in eine Make-Datei.

Auch bei den Beispieldateien zu diesem Kapitel finden Sie ein passendes Makefile. Zu jedem Programm wird die Bibliothek hinzugebunden, was einer Verschwendung von Festplattenplatz gleichkommt. Aus diesem Grund gibt es noch eine andere Art, Bibliotheken zu nutzen, nämlich dynamisch. Das bedeutet, dass erst zur Laufzeit Verbindung mit der Bibliothek aufgenommen wird; diese befindet sich dabei in einer separaten Datei, die von der Programmdatei getrennt ist. Dynamische Bibliotheken können daher von mehreren Programmen gemeinsam verwendet werden.

Im Folgenden wollen wir uns ansehen, wie Sie dynamische Bibliotheken erzeugen, auffinden und nutzen können. Ich beschränke mich hierbei auf die so genannten " shared libraries " ; es gibt unter Linux noch eine andere Art von dynamischen Bibliotheken, die wir in diesem Rahmen aber leider nicht behandeln können. Eine dynamische Bibliothek gehört niemandem allein; wie beim Fernseher können alle gleichzeitig reinschauen. Das gravierendste Problem bei dynamischen Bibliotheken ist die Versionierung.

Genauso wie Programme werden auch Bibliotheken weiterentwickelt und neue Versionen entstehen. Befindet sich auf Ihrem System ein Programm, das - sagen wir - die Version 1.

Unter Windows kennen Sie diese Situation sicher: Kaum hat man ein Programm installiert, schon funktioniert ein anderes nicht mehr. Unter Linux ist die Situation zum Glück nicht so dramatisch. Hier können mehrere Versionen einer Bibliothek nebeneinander existieren und von ihren jeweiligen Programmen genutzt werden.

Das erfordert allerdings Disziplin beim Entwickler - und Verständnis für die Mechanismen. Der Dateiname einer dynamischen Bibliothek shared library muss einige Konventionen erfüllen, damit dieses Versionierungskonzept funktioniert. Es gibt sogar mehrere Namen für eine Datei.

Doch der Reihe nach: Die Versionsnummer wird immer dann erhöht, wenn sich die Schnittstelle der Bibliothek ändert. Sind nur Fehler beseitigt oder Implementierungen verbessert worden, sollte lediglich die Unterversionsnummer erhöht werden. Dadurch wird erreicht, dass ein Programm, das für eine bestimmte Version einer Bibliothek geschrieben wurde, auch mit einer neueren Version noch läuft, sofern diese dieselbe Schnittstelle hat. In unserem Beispiel etwa legen wir die Datei libcppdir.

Neben diesem eigentlichen Namen gibt es noch den so genannten " so " -Namen. Darunter versteht man den Dateinamen ohne Unterversions- und Release-Nummer, also libcppdir. Programme sollten sich auf diesen Namen beziehen, wenn sie eine dynamische Bibliothek benötigen. Normalerweise ist der so-Name nur ein symbolischer Link auf die eigentliche Datei.

Wenn Sie selber ein Programm schreiben, das eine dynamische Bibliothek benötigt, so müssen Sie beim Linken ebenfalls einen Dateinamen der Bibliothek angeben. Auch wenn die Bibliothek erst zur Laufzeit tatsächlich verwendet wird, muss sie bereits beim Linken des Programms verfügbar sein, damit der Linker entsprechende Sprungbefehle zu den Bibliotheksfunktionen im ausführbaren Programm vorbereiten kann.

Für den Linker gibt man den Namen der Datei wie üblich mittels der Option -l an. Dieser entspricht dem so-Namen, allerdings ohne die Versionsnummer, also beispielsweise einfach libcppdir.

In der Praxis wird dies durch einen weiteren symbolischen Link realisiert, diesmal auf den so-Namen bei Bedarf aber auch auf die eigentliche Bibliothek, gegebenenfalls in einer anderen Version. Wie findet das System nun die richtige dynamische Bibliothek, die ein Programm benötigt? Wenn Sie unter Linux ein Programm starten, so starten Sie gleichzeitig auch den so genannten Loader , der die von Ihrem Programm benötigten Bibliotheken findet und in den Speicher lädt.

Wenn Sie sich diese Datei ansehen, werden Sie feststellen, dass darin die wichtigsten Verzeichnisse vorkommen, in denen dynamische Bibliotheken zu finden sind.

Die Datei kann bei der Installation von Programmpaketen zum Beispiel durch rpm angepasst werden. Es wäre allerdings sehr ineffizient, bei jedem Programmstart alle diese Verzeichnisse zu durchsuchen. Daher legt das System einen Cache an, eine leicht zu durchsuchende Merkliste, welche Datei sich wo befindet. Sie wird bei der Installation von Bibliotheken, bei Bedarf aber auch beim Systemstart oder beim Mounten zusätzlicher Laufwerke aktualisiert.

Das Werkzeug dazu ist ldconfig. Dabei aktualisiert es im Normalfall die Links von den so-Namen auf die eigentlichen Dateinamen, legt solche an, wo sie noch nicht vorhanden sind, und bringt den ld-Cache auf den neuesten Stand. Wir werden ldconfig nur mit der Option -n verwenden. Die dort aufgeführten Verzeichnisse werden noch vor den konfigurierten durchsucht.

Diese Technik sollte nicht zum Standard werden; für die Entwicklung und Tests eignet sie sich indessen sehr gut. Daraus können Sie auch schon erkennen, wo Sie dynamische Bibliotheken ablegen sollten: Nun können wir uns endlich daran machen und eine dynamische Bibliothek erzeugen. Dabei müssen wir aber gleich wieder aufpassen, und zwar aus folgendem Grund: Normalerweise - bei ausführbaren Programmen und statischen Bibliotheken - kennt der Linker alle Speicheradressen im Programm und kann die Zugriffe und Sprungbefehle entsprechend an die richtige Stelle zeigen lassen.

Bei dynamischen Bibliotheken passiert das erst zur Laufzeit des Programms. Daher darf die Bibliothek keinen festen Adressraum verwenden, denn der könnte schon vom Programm, das sie nutzt, belegt sein.

Alle Quelltextdateien für eine dynamische Bibliothek müssen mit dieser Option übersetzt werden. In unserem Beispiel aus Abschnitt 3. Zum einen ist es -shared.

Damit wird angegeben, dass eine dynamische Bibliothek shared library erzeugt werden soll. Bei dieser weiterzureichenden Optionenliste müssen jedoch die Leerzeichen durch Kommas ersetzt werden, um sie von den Optionen, die direkt für den GCC selbst bestimmt sind, unterscheiden zu können.

Der gesamte Befehl lautet dann: Im Dateisystem haben wir diesen damit noch nicht. Das erledigt ein Aufruf von ldconfig mit -n , um nicht auch noch die Systempfade zu aktualisieren: Ein Blick ins aktuelle Verzeichnis bestätigt das: Dabei können wir exakt genauso vorgehen wie bei einer statischen Bibliothek: Noch ein Hinweis auf ein weiteres Tool: Mit ldd können Sie sich alle dynamischen Bibliotheken auflisten lassen, die ein Programm benötigt und die vom Loader auch tatsächlich geladen werden.

Das sollten Sie beachten, wenn Sie Ihre Programme weitergeben. Auch wenn Sie alle diese Konventionen beachten, kann es vorkommen, dass ein Programm nicht mehr mit einer neuen Version einer dynamischen Bibliothek zusammenarbeitet. Es sollte mittlerweile klar sein, dass eine Kompatibilität bei einer veränderten Schnittstelle sicher nicht mehr gewährleistet werden kann, wenn also Funktionen weggefallen sind, ihre Signaturen modifiziert wurden oder ihre Bedeutung beziehungsweise die ihrer Parameter sich geändert haben.

Aber auch weniger offensichtliche Änderungen können zu Inkonsistenzen führen. Neue virtuelle Funktionen wurden hinzugefügt. Die Tabelle mit den virtuellen Funktionen einer Klasse die so genannte " vtable " wird nämlich bereits beim Kompilieren erzeugt. In der Klassenhierarchie kamen zwischendrin neue Klassen hinzu. Eine öffentliche oder geschützte Methode wurde in einer neueren Version als inline deklariert.

Eine protected -Methode wurde entfernt. Dass dies für public -Methoden problematisch ist, dürfte offensichtlich sein. Wissen Sie, warum das auch für protected -Methoden zu Konflikten führt?

Ein privates Attribut wurde hinzugefügt. Sie sehen also, dass Sie mit Änderungen an dynamischen Bibliotheken sehr vorsichtig sein müssen. Leider ergeben sich nämlich Inkompatibilitäten sehr viel schneller, als man denkt.

Wenn Sie dynamische Bibliotheken erstellen, sollten Sie also die Versionierung sehr behutsam und umsichtig angehen und durch viele Tests absichern. Statische Bibliotheken sind Sammlungen von Objektdateien. Sie werden zu den ausführbaren Dateien unmittelbar dazugebunden. Sie erzeugen und pflegen statische Bibliotheken mit dem Werkzeug ar.

Der Standardaufruf ist ar rcs libname. Das erleichtert vor allem die Suche. Gerade um den Code umfangreicherer Projekte zu strukturieren, sind statische Bibliotheken auch heute noch eine sinnvolle Möglichkeit. Dynamische Bibliotheken, so wie wir sie hier betrachtet haben, bezeichnet man auch als "shared libraries". Sie werden erst zur Laufzeit vom Programm aus angesprochen und können daher von mehreren Programmen gleichzeitig verwendet werden, was natürlich Speicherplatz spart.

Die Versionsnummer sollte immer bei einer Änderung der Schnittstelle oder der Klassenstrukturen erhöht werden. Ich habe für mich für 2 passive Säulen entschieden.

Meine verschiedenen Geschäftsmodelle im Internet und meine Investments, welche vollständig auf Cashflow ausgerichtet sind. Beide Elemente haben wieder viele Unterlemente.

Generell ist mein Plan und der funktioniert zumindest bisher sehr gut , nur bei Bedarf Geld aus meinen Investments zu entnehmen, was bis heute noch nie vorgekommen ist und vermutlich und hoffentlich nie passiert. Bevor man sich über die optimale Entnahmestrategie Gedanken macht, sollte man sich Gedanken über die für die Entnahmephase optimale Anlagestrategie machen. Dafür ist es optimal, wenn man nicht die Vola sondern den MDD minimiert Bankrottsicherheit und die durchschnittliche Rendite maximiert hohe Entnahmen.

Jahrhundert im Westen zwei Mal im Osten drei Mal, so gut wie möglich gerüstet zu sein. Der Vergleich von aktuell berechenbaren Renditen gesetzlicher und privater Altersvorsorge hat über Jahrzehnte kaum Bedeutung. Von Interesse wäre dann noch, wie man die Entnahmestrategie und den späteren Rentenbeginn optimiert. Warum nicht gleich Aktien — damit ist man dann auch gegen Währungsturbulenzen nicht aber gegen galoppierende Inflation abgesichert.

Auch Finanzkatastrophen beschädigen solide Unternehmen mit solider Bilanz mittelfristig kaum bzw. Daher halte ich ein Portfolio aus soliden Qualitätsaktien für sehr krisensicher und sehe das als Basis der Entnahmephase an. Aber Achtung mit Korrelation: Korrelationen sind oft unstabil: In einer Krise gehen die meisten Preiskorrelationen von Assets auf 1, und die üblicherweise zu den anderen Assets antikorrelierten Assets sind auch nichts, was ich im Portfolio haben will: Bundesanleihen werfen nix ab und Gold ist hoch volatil.

Ich glaube daher, dass ein Ansatz über Korrelationen nicht hilft — oder kennst Du einen Ansatz, Assets zu finden, die auch in Krisensituationen unkorreliert bleiben? Wenn man das als Versicherung sieht, steht das Thema Rendite eben nicht im Mittelpunkt, sondern die Absicherung. Wenn sich so etwas änliches wie ff ereignet, siehst du mit einem Aktien only Depot aber sehr lange sehr alt aus. Und es gibt nach meiner Erfahrung etliche interessante Anlageklassen mit sehr interessanten Korrelationseigenschaften.

Aktien korrelieren, da die durch den überwiegenden Immobilienbesitz ein unterschiedliches Ertragsprofil aufweisen. Bin seit fast 20 Jahren sehr zufrieden mit meinem unter diesen 3 Anlageklassen etwa gleichgewichteten Depot, das in den beiden letzten Crashs ein stark vermindertes MDD hatte und tolle Chancen zum opportunistic Rebalancing geboten hat, die ich natürlich genutzt habe.

Ich plane während der Entnahmephase auch nix daran zu ändern, da ich über die gesamte bisherige Haltezeit ausnahmslos immer ausreichend Einzelwerte im Depot hatte, die ich mit deutlichem Kursgewinn hätte verkaufen können und das zum Rebalancing dann auch reilweise getan habe.

Ist allerdings nicht ganz einfach, die Richtigen zu finden. Des weiteren erhoffe ich mir, dass die MFFs und ARFs bei sich anbahnenden katastrophalen Währungskrisen, -schnitten oder Hyperinflation, wie im letzten Jahrhundert im Westen 2 mal und im Osten 3 mal vorgekommen, blitzschnell adequat reagieren und das Schlimmste verhindern. Danke jedenfalls für Deine Hinweise. Ich schrieb ja auch, dass Aktien kein Mittel gegen Inflation sind ich bin aber auch sehr überzeugt, dass wir in den nächsten Jahren keine nennenswerte Inflation oder hohe Zinsen sehen werden, wenn nicht das komplette Finanzsystem vorher zusammenbricht und neu gestartet werden muss.

Ich habe mich mit Managed Futures Fonds noch nicht beschäftigt, werde mich aber mal darüber schlau machen. Denn ich glaube, dass die Rahmenbedingungen, unter denen Fonds-Manager in KAGn arbeiten, überwiegend keine langfristig gute Performance ermöglichen. Auch sehe ich keinen Vorteil von Fonds ggü.

Aurelius oder Blue Cap. Wesentlich ist ja auch gar nicht so sehr die Preiskorrelation — was man braucht, sind stabile Cashflows, auch in einer Krise.

Immobilien können ein Ansatz sein, ich bin mir aber unsicher, ob in Deutschland Immobilien ein krisensicheres Investment sind, da man als Vermieter im Zweifel nicht zahlende Vermieter gar nicht los wird kann und negativen Cashflow hat. Aber auch hier würde ich wegen der mangelnden Transparenz von Fonds lieber auf Immobiliengesellschaften oder Beteiligungsgesellschaften mit Immobilienschwerpunkt setzen z.

Dass Du mit Deinem Ansatz gut über die letzten Krisen gekommen bist, ist natürlich wirklich super. Jeder muss halt seinen Ansatz finden, und viele Wege führen zum Ziel ich fand es für mich z.

Nur damit alle Anhänger von Aktien only wissen wie hart und lang so etwas sein kann: Wer kurz davor ausgestiegen wäre, hätte nur mit 2. Und darin, dass solche Worst Case Scenarien in der Zukunft meist irgendwann sogar übertroffen werden, begründet sich mein Herumreiten auf möglichst vielen möglichst gering bis negativ korrelierten Assets, gleichverteilt investiert.

Und dazu gehört für mich vor allem 1 das eigene Humankapital, das ich nie durch früher als unbedingt notwendiges Ausscheiden aus dem Arbeitsprozess unnötig aufs Spiel setzen würde, 2 gesetzl.

Fehlt hierbei noch etwas, um die Absicherung nach Pareto mit geringem Aufwand deutlich zu verbessern? Da Aktien primär Sachwerte verbriefen, verstehe ich nicht, warum sie kein Mittel gegen Inflation sein sollen. Und worin begründet sich deine gewagte Langfristprognose zur Inflation? Von Market Timing lasse ich auch die Finger bzgl.

Mehrrendite bringt, die m. Die einzige Voraussetzung für das Funktionieten ist, dass die allokierten Assets Mean Reversion aufweisern. Einzelaktien oder auch die Aktien oder Anleihen einzelner Länder.

Meine allokierten ALs bzw. MFFs oder ARFs sind allerdings nichts anderes als meist täglich handelbare Hedgefonds, die gerade durch ihre Rahmenbedingungen besondere Talente anziehen, die wissenschaftlich nachgewiesen nachhaltig Überrenditen generieren.

Das muss man als Anleger jedoch durch sorgfältiges Due Diligence sicherstellen. Wer sich mit Beteiligungsgesellschaften gut auskennt, für den sind die sicher auch ein gangbarer Weg für gering korrelierte Assets.

Die haben aber m. Das verstehe ich nicht. Natürlich müssen alle Anlagen dazu ausreichend liquide sein. Daher ziehe ich ja u. Verstehe ich auch nicht. Hier sollte man beachten, dass der Dow Jones ein Kursindex ist, in den ausbezahlte Dividenden nicht mit einberechnet werden. Dadurch braucht er deutlich länger zur Erholung als ein Performance-Index, der die tatsächliche erzielte Rendite deutlich besser abbildet. Der hatte sich inkl. Dividenden und inflationsbereinigt nach dem Crash innerhalb von 8 Jahren wieder erholt.

Nach 15 Jahren wurde das Niveau von nicht wieder unterschritten Quelle: Wenn diese Überrendite wissenschaftlich nachgewiesen ist, dann hast du dafür doch bestimmt auch entsprechende Quellen zur Hand, oder? Thus, manager and strategy selection is important when allocating to these strategies. Damit hat sich mein Aufwand damit gefühlt mehr als bezahlt gemacht.

Und viel Nützliches gelernt habe ich auch dabei, um den Finanzmarkt viel besser zu verstehen. Du schlägst ja beispielsweise vor, bei der Asset Allokation vor allem den MDD zu minimieren und weniger die Volatilität. Mehrrendite auch nicht einfach auf die Entnahme aufschlagen.

Zuletzt stellt sich natürlich auch noch die Frage: Wenn du deine Entnahmestrategie auf bestimmte Korrelationseigenschaften aufbaust, werden diese Korellationseigenschaften über deine gesamte Rentenphase hinweg Bestand haben?

Korellationen kommen und gehen, systematische Überrenditen werden wenn sie nicht z. Alle Anforderungen des Dreiecks lassen sich nicht systematisch gleichzeitig optimieren. Sicher erfüllen einige Strategien alle drei Anforderungen besser als andere, aber systematisch kann man höchstens einen Kompromiss aus allen dreien herstellen. Hallo Oliver, vielen Dank für deine kritische Auseinandersetzung mit meinen Vorschlägen.

Das regt sehr zum Reflektieren an. Volatilität habe ich mich wohl zu kurz ausgedrückt: Ich meinte, dass es besser sei, eher das m. Mit dieser Strategie sinkt gleichzeitig automatisch auch die für das SoRR relevante Volatilität des Gesamtdepots, ohne diese direkt über renditezehrende Barbestände steuern zu müssen.

Damit schafft man m. Ich meine, dass man somit das magische Dreieck doch ganz ohne Kompromiss geknackt hat. Denn die Entnahmeraten sind damit auf jeden Fall maximal und das Bankrottrisiko minimal. Dann schnallt doch jeder gern seinen Gürtel etwas enger und wartet so auf bessere Zeiten. Denn frei nach Goethe ist nichts schwerer zu ertragen als eine Reihe von guten Tagen, Jahren, Jahrzehnten…. Warum soll man die systematisch opportunistisch erzielte Rebalancingprämie nicht in erster Näherung 1: Die Rebalancingprämie ist m.

Insofern halte ich es für ein zulässiges pragmatisches Vorgehen, wenn man die im ersten Ansatz als 1: Auf jeden Fall sollte es sich so oder so lohnen, die mit der Auswahl passender Anlageklassen und Einzelanlagen zu maximieren, oder? Um die Frage nach der Stabilität bzw.

Studien haben ergeben, dass diese Strategie immer noch eine optimale Heuristik für langfristige Anlageentscheidungen bei unbekannter zukünftiger Entwicklung ist. Die zugrundeliegenden Risiken müssen also sehr systematisch sein.

Wie bei einem System kommunizierender hydraulischer Röhren bewegen sich die Kapital- Füllstände dieser 3 immer im Gegentakt, was nachhaltig gleichbleibend relativ geringe Korrelationen zur Folge hat. Sorry für die Überlänge. Diese Diskussion gefällt mir sehr gut, vermutich weil sie sich sehr an einem gemeinsamen einen Jeden betreffenden praktischen Ziel pragmatisch orientiert. Die Rebalancingprämie wird ja typischerweise in Form einer durchschnittlichen geometrischen Renditedifferenz angegeben.

Entscheidend für eine sichere Entnahmerate bzw. Deshalb muss man vorsichtig sein, diese Prämie einfach so auf die mögliche Entnahmerate aufzuschlagen — genauso wie man sich dafür hüten sollte, einfach die Durchschnittsrendite des Portfolios als Entnahmerate anzusetzen. Hallo Oliver, Ja klar. So einfach obendrauf addieren geht natürlich nie in der Finanzmathe. Sorry für meine schlampige Bemerkung. Das Vorteilhafte bei der von mir vorgeschlagenen Maximierung der Rebalancingprämie durch Diversifikation mit sehr gering und bei Einbrüchen sogar negativ korrelierten Assets mit aktienähnlicher Rendite ist, dass gleichzeitig die Volatilität und der kritischste MDD besonders deutlich reduziert werden.

Daraus ergeben sich sogar zwei Faktoren, die die mögliche Entnahmerate steigern: Daher lohnt sich nach meiner Erfahrung die mühsame Suche nach diesen speziellen Assets, auch wenn das auf den ersten Eindruck nicht spontan klar wird. Aber aus der geringen bis negativen Korrelation kommt eine unerwartete Renditepower für das Gesamtdepot, selbst wenn die keine höheren Einzelrenditen als Aktien aufweisen.

Mein Gurkenglas kann es nicht sein. Bei meiner letzten Antwort an Andreas habe ich mich evtl. Ich halte Anteile an 3 Hauptanlageklassen: Und ein spannendes Hobby ist es für mich noch obendrein. Daneben befülle ich freiwillig maximal die Rentenversicherungen von meiner Frau und mir, um auch deren unkorreliertes Ertragsprofil und hohe Absicherung maximal zu nutzen. Das Yale-Modell von David Swensen, das auch annähernd gleichverteilt in möglichst vielen gering korrelierten Anlageklassen anlegt, um einen möglichst gleichförmigen und werthaltigen Entnahmestrom nachhaltig auf ewig darzustellen, dient mir dabei als Vorbild.

Swensen macht das ganz ähnlich in Yale und nutzt lediglich Kurzläufer als Cash-Puffer. In der Entnahmephase plane ich dann umgekehrt vorzugehen, d. Die Bestimmung des Entnahmebetrages ist die schwierigste Aufgabe, aber mit der dargestellten Optimierung der Anlagestrategie m.

Zum Crash von Das Pleiteproblem und die Entnahmestrategie wäre damit sicherer gelöst. Wichtig ist nicht was oben raus mehr bekommen kann, sondern was man in den schlechten Zeiten noch mindestens bekommt. Ja, das Problem wäre mit einem Dividendenportfolio ganz gut gelöst, wenn du voraussetzt, dass diese Dividendenrendite auch für die nächsten Jahre inflationsbereinigt mindestens konstant bleibt.

Ein, zwei Firmenpleiten in einem meist wenig diversifizierten Dividendendepot oder generell sinkende Ausschüttungen können diesen Plan schnell umwerfen. Und dann musst du Anteile verkaufen. Ebenfalls Anteile verkaufen musst du, wenn du dein Kapital bis zu deinem Tod teilweise oder vollständig verbrauchen möchtest.

Viel wichtiger ist, ob die guten Zeiten oder die schlechten Zeiten zuerst kommen! Da das Portfolio durch die Entnahmen von Jahr zu Jahr schrumpft, bedeuten negative Renditen mit fortschreitendem Zeitverlauf immer weniger Verlust in absoluten Zahlen.

Das ist eben ein Problem, wenn man kapitalgewichtet den Markt ohne Berücksichtigung der Bewertung kauft. Das klappt gut, wenn man am Anfang eines Bullenmarktes, gepusht durch extrem niedrige Zinsen und Eingriff der Notenbanken steht. Inzwischen sind die Märkte aber sehr viel teurer geworden, wenn auch noch nicht so teuer wie in Japan Bewertungen scheinen bei diesen ganzen Markteffizienzportfolios überhaupt keine Rolle mehr zu spielen, weil der Markt ja immer fair bewertet. Markteffizientportfolios sind auch nicht optimal, wenn das Portfolio laufend bespart oder noch viel schlimmer entspart wird.

Dazu aber mehr in einem späteren Artikel. Aus meiner Sicht sind das alles sehr sehr theoretische statistische Planspiele. Die Unsicherheitsfaktoren sind aber kaum berücksichtigt. Genau mit diesen Unsicherheitsfaktoren steht oder fällt der Plan aber. Ich kann nicht prognostizieren wie sich die Besteuerung von Erträgen aus Kapital entwickelt. Steigt der Steuersatz, sinkt er oder bleibt alles auf die nächsten 30 Jahre gesehen gleich?

Werden sich die Renditen an den Aktienmärkten fortsetzen oder realisiert sich auch mal in den Renditen eingepreiste Risiko? Bleiben die Zinsen so wie sind und was passiert mit der Inflation? Das sind für mich eigentlich die entscheidenden Fragen und nicht wie ich Vergangenheitswerte anhand von Formeln in die Zukunft fortsetze und daraus meine Schlussfolgerungen ziehe. ETFs als Anlageform sind nun mal volatil und die Märkte und deren Entwicklung nicht prognostizierbar.

Dafür gibt es andere Strategien, z. Anleihen wären eine andere Möglichkeit. Ist das gebildete Kapital hoch genug evtl. Immobilien können eine Option sein. Oder man geht es klassisch an und mischt die ganzen Einkommensströme sogar.

Zu einer Strategie zählt für mich aber auch, dass man nicht alles auf Kante näht sondern Puffer einplant. Jemand der aus der Vergangenheit den Durchschnitt ableitet und dann genau an dem Tag an dem er genug Kapital hat den Stift fallen lässt und seine Strategie als erfolgreich ansieht hat meiner Meinung nach nichts verstanden. Bei einer volatilen Anlage muss ich auch schauen was ist der worst case und was ist der best case und mit welchen Szenarien muss ich evtl.

Dann wird schnell klar dass Aktien zwar auch im Alter eine Option sein können, aber ich evtl. So könnte ich z. Durststrecken von Jahren über Tagesgeld oder Festgeld kompensieren um dann in Jahren der Überschüsse diese Rücklagen wieder zu bilden. Oder aber meine Fixkosten über andere Anlageformen mit konstantem Einkommensstrom decken, variable Kosten z. Unter diesen Umständen werden panik- und giergetriebene Werteschwankungen zunehmen, da viele durch immer häufigeres Umschichten doch noch etwas mehr als den abnehmenden Durchschnittsertrag herausholen wollen.

Da auch die klassische Absicherung durch noch lange sehr niedrige Zinsen unterhalb der Inflation teuer bleiben wird, gehe ich lieber den Weg der Verbesserung meiner Chancen durch Diversifikation mit gering korrelierten liquiden alternativen Anlagen insbes. Wieviel Ertrag dann real herauskommen wird, ist beim vermeintlich systematisch abgesicherten Vorgehen mit rein klassischen Anlagen genauso offen wie bei der vorgeschlagenen Kombination mit unkorrelierten alternativen Anlagen, wobei ich mir vom letzteren Vorgehen aufgrund der signifikanten Umwälzungen insgesamt höhere Erträge erwarte.

Das ist auch nicht besser planbar aber auch nicht riskanter aber viel chancenreicher. Es ist nämlich i. Dieses Buch hat mir einen viel optimistischeren Blick auf die Zukunft voller neuer Chancen vermittelt.

Eine alte chinesische Weisheit drückt das ganz kurz aus: Wertschwankungen sind für den persönlichen Cashflow völlig egal und sogar sehr hilfreich, wenn man das Einkommen aus Dividenden und nicht aus Kursgewinnen bzw. Es gibt eigentlich nichts Hilfreicheres für den noch jungen Anleger, als ein Börsencrash. Geht der Kurs der Aktie nach unten wird sie billiger und man bekommt mehr Anteile für das gleiche Geld.

Dividenden werden pro Stück bezahlt, also sind sinkende Kurse nichts nichts Schlechtes per se, solange sie nicht das Resultat aufgrund von nachhaltigen wirtschaftlichen Problemen bei dem dahinterstehenden Unternehmen sind. Volatilität an sich ist langfristig kein Risiko, solange man nicht verkaufen muss. Und dennoch philophiert der Autor hier über die Probleme und Risiken einer Entnahmestrategie, warum das, wenn es doch egal ist ob man sein Einkommen aus dem Free-Cashflow der Unternehmen bezieht oder durch Verkäufe?

Die Dividendenrendite steigt wenn die Kurse fallen, zumindest unter der Voraussetzung, dass Dividenden nicht gekürzt werden, was auch in der Krise bei der überwiegenden Anzahl der Unternehmen nicht geschah.

Nach einem Kursturz steigt die Dividendenrendite rechnerisch eben entsprechend, obwohl die absolute Höhe konstant bleibt, ohne dass das die Fähigkeit des Portfolios zur Generierung zukünftigen Einkommens dadurch geschmälert wird. Der Buchwert ist für den Einkommensstrom irrelevant. Das ist ähnlich wie bei einem Mietshaus. Der Mietertrag bleibt konstant, auch wenn der aktuelle Verkaufswert fällt.

Sorry, aber die Steilvorlage konnte ich leider nicht auslassen. Vielleicht gibt dir das ein wenig zu denken, was für die LA-Investoren dann natürlich ungünstig wäre, wenn du deine konsequente Dividendenstrategie verlassen würdest. Denk mal drüber nach…. Ich habe mich nun damit beschäftigt und geprüft, ob es nicht doch möglich ist, die Performance eines MSCI World, der ja als Anlageprodukt auch deiner Meinung nach grundsätzlich empfehlenswert ist, in Verbindung mit möglichst hohen Dividendenzahlungen zu bringen.

Keine Sorge, ich möchte nicht erneut die Frage diskutieren lassen , ob es sinnvoller ist, Dividenden zu erhalten, oder Anteile zu verkaufen. Gefunden habe ich das: Natürlich kann man sagen, dass Resultate aus der Vergangenheit keine Garantie für Ergebnisse in der Zukunft sind, aber die Ähnlichkeit ist doch sehr beeindruckend.

Genau das ist ja auch mein Kritikpunkt am Dividenden-Fanatismus: Warum Dividendenaktien über alles lobpreisen, wenn es am Ende des Tages fast schnurzpiepegal ist, ob man in Dividendenaristokraten oder einen World-ETF investiert. Und da sind Dividendenaktien und HDY dann leider raus. Nicht bei einem Dividenden-, sondern bei einem Einzelaktienportfolio betragen die laufenden Kosten null.

Einzelaktien kann ich aber genauso gut halten, ohne eine Dividendenstrategie zu fahren. Umgekehrt könnte ich eine Dividendenstrategie mittels ETFs umsetzen, die dann wieder laufende Kosten erzeugen.

MSCI mag ich eh nicht so, da die vollständige Liste der enthaltenen Werte nicht transparent ist und auch der Austausch von Werten nur schwer verfolgbar ist.

Leider missfallen mit die 0. Hat noch etwas wenig Volumen, kommt aber bestimmt noch:. Heirat mit 31 Alter Sparleistung 3k pa Sparen pm 6k pa sparen pm xy 9k pa sparen pm. Cashius schafft die 24k brutto pa mit Ausschuettungen im Alter von 60,7 26 Monate spaeter als Thessa. Gezahlte Steuern von Cashius bis dahin: Thessa kann im Alter extra was verjuxen oder ihre Kinder und Enkel reicher machen als Cashius.

Nein, das macht er nicht. Aber diese Meinung der für lange Zeiten deutlich zurückgehenden Renditen ist ja keine Einzelmeinung, vgl. Erwartung global japanischer Verhältnisse.

Schon während meiner systematischen Anlegerkarriere von E. Wenn der wegfällt ist m. Rendite, also ohne jeglichen Marketing-Bias nicht wirklich viel mehr als Illmanen prognostiziert. Ein bisschen wohl selektierte Hedgefonds in Form von Liquid Alternatives hatte ich ja schon als Renditehelfer und Crashschutz vorgeschlagen. Bitte doch um etwas mehr Realismus. Ey Oli, wann kommt dein zweiter Teil? Sie schreiben aber auch nicht, wie genau ein Ausstieb bzw ein Wiedereinstieg geregelt wurde.

Wer ueberzeugt mich vom Gegenteil? Denken wir nur an den armen Mr. Dax, der gefuehlt noch eine Ewigkeit nach versuchte gleichzeitig abzusichern UND mit dem Markt nach oben zu laufen … die Armen, die seinen Fonds halten ….

Definition Alphafaktor

Das Risiko eines Portfolios bestimmt man durch das Verhältnis zwischen Aktien und Tagesgeld — und nicht durch die Zinsen auf das Tagesgeld. Hallo ihr beiden, Erstmal danke für den Podcast!

Closed On:

Damit sind auch die Bibliotheksfunktionen im Allgemeinen zufrieden.

Copyright © 2015 922922.pw

Powered By http://922922.pw/