Dieses Forum nutzt Cookies
Dieses Forum verwendet Cookies, um deine Login-Informationen zu speichern, wenn du registriert bist, und deinen letzten Besuch, wenn du es nicht bist. Cookies sind kleine Textdokumente, die auf deinem Computer gespeichert sind; Die von diesem Forum gesetzten Cookies düfen nur auf dieser Website verwendet werden und stellen kein Sicherheitsrisiko dar. Cookies auf diesem Forum speichern auch die spezifischen Themen, die du gelesen hast und wann du zum letzten Mal gelesen hast. Bitte bestätige, ob du diese Cookies akzeptierst oder ablehnst.

Ein Cookie wird in deinem Browser unabhängig von der Wahl gespeichert, um zu verhindern, dass dir diese Frage erneut gestellt wird. Du kannst deine Cookie-Einstellungen jederzeit über den Link in der Fußzeile ändern.

Bill Benter applied to stock markets
#16
Notiz 

RE: Bill Benter applied to stock markets

Hi,

ich denke Algorithmen werden den Unterschied hier nicht machen.
Wie man das Problem formuliert und Daten/Features werden hier IMHO den Unterschied machen. 

Meine oben aufgeführte Liste ist immer nur der erste Wurf. 

Ridge/Lasso Regression:
=> hat man ein hochdimensionales Problem und viele features, hilft einem eine stark regularisierte Ridge/Lasso Regression vernünftige Features zu identifizieren und das Verfahren ist auch einigermaßen robust gegen Probleme wie coliniearity etc.

Einfache Trees
=> am Ende ist XGboost noch immer mein Favorit für abschließende Lösung. XGBoost (und random forest und andere komplexere Tree Modelle) haben aber zusätzliche Hyper Parameter, die es zu optimieren gilt. Das hebt am Schluss noch einmal die Güte um ein paar %, am Anfang ist es aber IMO wichtig zu erkennen: habe ich da nicht-linearität drin? Erzeugt das bei gleichen features bessere Ergebnisse als die Regression? Ist mein Problem wirklich ein Problem vieler "!wenn..dann" Szenarien? 

 Dann geht man sowieso noch mehrere Runden im Feature Design ..uns jedes mal muss ma dann die Hyper Parameter neu justieren. Einfache Trees sind IMO sehr gut um nicht-linearität zu erkennen und das Problem zu explorieren.

Huber Regression:
=> du kennst die Sauerei mit den Daten. Was ist noch ein outlier, was ein Datenfehler.....muss Punkt x wirklich ins sample, oder verzerrt er das Bild? Daten Säuberung sollte nicht Aufgabe des Verfahrens sein, aber wenn deine Huber Regression (bei gleichen Features)  besser ist, als einfache Trees...dann muss man da nochmal ran.

GP
=> ermöglicht es einem gut die komplexität zu erforschen. Ist die Datenmenge nicht zu gewalttätig und Scored so ein Ding gut....dann ist da vielleicht wirklich eine komplexere und kontinuierliche Funktion in den Daten zu lernen. 
 
=>

__________________
Forum-Besserwisser und Wissenschafts-Faschist


Nachrichten in diesem Thema
RE: Bill Benter applied to stock markets - von Ventura - 03.06.2019, 10:23
RE: Bill Benter applied to stock markets - von Lancelot - 05.06.2019, 10:19

Möglicherweise verwandte Themen…
Thema Verfasser Antworten Ansichten Letzter Beitrag
Notiz BaLü's Stock Depot BaLü 1.544 481.448 02.04.2024, 12:51
Letzter Beitrag: bimbes
Notiz MSCI World Index| MSCI All Country World | MSCI Emerging Markets | MSCI Europe Boy Plunger 9 2.254 09.12.2022, 22:23
Letzter Beitrag: qqqq4
Notiz Algotrading by lemon.markets zitronenbaum 22 12.860 10.06.2022, 15:58
Letzter Beitrag: Lancelot
Notiz Stock on the Move atze2000 76 64.791 11.03.2019, 19:22
Letzter Beitrag: Ventura

Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste