Diskussion zum Artikel "Die Grenzen des maschinellen Lernens überwinden (Teil 1): Mangel an interoperablen Metriken"
"Unsere Strategie zeigt jedoch die Fähigkeit, sich zu erholen und auf Kurs zu bleiben, was genau das ist, was wir anstreben."
Ich habe immer gedacht, dass man danach streben sollte, dass eine Strategie Gewinne bringt :)
"Unsere Strategie zeigt jedoch die Fähigkeit, sich zu erholen und auf Kurs zu bleiben, was genau das ist, was wir anstreben."
Ich habe immer gedacht, dass man danach streben sollte, dass eine Strategie Gewinne bringt :)
Danke für den Artikel, @Gamuchirai Zororo Ndawana
Ich stimme mit @Maxim Dmitrievsky überein, dass das oberste Ziel die Rentabilität ist. Die Idee, sich zu erholen und auf dem richtigen Weg zu bleiben, ist sinnvoll, um die Robustheit und den Drawdown zu kontrollieren, aber sie ersetzt nicht den Gewinn.
- Die Beispiele enthalten Look-Ahead-Bias (Features mit i + HORIZON), was die Bewertung ungültig macht;
- Der DRS-Test, bei dem "die Summe gleich Null ist", ist tautologisch, da die beiden Bezeichnungen konstruktionsbedingt antisymmetrisch sind; er beweist kein Marktverständnis.
Praktischer Vorschlag: Walk-Forward-Tests, Kosten und Slippage, asymmetrische oder quantile Verlust- oder Nutzen-basierte Ziele und Bestrafung des Umsatzes, um Mean Hugging zu vermeiden. (Pragmatischer Ansatz: Richten Sie den Verlust daran aus, wie Sie Geld verdienen.)
Zitiert: Ja, aber leider haben wir immer noch keine standardisierten Metriken für maschinelles Lernen, die den Unterschied zwischen Gewinn und Verlust kennen.
Antwort: Gewinn- und Verlustspalten gibt es nur dann, wenn Ihr backgetestetes Produkt oder der flache Markt so gut ist wie der Terminmarkt, den Sie gegen das nachfolgende Portfolio oder den Indexkorb verwenden, der dieser Orderlinie folgt.
Es gibt einige Indizes und neu gegründete ETFs, die für diesen Verwendungszweck herauskommen oder in zunehmendem Maße produziert werden und diese Ergebnisse und Gewinnspannen liefern, wie der Dowjones 30 Index sowie viele andere Indizes, die für diesen Verwendungszweck geschaffen wurden. Peter Matty
Thanks for the article, @Gamuchirai Zororo Ndawana
I agree with @Maxim Dmitrievsky that the ultimate goal is profitability. The idea of recovering and staying on track makes sense for robustness and controlling drawdown, but it's no substitute for profit.
- The examples contain look-ahead bias (features with i + HORIZON), which invalidates the evaluation;
- The DRS test, where "the sum is zero," is tautological because the two terms are antisymmetric by design; it does not demonstrate market understanding.
Sometimes I wonder if the translation tools we rely on may fail to capture the original message. Your response offers a lot more talking points than what I understood from @Maxim Dmitrievsky original message.
Thank you for pointing out those oversights in the look ahead bias (features with i + HORIZON), those are the worst bugs I hate, they neccisate an entire re-test. But this time more thoughtfully.
You've also provided valuable feedback with the validation measures used to validate models in practice, Sharpe Ratio's must be akin to a universal Gold Standard. I need to learn more about Calmar and Sortino to develop an opinion on those, thank you for that.
I agree with you that the two terms are antisymmetric by design, and the test is that the models should remain antisymmetric, any deviation from this expectation, is failing the test. If one or both models have unacceptable bias then their predictions will not remain antisymmetric as we expect.
However, the notion of profit is only a simple illustration I gave to highlight the problem. None of the metrics we have today inform us when mean hugging is happening. None of the literature on statistical learning tells us why mean hugging happening. Unfortunately it's happening due to the best practices we follow, and this is just one of many ways I wish to get more conversations started on the dangers of best practices.
This article was more of a cry for help, for us to come together and design new protocols from the ground up. New standards. New objectives that our optimizers work on directly, that are tailored for our interests.
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Neuer Artikel Die Grenzen des maschinellen Lernens überwinden (Teil 1): Mangel an interoperablen Metriken :
Stellen Sie sich vor, Sie nehmen an einem Lotterie-Wettbewerb teil. Sie und 99 andere Personen werden nach dem Zufallsprinzip ausgewählt, um um einen Jackpot von 1.000.000 Dollar zu spielen. Die Regeln sind einfach: Sie müssen die Körpergröße der anderen 99 Teilnehmer erraten. Der Gewinner ist die Person mit dem geringsten Gesamtfehler über alle 99 Tipps hinweg.
Jetzt kommt der Clou: Stellen Sie sich für dieses Beispiel vor, die durchschnittliche Körpergröße eines Menschen beträgt weltweit 1,1 Meter. Wenn Sie einfach 1,1 Meter für alle tippen, könnten Sie den Jackpot gewinnen, auch wenn jede einzelne Vorhersage technisch gesehen falsch ist. Warum? Denn in verrauschten, unsicheren Umgebungen führt das Erraten des Durchschnitts in der Regel zum kleinsten Gesamtfehler.
Autor: Gamuchirai Zororo Ndawana