Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2838

 
mytarmailS #:

Gibt es eine Möglichkeit, Gleichgewicht oder etwas anderes durch den Gradienten in den Boost zu speisen....


Hier ist der Schaltplan:

Wir markieren den Chart mit perfekten Trades (am Extremum nach unten kaufen wir, am Extremum nach oben verkaufen wir) und erstellen einen gefälschten perfekten Trade.

Ich nenne es ein perfektes Gleichgewicht


Dann berechnen wir das Gleichgewicht des Handels aus dem Anstieg

In der Zielfunktion berechnen wir dann einfach den Fehler der Handelsbilanz des Boosts mit der idealen Bilanz.

erhalten wir eine Anpassung an die ideale Bilanz, d.h. es handelt sich nicht um die Suche nach einem abstrakten Gewinnmaximum, sondern um eine Anpassung an den idealen Handel, ausgedrückt in der Gewinnbilanz.


Blau ist die ideale Bilanz, schwarz ist die Ausbildung und der Modelltest.

Nun, das kommt dem nahe, was ich sage.

Es ist nicht das Gleichgewicht, das maximiert werden muss, sondern ein bestimmtes komplexes Kriterium, in Ihrem Beispiel die Aufteilung in einzelne Trades. Das ist eine abgeleitete Funktion aus dem ursprünglichen Gleichgewicht, eine glattere Funktion. Das ist es, was wir brauchen, um nach dem globalen Optimum der abgeleiteten Funktion zu suchen. das ist es, was ich zu sagen versuche. und in diesem Fall ist es wichtig, wie qualitativ das globale Extremum der abgeleiteten Funktion gefunden wird.

Es gibt viele Möglichkeiten, Ableitungen von Funktionen aus der ursprünglichen Funktion zu erstellen, begrenzt nur durch die Vorstellungskraft.

Anstatt sich auf die Leute zu stürzen, können Sie versuchen zu verstehen. Wenn Sie verstehen, gut. Wenn Sie nicht verstehen, gehen Sie vorbei.

 
Andrey Dik #:

Anstatt auf andere einzuschlagen, können Sie versuchen, sie zu verstehen. Wenn Sie sie verstehen, gut. Wenn Sie sie nicht verstehen, gehen Sie einfach weiter.

Meine Angriffe bezogen sich auf die Tatsache, dass man verschiedene AOs nicht gleichwertig vergleichen und entscheiden kann, welche gut und welche schlecht ist....

Jede AO hat ihre eigenen Optimierungsflächen.

Die AUSWAHL der AO hängt von der Optimierungsoberfläche ab, nicht von subjektiven Vorlieben.


Wenn die Oberfläche glatt ist und nur ein Minimum aufweist, ist derjenige, der einen genetischen Algorithmus, einen Schwarm oder ein Annealing oder irgendeinen anderen globalen Optimierungsalgorithmus darauf anwendet, ein Narr, der nicht versteht, was er tut, denn der Gradientenabstieg wird dieses Problem 100 Mal schneller lösen.

Ist die Oberfläche komplex, verrauscht und hat viele Minima, und jemand verwendet den Gradientenabstieg, dann ist er ebenfalls ein Narr , denn der Algorithmus wird im längsten Minimum stecken bleiben.


Wenn jemand beschließt, z. B. den Gradientenabstieg mit der Genetik zu vergleichen , ist er dann ein Narr, wenn er fortfährt?

Das ist ein Missverständnis von elementaren Dingen.

 
mytarmailS #:

Mein Angriff war, dass man verschiedene AOs nicht gleichberechtigt vergleichen und entscheiden kann, welche gut und welche schlecht ist.

Jede AO hat ihre eigenen Optimierungsflächen.

Die Wahl der AO hängt von der Optimierungsfläche ab, nicht von subjektiven Sympathien

Ich vergleiche die Algorithmen mit drei völlig unterschiedlichen Testfunktionen, damit Sie die spezifischen Vorteile jedes Algorithmus in separaten Tests sehen können, damit Sie sehen können, wo sie stark sind, und damit Sie den besten Algorithmus für die spezifischen Aufgaben des Forschers wählen können. Es gibt keinen Subjektivismus in den Tests, im Gegenteil, sie sind so objektiv wie möglich.

Die meisten Algorithmen, die auf Netze spezialisiert sind, haben irgendeine Form der Glättung in ihrer Logik, oder Momente. Sie sind auf die Anwendung von glatten Ableitungen der Zielproblemfunktionen ausgerichtet. Es wird sich zeigen, wo sie stark sind und wo nicht so stark.

 
Andrey Dik #:

Ich vergleiche die Algorithmen mit drei völlig unterschiedlichen Testfunktionen, so dass Sie die spezifischen Vorteile jedes Algorithmus in separaten Tests sehen können, damit Sie sehen können, wo sie stark sind, und damit Sie den besten für die spezifischen Aufgaben des Forschers wählen können. Es gibt keinen Subjektivismus in den Tests, im Gegenteil, sie sind so objektiv wie möglich.

Die meisten Algorithmen, die auf Netze spezialisiert sind, haben irgendeine Form der Glättung in ihrer Logik, oder Momente. Sie sind auf die Anwendung von glatten Ableitungen der Zielproblemfunktionen ausgerichtet. Es wird sich zeigen, wo sie stark sind und wo nicht so stark.

Man kann verschiedene Arten von AO nicht unter denselben Bedingungen vergleichen, weil sie unterschiedliche Probleme lösen, das ist meine Botschaft

 
mytarmailS #:

Man kann verschiedene Arten von AOs nicht unter denselben Bedingungen vergleichen, weil sie unterschiedliche Aufgaben haben, das ist meine Botschaft

Ich schätze, ich habe nicht verstanden, was ich letztes Mal gesagt habe.... Noch einmal, es ist möglich zu vergleichen, deshalb werden verschiedene Testprobleme verwendet, um die Algorithmen entsprechend den Besonderheiten der Aufgabe zu vergleichen. Die Tests zeigen, für welche Aufgaben der Einsatz von AO optimal ist, so dass man zwischen ihnen wählen kann.

Zum Beispiel: Wenn ADAM bei glatten Funktionen überlegen ist - toll! - dann sollte er so verwendet werden, andernfalls ist es besser, einen anderen Algorithmus zu wählen. Aber wenn ADAM bei allen Tests scheiße ist, dann sollten wir etwas Besseres wählen, das ist alles. Heutzutage wählen die meisten Leute einfach etwas Bestimmtes nach der "Mode", ohne zu wissen, ob sie die beste Wahl getroffen haben oder nicht.

 
Perfekte Klasse Markierungen und so sind in perfekter Balance. Das Öl ist ölig. Es ist unmöglich, dort etwas zu verbessern.

Und die Auswahl von Modellen nach benutzerdefinierten Metriken kann manchmal nützlich sein, denke ich. Aber im Großen und Ganzen ist das alles Bling.
 
Maxim Dmitrievsky #:
Perfekte Klasse Markierungen und so sind in perfekter Balance. Das Öl ist ölig. Es ist unmöglich, dort etwas zu verbessern.

Und die Auswahl von Modellen nach benutzerdefinierten Metriken kann manchmal nützlich sein, denke ich. Aber im Großen und Ganzen ist das alles Bling.

Ja, aber es ist gut genug für einen Kumpel, um zu verstehen, warum abgeleitete Probleme notwendig sind.
Idealerweise sollte man einen vollständigen Satz aller Modellparameter haben (eine vollständige Aufzählung) und die Sätze nach ihrer Stabilität auf dem Oos klassifizieren. das ist zwar theoretisch möglich, aber in der Praxis keine machbare Aufgabe.

 
Natürlich werden die Algorithmen nicht direkt miteinander verglichen, da sie für unterschiedliche Zwecke eingesetzt werden. Es ist nur interessant zu sehen, wie sie konvergieren, vielleicht gibt es neuere Algorithmen. Ich habe von allen möglichen NS-Architekturen von Autoren gehört, die auf anderen Lernprinzipien basieren, aber ich habe sie nicht gesehen.
 
Maxim Dmitrievsky #:
Und die Auswahl von Modellen nach benutzerdefinierten Metriken kann manchmal nützlich sein, denke ich. Aber im Großen und Ganzen ist das alles Bling

Meine Intuition sagt mir, dass MO im Handel bald gang und gäbe sein wird.

Nicht, dass es eine Garantie für Gewinn sein wird, aber es nicht zu verwenden, wird als Garantie für Misserfolg angesehen werden).

 

San Sanych hat Recht, was die Probleme der Anwendbarkeit von Optimierungsergebnissen auf die Geschichte aufgrund der Nicht-Stationarität des Marktes angeht. Das Problem ist, dass eine solche Optimierung das einzige ist, was wir haben. Seine eigenen Ansätze zur Merkmalsauswahl beispielsweise sind ebenfalls eine Optimierung auf der Grundlage der Historie, wenn auch etwas komplizierter).

Oder eine Art von Kreuzvalidierung, zum Beispiel - auch das ist eine Optimierung auf der Grundlage der Historie.