Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 612

 
Yuriy Asaulenko:
Er hat es nicht versucht, er hat studiert). Ich freue mich, dass es Ihnen gefallen hat. (Sie sollten mehr lesen.) Tatsächlich spart es viel Zeit - man muss Fahrräder nicht neu erfinden, alles wurde schon vor uns erfunden.

Die eingegebenen Prädiktoren werden in Bilder umgewandelt und das Netz wird mit ihnen trainiert.

Hier.

 

Ein gutes Dokument, das ich vor ein paar Monaten auf gotay gesehen habe. Es geht nicht so sehr um ML an sich, sondern um die Daten, die sie verwenden, mit einer großen Sammlung von Links zu Websites, die sehr wertvolle Informationen enthalten, wirklich wertvoll.

 
Maxim Dmitrievsky:

Ich habe zu Wiener gewechselt - ich frage mich, wann diese Bücher zu Ende sind :) er hat im Grunde auch versucht, Vorhersagen zu machen

Auch ich war schmachten, dass alle Bücher, die ich geplant habe, werde ich keine Zeit haben, zu lesen und für 10 Lebenszeiten, aber dann haben es auf einer anderen Hand, von einer positiven Partei betrachtet, während es eine physiologische Motivation zu "binge" Lesen wissenschaftlicher Literatur, Das Gehirn ist eindeutig nicht in Gefahr des Wahnsinns, und ernsthaft, die Antwort in RANGE, in Excel setzen, setzen Sie eine Bewertung der Bedeutung, sortiert (in regelmäßigen Abständen) und lesen Sie die Top die meisten, die nicht gelesen haben und nicht mehr mit der Menge stören, zu wissen, dass Sie die wichtigsten zu lesen.
 
elibrarius:

Auf der Teststrecke liegt der Fehler, wie bei den meisten, an der Grenze zu 50 %. Aber zumindest zählt es dutzende Male schneller als Alglib. Wenn hier die Berechnung des Modells für 40-100 Minuten, die Alglib-e mehr als einen Tag warten auf die gleiche Struktur, nicht gewartet und deaktiviert die Berechnung.
Aber wenn ich jetzt Modelle im Kreislauf abholen muss, wird es wieder viel Zeit kosten.... Außerdem muss ich die ganze Sache programmieren.
Im Allgemeinen ist dies eine lange Zeit, da Sie sich keine zeitlichen Grenzen für die MO setzen.

Interessant - das verstehe ich)

Überrascht. Was ist das für ein Modell, das mehr als eine Stunde zählt?

Es sollte höchstens 1-2 Minuten dauern.

 

Brüder, wie wollt ihr in 1-2 Minuten Optimierung ein Modell erstellen, das für einen so komplexen Markt wie Forex???? relevant ist?

Meiner Meinung nach ist das logischer Unsinn. Schließlich erfordert die Erstellung eines Modells Rechenressourcen, die sich in Kosten niederschlagen können. Jedes Modell hat also seinen Wert in Form von abzugsfähigen Ressourcen, die für seine Erstellung aufgewendet wurden. Und nun eine Frage. Möchten Sie mit Modellen, die nur wenige Cent kosten, Geld verdienen? Ich denke, man kann ein paar Cent verdienen, aber nicht mehr als das.... IMHO

 

Der obige Link wurde

Ich weiß esnicht:

http://www.valuesimplex.com/articles/JPM.pdf

Und hier ist ein Bild aus diesem Buch, das von einer sehr angesehenen Bank verfasst wurde:



Warum diskutiert niemand außer mir über das, was hier als Modell Instabilität aufgeführt ist?

 
SanSanych Fomenko:

Der obige Link wurde

giftig:

http://www.valuesimplex.com/articles/JPM.pdf

Und hier ist ein Bild aus diesem Buch, das von einer sehr angesehenen Bank verfasst wurde:



Warum diskutiert niemand außer mir über das, was hier als Modell Instabilität aufgeführt ist?

Was ist das?
 
Mihail Marchukajtes:

Bros, wie wollen Sie in 1-2 Minuten Optimierung ein Modell erstellen, das für einen so komplexen Markt wie Forex???? relevant ist?

Meiner Meinung nach ist das logischer Unsinn. Schließlich erfordert die Erstellung eines Modells Rechenressourcen, die sich in Kosten niederschlagen können. Jedes Modell hat also seinen Wert in Form von abzugsfähigen Ressourcen, die für seine Erstellung aufgewendet wurden. Und nun eine Frage. Möchten Sie mit Modellen, die nur wenige Cent kosten, Geld verdienen? Ich denke, man kann ein paar Cent verdienen, aber nicht mehr als das.... IMHO

Nein. Soweit ich das verstanden habe, ging es um die Ausbildungszeit, nicht um die Optimierung. Die Optimierung dauert natürlich 20-30 Minuten.
 
SanSanych Fomenko:

Für den Handel erscheint die Idee der Modelloptimierung (TS) höchst fragwürdig, denn jede Optimierung sucht nach Höchst- und Tiefstständen, und die brauchen wir nicht. Wir brauchen im Idealfall flache Plateaus, die so groß wie möglich sind. Diese Plateaus sollten eine bemerkenswerte Eigenschaft haben: Änderungen der Modellparameter sollten NICHT zur Umgehung des Plateaus führen.

Hier geht es um Optimierung.

Hinzu kommt das Problem der Stabilität der Modellparameter, die, wenn sie sich ändern, innerhalb eines recht engen (5 %) Konfidenzintervalls liegen. Ich habe den Eindruck, dass die Stabilität der Modellparameter daraus resultiert, dass sich die Leistung des Modells auf einem bestimmten Plateau befindet, und wenn wir beim Testen des Modells plötzlich ein sehr gutes Ergebnis erhalten, bedeutet dies, dass wir den Minimax-Punkt erreicht haben, wir haben einen instabilen Zustand erreicht, der in der Praxis nie eintreten wird, außerdem wird sich um diesen optimalen Punkt herum ein Stop-Out befinden.

PS.

Übrigens haben die Entwickler im Tester eine solche Möglichkeit vorgesehen, ein Plateau nach Farbe zu suchen. Ich persönlich verwende den Tester als Finishing-Tool und nehme Parameter, die sich auf ein Quadrat mit gleichfarbigen Quadraten drum herum beziehen. Dies ist ein klarer Ausdruck meines Konzepts des "Plateaus".

In Expert Advisors aus dem Markt habe ich oft gesehen, dass gut für den Handel Parameter bilden Plateaus in der Optimierung Funktion. Wenn es einen MA oder RSI oder einen anderen Koeffizienten gibt, hat die Änderung eines Parameters um einen kleinen Wert keine Auswirkungen auf das Endergebnis.

Aber das ist logisch, denn die meisten Parameter werden in der Formel für die Berechnung des Indikators verwendet, so dass eine kleine Änderung nur geringe Auswirkungen auf das Ergebnis hat, das immer noch zu den gleichen Preisen berechnet wird.

Beim maschinellen Lernen hingegen können sich Parameter lawinenartig auf den gesamten Lernprozess auswirken und schon eine kleine Änderung führt zu einem völlig anderen Ergebnis. Zum Beispiel die Anzahl der Neuronen in einer versteckten Schicht - mit zunehmender Anzahl wächst die Anzahl der verwendeten Gewichte und die Funktion zur Initialisierung der Gewichte mit gpscp setzt deren Werte in einer etwas anderen Reihenfolge, was zu einem anderen Ergebnis führt.
Die Änderung einiger Parameter wird auch ein Plateau in der Optimierungsfunktion zeichnen, wir können für jeden Parameter gleichmäßig oder stochastisch seinen Einfluss auf die endgültige Bewertung des Modells untersuchen, und für gleichmäßig beeinflussende Parameter können wir zusätzlich einen auf Ableitungen basierenden Optimierer verwenden (Funktionen optim(method="L-BFGS-B") und optimize() in R)

 
SanSanych Fomenko:

Der obige Link wurde

giftig:

http://www.valuesimplex.com/articles/JPM.pdf

Und hier ist ein Bild aus diesem Buch, das von einer sehr angesehenen Bank verfasst wurde:



Warum diskutiert niemand außer mir über das, was hier als Modell Instabilität aufgeführt ist?

Wir sprechen hier von Fehlern bei den Trainingsdaten und Fehlern bei der Vorhersage. Der Kern des Bildes ist, dass es bei der Minimierung von Fehlern zu Übertraining kommt, und der Sinn der Erstellung und Anpassung des Modells besteht darin, diesen Fehler auf einen optimalen Wert für neue Daten zu reduzieren (Übertraining zu vermeiden).

Gute Illustration.