Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 448
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Was ist die Zielfunktion in Ihrem Klassifikator?
Ich bin zu dem Schluss gekommen, dass MLP ein hässliches Monster ist, hässlich zurückgeblieben und wenig erfolgversprechend für den Handel, zumal es den Arbeitsmechanismus echter Neuronen sehr primitiv kopiert und nicht so, wie es tatsächlich im Gehirn geschieht :) Die einzige normale und perspektivische NS ist Faltung ns für Mustererkennung, während sie nicht in der Lage sind, vorherzusagen, und wenn so ein Ensemble von einfachen und schnellen Klassifikatoren ist genug.
Bayes'scher Klassifikator ist besser, aber schlechter als RF.
Interessanterweise kam ich zu genau der gegenteiligen Schlussfolgerung über "hässliche Ungetüme").
RF erfordert die Auswahl von Prädiktoren, was angesichts der Anforderung, dass diese zumindest linear unabhängig sein müssen, eine nicht triviale Aufgabe ist. MLP I tweaken einfach die Zeitreihen, und die Anforderung der linearen Unabhängigkeit wird durch ein Komitee aus mehreren NS gelöst, deren Eingänge entladene Zeitreihen sind (analog zu mehreren TFs). Die Zeitverzögerungen von NS sind für den realen Handel, so nehme ich an, unbedeutend.
Was mit echtem TS passieren wird, weiß ich noch nicht, aber NS scheint recht trainierbar zu sein. Sehen Sie sich einen Teil der grafischen Ausgabe des trainierten NS an. Ich kann noch nicht mit Sicherheit sagen, wie gut sie ausgebildet ist.) Aber es ist trainierbar)).
Es ist interessant, dass ich zu genau der gegenteiligen Schlussfolgerung über "hässliche Ungetüme" gekommen bin).
RF erfordert die Auswahl von Prädiktoren, was angesichts der Anforderung ihrer mindestens linearen Unabhängigkeit eine nicht triviale Aufgabe ist. MLP I tweaken einfach die Zeitreihen, und die Anforderung der linearen Unabhängigkeit wird durch ein Komitee von mehreren NS gelöst, deren Eingänge entladene Zeitreihen sind (analog zu mehreren TFs). Die Zeitverzögerungen von NS sind für den realen Handel, so nehme ich an, unbedeutend.
Was mit echtem TS passieren wird, weiß ich noch nicht, aber NS scheint recht trainierbar zu sein. Sehen Sie sich einen Teil der grafischen Ausgabe des trainierten NS an.
Werfen Sie einfach Prädiktoren in Form von Oszillatoren auf den Chart, und Sie werden sehen, ob sie linear oder nichtlinear abhängig sind). Es werden keine Zahlen benötigt. Der NS kann sich selbst umlernen, aber er kann keine super nicht-linearen Korrelationen entwickeln, wenn sie nicht von Anfang an vorhanden oder inkonsistent sind.
Oder es ist notwendig, eine nukleare Maschine vor NS zu verwenden, wie in Jpredictor, das die Dimension der Eingaben durch Polynome erhöht und dann die informativsten durch SVM und irgendeinen anderen Mist belässt, aber andererseits wegen dieser Polynome kann es wie die Hölle übertrainieren
Man braucht nur die Prädiktoren als Oszillatoren in ein Diagramm zu werfen, und schon kann man sehen, ob sie linear oder nichtlinear abhängig sind). Keine Zahlen erforderlich. NS kann sich auch selbst umerziehen, es wird nicht in der Lage sein, irgendwelche super nicht-linearen Korrelationen aus dem Nichts zu erfinden, wenn sie nicht von Anfang an da sind oder inkonsistent sind.
Nicht alles ist so einfach, wie es scheint. Ich habe den Eindruck, dass SanSanych schon seit einem Jahr mit Prädiktoren herumhantiert und von einem Wald zum anderen (von einem Paket zum anderen) springt.
Oder vielleicht ist es notwendig, einen Kernel vor NS zu verwenden, wie in Jpredictor, das die Dimensionalität der Eingaben mit Polynomen erhöht und dann die informativsten durch SVM und anderen Mist übrig lässt.
Werfen Sie doch einfach Prädiktoren in Form von Oszillatoren auf das Diagramm, dann können Sie sehen, ob sie linear oder nichtlinear abhängig sind.)
PS Übrigens sind MLPs im Gegensatz zu einschichtigen P. von Natur aus nichtlinear und durchaus in der Lage, nichtlineare Merkmale zu verallgemeinern.
Sie können es, die RF kann es auch, aber sie sind nicht weniger überlernt
Es gibt kein Ziel, sondern es funktioniert nach dem Prinzip, dass alle Prädiktoren im Aggregat umso schneller zu diesem Durchschnitt konvergieren, je weiter sie vom Durchschnitt entfernt sind, d. h. es funktioniert nach dem Prinzip des Bayes'schen Klassifikators, der solche Gewichte findet, die im Aggregat die größte Abweichung vom Durchschnitt in jedem einzelnen Fall ergeben würden, und am Ende sollten sie wieder konvergieren. Da wir die Prädiktoren in der stationären Form nehmen, ist es klar, dass der Durchschnitt 0 ist. Wenn der Output >0 ist, verkaufen wir, wenn <, kaufen wir.
Es ist nicht ganz klar, ob mit oder ohne Lehrer trainiert wird. Wenn mit einem Lehrer, was ist dann das Kaufsignal für den Klassifikator?
Im Allgemeinen hat NS keine Vorteile gegenüber RF, die Berechnung dauert lange, der Fehler ist größer... wenn Sie schnelles Training wollen, dann definitiv RF+Optimizer
Über die Geschwindigkeit der NS.
Speziell zu diesem Zweck habe ich ein Geschwindigkeitsexperiment durchgeführt. Dafür habe ich einen MLP mit der Schichtstruktur [15,15,15,8,2] genommen. Der Umfang der Trainingsstichprobe beträgt: Eingabe - 15 x 10378, Ausgabe - 2 x 10378.
Das MLP-Training auf diesen Daten mit 10 Epochen dauert etwa 10 Minuten.
Direktes Arbeiten mit den Daten - die Eingabe 15 x 10378 wird in weniger als 3 Sekunden berechnet. D.h. ~0,0003 c/Probe.
Mehr als genug für den Bau von TC).
Über die Geschwindigkeit der NS.
Speziell zu diesem Zweck habe ich ein Experiment zur Geschwindigkeit durchgeführt. Dafür habe ich einen MLP mit der Schichtstruktur [15,15.15,8,2] genommen. Der Umfang der Trainingsstichprobe beträgt: Eingabe - 15 x 10378, Ausgabe - 2 x 10378.
Das MLP-Training auf diesen Daten mit 10 Epochen dauert etwa 10 Minuten.
Direktes Arbeiten mit den Daten - die Eingabe 15 x 10378 wird in weniger als 3 Sekunden berechnet. D.h. ~0,0003 c/Probe.
Mehr als genug Zeit, um einen TS zu bauen).
Etwas zu schnell, so sollte mb eine Stunde oder mehrere Stunden trainiert werden, durch welchen Algorithmus L-BFGS? Ich habe auch 15 Eingaben gemacht, aber nur eine versteckte Schicht mit 15-20 Neuronen, ich habe ein Alglibian TS trainiert... also habe ich nicht gewartet und die Größe der Eingabevektoren reduziert) Ich habe 3 Eingänge mit 10k Vektoren in 5-10 Minuten mit einer versteckten Schicht trainiert. Und es ist nicht langsam Backpropagation aber schnell mit 1-3 Epochen. i5 CPU
Stellen Sie sich vor, dass Sie selbst mit 10 Minuten Zeit keine fertige Strategie haben und in Ihrem Optimierer durch N Prädiktoren, Vektorlängen, Anzahl der versteckten Schichten usw. suchen müssen, um eine Strategie zu finden...