Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 448

 
mytarmailS:
Was ist die Zielfunktion in Ihrem Klassifikator?
Es gibt keine Zielfunktion, es arbeitet nach dem Prinzip, dass alle Prädiktoren in der Grundgesamtheit umso schneller zu diesem Durchschnitt konvergieren sollten, je weiter sie vom Durchschnitt entfernt sind, d.h. es arbeitet nach dem Bayes'schen Klassifikatorprinzip, es findet solche Gewichte, die in der Grundgesamtheit Prädiktoren die jeweils größte Abweichung vom Durchschnitt ergeben würden, und am Ende sollten sie wieder konvergieren. Da wir die Prädiktoren als stationär betrachten, ist es klar, dass der Durchschnitt 0 ist. Wenn der Output >0 ist, verkaufen wir, wenn <, kaufen wir.
 
Maxim Dmitrievsky:

Ich bin zu dem Schluss gekommen, dass MLP ein hässliches Monster ist, hässlich zurückgeblieben und wenig erfolgversprechend für den Handel, zumal es den Arbeitsmechanismus echter Neuronen sehr primitiv kopiert und nicht so, wie es tatsächlich im Gehirn geschieht :) Die einzige normale und perspektivische NS ist Faltung ns für Mustererkennung, während sie nicht in der Lage sind, vorherzusagen, und wenn so ein Ensemble von einfachen und schnellen Klassifikatoren ist genug.

Bayes'scher Klassifikator ist besser, aber schlechter als RF.

Interessanterweise kam ich zu genau der gegenteiligen Schlussfolgerung über "hässliche Ungetüme").

RF erfordert die Auswahl von Prädiktoren, was angesichts der Anforderung, dass diese zumindest linear unabhängig sein müssen, eine nicht triviale Aufgabe ist. MLP I tweaken einfach die Zeitreihen, und die Anforderung der linearen Unabhängigkeit wird durch ein Komitee aus mehreren NS gelöst, deren Eingänge entladene Zeitreihen sind (analog zu mehreren TFs). Die Zeitverzögerungen von NS sind für den realen Handel, so nehme ich an, unbedeutend.

Was mit echtem TS passieren wird, weiß ich noch nicht, aber NS scheint recht trainierbar zu sein. Sehen Sie sich einen Teil der grafischen Ausgabe des trainierten NS an. Ich kann noch nicht mit Sicherheit sagen, wie gut sie ausgebildet ist.) Aber es ist trainierbar)).


 
Yuriy Asaulenko:

Es ist interessant, dass ich zu genau der gegenteiligen Schlussfolgerung über "hässliche Ungetüme" gekommen bin).

RF erfordert die Auswahl von Prädiktoren, was angesichts der Anforderung ihrer mindestens linearen Unabhängigkeit eine nicht triviale Aufgabe ist. MLP I tweaken einfach die Zeitreihen, und die Anforderung der linearen Unabhängigkeit wird durch ein Komitee von mehreren NS gelöst, deren Eingänge entladene Zeitreihen sind (analog zu mehreren TFs). Die Zeitverzögerungen von NS sind für den realen Handel, so nehme ich an, unbedeutend.

Was mit echtem TS passieren wird, weiß ich noch nicht, aber NS scheint recht trainierbar zu sein. Sehen Sie sich einen Teil der grafischen Ausgabe des trainierten NS an.


Werfen Sie einfach Prädiktoren in Form von Oszillatoren auf den Chart, und Sie werden sehen, ob sie linear oder nichtlinear abhängig sind). Es werden keine Zahlen benötigt. Der NS kann sich selbst umlernen, aber er kann keine super nicht-linearen Korrelationen entwickeln, wenn sie nicht von Anfang an vorhanden oder inkonsistent sind.

Oder es ist notwendig, eine nukleare Maschine vor NS zu verwenden, wie in Jpredictor, das die Dimension der Eingaben durch Polynome erhöht und dann die informativsten durch SVM und irgendeinen anderen Mist belässt, aber andererseits wegen dieser Polynome kann es wie die Hölle übertrainieren

 
Maxim Dmitrievsky:

Man braucht nur die Prädiktoren als Oszillatoren in ein Diagramm zu werfen, und schon kann man sehen, ob sie linear oder nichtlinear abhängig sind). Keine Zahlen erforderlich. NS kann sich auch selbst umerziehen, es wird nicht in der Lage sein, irgendwelche super nicht-linearen Korrelationen aus dem Nichts zu erfinden, wenn sie nicht von Anfang an da sind oder inkonsistent sind.

Nicht alles ist so einfach, wie es scheint. Ich habe den Eindruck, dass SanSanych schon seit einem Jahr mit Prädiktoren herumhantiert und von einem Wald zum anderen (von einem Paket zum anderen) springt.

Maxim Dmitrievsky:

Oder vielleicht ist es notwendig, einen Kernel vor NS zu verwenden, wie in Jpredictor, das die Dimensionalität der Eingaben mit Polynomen erhöht und dann die informativsten durch SVM und anderen Mist übrig lässt.

Lineare Unabhängigkeit und Nichtlinearität haben nichts miteinander zu tun. Dies sind unterschiedliche Konzepte.Lineare Unabhängigkeit
Линейная независимость — Википедия
Линейная независимость — Википедия
  • ru.wikipedia.org
имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
 
Maxim Dmitrievsky:

Werfen Sie doch einfach Prädiktoren in Form von Oszillatoren auf das Diagramm, dann können Sie sehen, ob sie linear oder nichtlinear abhängig sind.)

PS Übrigens sind MLPs, anders als einschichtige P., von Natur aus nichtlinear und durchaus in der Lage, nichtlineare Zeichen zu verallgemeinern.
 
Yuriy Asaulenko:
PS Übrigens sind MLPs im Gegensatz zu einschichtigen P. von Natur aus nichtlinear und durchaus in der Lage, nichtlineare Merkmale zu verallgemeinern.

Sie können es, die RF kann es auch, aber sie sind nicht weniger überlernt
 
Maxim Dmitrievsky:
Es gibt kein Ziel, sondern es funktioniert nach dem Prinzip, dass alle Prädiktoren im Aggregat umso schneller zu diesem Durchschnitt konvergieren, je weiter sie vom Durchschnitt entfernt sind, d. h. es funktioniert nach dem Prinzip des Bayes'schen Klassifikators, der solche Gewichte findet, die im Aggregat die größte Abweichung vom Durchschnitt in jedem einzelnen Fall ergeben würden, und am Ende sollten sie wieder konvergieren. Da wir die Prädiktoren in der stationären Form nehmen, ist es klar, dass der Durchschnitt 0 ist. Wenn der Output >0 ist, verkaufen wir, wenn <, kaufen wir.
Ich verstehe nicht ganz, ob das Training mit oder ohne Trainer erfolgt, und wenn ja, was ist das Kaufsignal für den Klassifikator?
 
mytarmailS:
Es ist nicht ganz klar, ob mit oder ohne Lehrer trainiert wird. Wenn mit einem Lehrer, was ist dann das Kaufsignal für den Klassifikator?
Ohne einen Lehrer in der Optimierer Gewichte abgeholt werden, bereits diskutierten Artikel und Beispiel, schauen Sie in das Thema RNN Reshetov
 
Maxim Dmitrievsky:
Im Allgemeinen hat NS keine Vorteile gegenüber RF, die Berechnung dauert lange, der Fehler ist größer... wenn Sie schnelles Training wollen, dann definitiv RF+Optimizer

Über die Geschwindigkeit der NS.

Speziell zu diesem Zweck habe ich ein Geschwindigkeitsexperiment durchgeführt. Dafür habe ich einen MLP mit der Schichtstruktur [15,15,15,8,2] genommen. Der Umfang der Trainingsstichprobe beträgt: Eingabe - 15 x 10378, Ausgabe - 2 x 10378.

Das MLP-Training auf diesen Daten mit 10 Epochen dauert etwa 10 Minuten.

Direktes Arbeiten mit den Daten - die Eingabe 15 x 10378 wird in weniger als 3 Sekunden berechnet. D.h. ~0,0003 c/Probe.

Mehr als genug für den Bau von TC).

 
Yuriy Asaulenko:

Über die Geschwindigkeit der NS.

Speziell zu diesem Zweck habe ich ein Experiment zur Geschwindigkeit durchgeführt. Dafür habe ich einen MLP mit der Schichtstruktur [15,15.15,8,2] genommen. Der Umfang der Trainingsstichprobe beträgt: Eingabe - 15 x 10378, Ausgabe - 2 x 10378.

Das MLP-Training auf diesen Daten mit 10 Epochen dauert etwa 10 Minuten.

Direktes Arbeiten mit den Daten - die Eingabe 15 x 10378 wird in weniger als 3 Sekunden berechnet. D.h. ~0,0003 c/Probe.

Mehr als genug Zeit, um einen TS zu bauen).

Etwas zu schnell, so sollte mb eine Stunde oder mehrere Stunden trainiert werden, durch welchen Algorithmus L-BFGS? Ich habe auch 15 Eingaben gemacht, aber nur eine versteckte Schicht mit 15-20 Neuronen, ich habe ein Alglibian TS trainiert... also habe ich nicht gewartet und die Größe der Eingabevektoren reduziert) Ich habe 3 Eingänge mit 10k Vektoren in 5-10 Minuten mit einer versteckten Schicht trainiert. Und es ist nicht langsam Backpropagation aber schnell mit 1-3 Epochen. i5 CPU

Stellen Sie sich vor, dass Sie selbst mit 10 Minuten Zeit keine fertige Strategie haben und in Ihrem Optimierer durch N Prädiktoren, Vektorlängen, Anzahl der versteckten Schichten usw. suchen müssen, um eine Strategie zu finden...

Grund der Beschwerde: