Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 363

 
Maxim Dmitrievsky:

Warum so engstirnig denken, jeder hier schreibt, als hätte er noch nie etwas Süßeres als eine Karotte gesehen )) Scheiß auf Prädiktoren, bring dem Neuron bei, dieselben Prädiktoren zu finden, bring dem Neuron bei, das Neuron zu lehren, experimentiere :) Natürlich ist es sehr dumm, einfach Indikatoren zu nehmen, sie im Zickzack in den Input und den Output zu stecken, ich weiß nicht, warum alle darüber diskutieren :)

Ich wünschte, ich könnte es, aber...

Zum Beispiel, Faltungsneuronale Netze teilweise besitzen eine solche "Fähigkeit", können sie lernen, Pre-Processing (Filterung) selbst, aber sie sind sehr eng spezialisiert, wie Nachkommen der Neo-Cognitron Focus, als ein "analog" der Netzhaut Auge, von Backprops trainiert, CNN tatsächlich für Bilder ist nicht trivial Sache auch? Leider ist es aus technischer Sicht eine naive Utopie, ein Wundersystem zu entwickeln, mit dem sie alles selbst machen können. Es ist viel einfacher, Speziallösungen für eine bestimmte Aufgabe zu entwickeln, was ohnehin jahrelange Teamarbeit erfordern kann, während SRS eher etwas Philosophisches und Humanitäres ist.

 
Aljoscha:

Ich wünschte, ich könnte es, aber...

Zum Beispiel, Faltungsneuronale Netze teilweise besitzen eine solche "Fähigkeit", können sie lernen, Pre-Processing (Filterung) selbst, aber sie sind sehr eng spezialisiert, wie Nachkommen der Neo-Cognitron Focus, als ein "analog" der Netzhaut Auge, von Backprops trainiert, CNN tatsächlich für Bilder ist nicht trivial Sache auch? Es gibt eine Menge magischer Zahlen und schamanischer Architekturen beim Konfigurieren, ein Schritt nach links, ein Schritt nach rechts und alles geht kaputt, d.h. es ist eine sehr feine Abstimmung der Aufgabe, aber keine Universallösung für alles und jedes. Leider ist es aus ingenieurtechnischer Sicht viel einfacher, ein Wundersystem zu entwickeln, dass sie alles selbst machen würden - eine naive Utopie, es ist viel einfacher, Einzellösungen zu machen, die ohnehin jahrelange Teamarbeit erfordern können, und FTI ist näher an etwas Philosophischem, Humanitärem.


Aber ich glaube, dass es möglich ist, ein gutes, selbstoptimierendes Werkzeug zu entwickeln, das nicht immer perfekt funktioniert, aber von Zeit zu Zeit schon.

Aber es wird natürlich nicht mit Standard-Indikatoren und einem Zickzack-Ausgang funktionieren :) Für mich klingt das sogar wie ein Kinderspiel, wenn auch nur als Beispiel.

 
Maxim Dmitrievsky:

es ist nicht so, dass sie nicht korreliert sind, sie werden sich widersprechen, wenn die Stichprobe zunimmt, ja, als Ergebnis ist entweder die Ausgabe immer 0 oder 1, oder 0,5... außerdem für 1 Neuron. Wenn also >0,5 verkaufen und <0,5 kaufen. Sie setzen korrekte (Ihrer Meinung nach) Prädiktoren und korrekte Antworten, d.h. wenn psi überverkauft ist und der Markt in den nächsten n-Balken steigt, dann geben Sie 0 aus, und wenn psi überkauft ist und der Markt fällt, dann geben Sie 0 aus. Aber es wird viele Fälle geben, in denen es umgekehrt ist und er abstumpft, die Signale durcheinanderbringt und in Trance verfällt. Als Ergebnis wird die Ausgabe immer um 0,5 mit sehr kleinen Abweichungen in die eine oder andere Richtung sein... und es wird mit allen Oszillatoren passieren, weil sie keine Prädiktoren sind, sie leiten nur vom Preis ab :)
Sie sollten kaufen, wenn Sie > 0,8 sind, und verkaufen, wenn Sie < 0,2 sind. Auf diese Weise eliminieren Sie das Rauschen, das in der Mitte des Bereichs liegt, d. h. etwa 0,5
 
elibrarius:
Sie müssen kaufen, wenn >0,8, wenn<0,2 verkaufen. Auf diese Weise eliminieren Sie das Rauschen, das in der Mitte des Bereichs liegt, d. h. um 0,5

du verstehst es nicht )
 
ein neuronales Netzwerk ist eine künstliche Intelligenz und jedes denkende System funktioniert nicht umsonst.... es ist nicht dumm...man bietet ihm vor dem Training Geld an oder verspricht ihm einen Prozentsatz des Erlöses, dann wird es anfangen, echte Muster zu finden und Einkommen zu erzielen...
 
Eine Frage an diejenigen, die sich schon lange mit dem Thema NS beschäftigen.
Neuronale Netze in ALGLIB und R - nehmen die Gewichte von -1 bis 1 zu?
 
elibrarius:

Es ist kompliziert... Es würde mehr Zeit in Anspruch nehmen, als den Algorithmus zu verstehen (wie bei der K-Korrelation oben) und ihn zu schreiben. Ich denke, dass das Ausprobieren aller Eingaben, die Berechnung der Korrelation und das Herausfiltern der stark korrelierten Eingaben einige Stunden dauern wird.

Hoffentlich wird es mit anderen Lösungen zum Aussieben von Prädiktoren genauso einfach sein)

Gibt es also noch andere Lösungen, um unnötige Prädiktoren zu finden?

Schauen Sie hier nach.

Bei der Schätzung der Bedeutung von Prädiktoren ist zu beachten, dass es sich um einen komplexen Wert handelt, der nicht nur durch Informationskriterien bestimmt wird. In dem Artikel habe ich ein Beispiel für die Auswahl von Prädiktoren mit RandomUniformForest gegeben, um die Bedeutung von Prädiktoren in verschiedenen Aspekten zu zeigen. Meiner Meinung nach ist es das erfolgreichste Paket für diesen Zweck.

Speziell bei neuronalen Netzen kann die Bedeutung der Prädiktoren durch ihre Gewichte in der ersten Schicht bestimmt werden. Dieser Ansatz wird in H2O verwendet. Wenn ich Zeit finde, werde ich Ihnen ein Beispiel geben.

Zusätzlich zur Bedeutung der Prädiktoren sollten wir auch Rauschbeispiele (Strings) definieren. Entweder werden sie in eine separate Klasse eingeordnet oder aus dem Trainingssatz entfernt. Siehe NoiseFilterR

Viel Glück!

 
elibrarius:
Eine Frage an diejenigen, die sich schon lange mit dem Thema NS beschäftigen.
Neuronale Netze in ALGLIB und R - nehmen die Gewichte von -1 bis 1 zu?
Meinen Sie die anfängliche Initialisierung der Gewichte oder?
 

Vladimir Perervenko:
In meinem Artikel habe ich ein Beispiel für die Auswahl von Prädiktoren unter Verwendung von RandomUniformForest gegeben , um die Bedeutung von Prädiktoren in verschiedenen Aspekten zu zeigen.

Es wäre interessant, den Algorithmus zur Berechnung der Wichtigkeit in dieser Funktion zu kennen, um ein Analogon in MQL zu erstellen.

Vladimir Perervenko:

Speziell bei neuronalen Netzen kann die Bedeutung der Prädiktoren durch ihre Gewichte in der ersten Schicht bestimmt werden. Dieser Ansatz wird in H2O verwendet. Wenn ich Zeit finde, werde ich Ihnen ein Beispiel geben.

Ich habe auch darüber nachgedacht, es ist nicht schwer umzusetzen.

Vladimir Perervenko:

Zusätzlich zur Bedeutung der Prädiktoren sollten wir auch Rauschproben (Strings) definieren. Sie sollten entweder eine eigene Klasse für sie erstellen oder sie aus dem Trainingssatz entfernen. Siehe NoiseFilterR

Das ist neu für mich, danke für die Idee, ich sollte darüber nachdenken).


Vladimir Perervenko:
Beziehen Sie sich auf die anfängliche Initialisierung von Skalen oder?
Ich meine den gesamten Bereich, in dem sie aufeinander abgestimmt sind - von -1 bis 1.
Der Anfangspunkt wird zufällig gewählt, nehme ich an (optional in der Mitte des Bereichs).
 
elibrarius:

Es wäre interessant, den Algorithmus der Wichtigkeitsberechnung in dieser Funktion zu kennen, um ein Analogon in MQL zu erstellen.

Ich habe auch darüber nachgedacht, es ist nicht schwer zu implementieren.

Das ist neu für mich, danke für die Idee, ich werde darüber nachdenken).


Ich meine den gesamten Bereich, in dem sie abgeglichen werden - von -1 bis 1.
Ich gehe davon aus, dass der Startpunkt zufällig gewählt wird (alternativ in der Mitte des Bereichs).

Neuronale Netze sind sehr empfindlich gegenüber der Initialisierung der Gewichte. Dies ist keineswegs ein triviales Thema. Es gibt eine ganze Reihe von Möglichkeiten der Initialisierung, von denen das Pretraining (das in tiefen neuronalen Netzen verwendet wird) die vielversprechendste ist (IMHO).

Während des Trainings können die Gewichte der Neuronen Werte in einem weiten Bereich von -inf bis +inf annehmen. Regularisierungs- und andere Stabilisierungstechniken werden eingesetzt, um diese Verzerrungen zu verhindern und den Bereich der Gewichte zu begrenzen.

Viel Glück!

Grund der Beschwerde: