Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 608

 
Dr. Trader:

klingt genau wie das Ensemble von NS

wenn ich mich nicht täusche

 
Dr. Trader:

Dann wählen wir die Modellparameter aus (Aktivierungsfunktion, Anzahl der Schichten und deren Größe usw.), und jedes Mal, wenn wir all diese Schritte durchführen (5 Modelle trainieren, 5 Chunks für jedes Modell vorhersagen, sie kombinieren, R2), erreichen wir eine immer bessere Schätzung.

Das sind Hunderte von Netzen, die aufgebaut und trainiert werden müssen! Aber bis jetzt sehe ich keine andere Möglichkeit(

 
Ich muss jetzt schlafen gehen:

Ich glaube, wenn du ihm schreibst und ihm tausend Pfund pro Stunde anbietest, kannst du Einzelunterricht von Perchik bekommen, Perepelkin kostet ein bisschen mehr, aber das ist es wert


Mann, meinst du das mit Pertschik ernst? Das ist hart.)

Tausend Dollar für einen gemieteten Fahrer zu zahlen.

Ich weiß nichts über den anderen... und ich will es auch nicht wissen.)

Wie auch immer, es ist alles sehr interessant, aber ich werde jetzt ins Bett gehen und meine Bücher für diese Woche beenden.

 
Maxim Dmitrievsky:

klingt wie ein Ensemble aus dem NS

wenn ich mich nicht irre.

Am Ende erhalten Sie ein normales Ensemble, ja. Aber das Ergebnis wird viel besser sein als "nur 5 Neuronen auf das gesamte Arbeitsblatt zu trainieren".


Eidechse_:

Nun ja, Standard-Option, obwohl ich es ohne qv bevorzuge, habe ich zuvor geschrieben...
Doc, versuchen Sie, die Steilheit mit verschiedenen Parametern festzulegen und zu testen.

Ich habe LibreOffice, die Neuronen funktionierten darin nicht.


elibrarius:

Das sind Hunderte von Netzen, die aufgebaut und trainiert werden müssen! Aber bisher ist keine andere Möglichkeit in Sicht(

Deshalb mag ich zum Beispiel das gbm-Paket in R, dessen Lerngeschwindigkeit um Größenordnungen schneller ist. Es geht nicht um Neuronik, sondern um Gerüstbau und Verstärkung.

Interessant ist auch, dass die k-fache Kreuzvalidierung bei mir selbst bei einer geringen Anzahl von Epochen des neuronalen Netzwerktrainings gut funktioniert hat. Die Anzahl der Epochen war einer der Trainingsparameter, die ich ausgewählt habe. Kleine Anzahl von Epochen = schnelles Lernen, das ist ein Plus. Aber die mögliche Genauigkeit des Modells ist geringer, das ist ein Minuspunkt.

 
Dr. Trader:

Ich schlage vor, dass Sie lernen, wie man die k-fache Kreuzvalidierung durchführt. Ich habe verschiedene Möglichkeiten gesehen, diese funktioniert gut -

...


Es gibt auch eine Nuance, dass die anfänglichen Gewichte von neuronka zufällig festgelegt werden, und das Endergebnis des Trainings kann sehr stark davon abhängen, auch für Wald- und andere Modelle.
Jedes Mal, bevor ich das Modell trainiere, setze ich den Wert des Zufallszahlengenerators auf den gleichen Stand:

set.seed(12345)

Auf diese Weise erhalte ich reproduzierbare Ergebnisse und Stabilität. Anstelle von 12345 kann auch der gpsch-Kornwert übernommen werden, was zwar etwas komisch klingt, aber manchmal notwendig ist.

 
Dr. Trader:

Eine weitere Nuance ist, dass die anfänglichen Gewichte von neuronka nach dem Zufallsprinzip festgelegt werden, was sehr stark vom Endergebnis des Trainings abhängen kann, auch bei Forest- und anderen Modellen.
Jedes Mal, bevor ich ein Modell trainiere, setze ich den Wert des Zufallszahlengenerators auf den gleichen Stand:

Auf diese Weise erhalte ich Wiederholbarkeit und Stabilität. Sie können auch den gpsh-Kornwert anstelle von 12345 einstellen, was sich zwar recht komisch anhört, aber manchmal notwendig ist.



Werfen Sie Ihr Netz in den Papierkorb, da es so auf gpsh-Werte reagiert. Ein normales Netz funktioniert und lernt bei allen Anfangswerten, sogar bei Null.


 
Sergey Chalyshev:

Wenn man diesem Neuron viele Neuronen und Schichten und unendlich viele Trainingsepochen zur Verfügung stellt, hat es kein Problem, die gewünschte Genauigkeit mit einem beliebigen Ausgangskorn zu erreichen.

Ich zum Beispiel lerne gerade, den Preisanstieg pro Barren vorherzusagen. Das Problem besteht darin, dass die Preise stark verrauscht sind (realer Preis + einige zufällige Verschiebungen), und es ist unmöglich, dieses Rauschen vorherzusagen. Aber wir können die Kreuzvalidierung nutzen, um Parameter auszuwählen, bei denen sich das Modell noch nicht an das Rauschen erinnert, sondern diese Daten irgendwie zusammenstellt und zumindest in einem kleinen Prozentsatz der Fälle korrekte Vorhersagen macht. Und bei einigen Anfangswerten der Gewichte beginnt das Modell sofort, sich an Rauschen zu erinnern, anstatt zu versuchen, diese Daten zu verallgemeinern, das ist schlecht, dann sollten Sie nach einem anderen Anfangskorn für die Initialisierung der Gewichte suchen.

 
Sergey Chalyshev:


Werfen Sie Ihr Netzwerk in den Papierkorb, wenn es so sehr auf gpsh-Werte reagiert. Ein normales Netzwerk funktioniert und lernt bei allen Anfangswerten, sogar bei Null.



Es ist nur eine weitere Erklärung dafür, dass man keine statischen Methoden in dynamischen Systemen verwenden kann.

Dies ist nur eine weitere Erklärung dafür, dass man keine statischen Methoden für dynamische Systeme verwenden sollte.

 

Betrachten wir nun die Architektur für das Lernen auf Zeitleisten und nicht auf Bildern von SEALs, Option eins:

 

Option 2:

Ich meine, die Kombination von NS und Automaten scheint eine gute Lösung zu sein, mit positiven und negativen Schaltkreisen, aber wer und wie sie umgesetzt wird, ist eine andere Frage. Für mich persönlich ist dieser Ansatz der naheliegendste