Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 629

 
Yuriy Asaulenko:

Maxim, trainieren Sie das Netz nicht mit dem MT-Optimierer. Der NS-Trainer und der Optimierer sind völlig unterschiedliche Algorithmen mit völlig unterschiedlichen Optimalitätskriterien.

Wenn Sie immer noch die NS-Struktur verwenden, die Sie vorher gezeichnet haben, dann ist es ein bisschen einfach - schwach für den Markt. Ich habe bereits geschrieben, dass ich erst erfolgreich war, als ich die Struktur 15-20-15-10-5-1 erreicht hatte. Und dies gilt nur für eine Art von Geschäften. Ich habe auch absolut alles nach den von Haikin beschriebenen Methoden gemacht, also nichts Neues, keine Tricks.

Einfachere Strukturen waren schlecht ausgebildet.

Haben Sie versucht, nicht die Anzahl der Schichten, sondern die Anzahl der Neuronen in einer Schicht zu nehmen? Zum Beispiel 15-200-1 oder 15-200-20-1?

Yuriy Asaulenko:

In der Tat sind die für die Ausbildung erforderlichen Daten nicht zahlreich, sondern sehr umfangreich. Bei einer kleinen Stichprobengröße wird NS nichts Brauchbares erhalten.

Und wie viele Daten nehmen Sie? Ich nehme 86000 Saiten für die Ausbildung.

 
elibrarius:

1) Haben Sie versucht, nicht die Anzahl der Schichten, sondern die Anzahl der Neuronen in einer Schicht zu nehmen? Zum Beispiel 15-200-1 oder 15-200-20-1?

2) Und wie viele Daten nehmen Sie? Ich habe 86000 Zeilen für die Ausbildung gebraucht.

1. Ich habe es nicht ausprobiert. 20 in der ersten Schicht sind völlig ausreichend. Wurde durch die Erhöhung sowohl der Neuronen pro Schicht als auch der Schichten.

2. Ich hatte etwa 12000 Zeilen im Training mit zwischenzeitlichem Shuffling zwischen N Epochen. Nach einigen Epochen wurden die Trainingsdaten durch andere Daten ersetzt, die zuvor nicht in das Training einbezogen waren.

 
Aleksey Terentev:

Ich entschuldige mich für die Beleidigung, aber Sie sollten Ihren Beitrag noch einmal lesen. Es sieht ziemlich zweideutig aus.
Und im Allgemeinen haben Sie Recht, aber nur was die erste Schicht des neuronalen Netzes betrifft. Wenn die Rückkopplung in die zweite und die folgenden Schichten oder allgemein in parallele Netzschichten geht, wird Ihre Aussage ungültig.
In diesem Fall sollte Maxim darüber nachdenken, das Netz zu vertiefen und den verborgenen Schichten Feedback zu geben.

Und was ist damit?

Das ist dasselbe. MLPs sind schon lange nicht mehr relevant, Deep Learning ist seit langem im Trend. Und ein Netz ist durchaus in der Lage, heterogene Daten zu verarbeiten, die Hauptsache ist die Architektur.

Ich stimme zu, aber wie man die Tiefe mit all den Tricks, die aufkam zu kombinieren :) in der Optimierer wird ein bisschen lang zu lernen ... aber sehr, sehr hohe Qualität, weil es und der Handel geschieht auf einmal

Ich denke, dass mehr als 30 Gewichte für den Optimierer nicht in Frage kommen.

+ Viele Leute vergessen, dass es eine Cloud gibt, die im Allgemeinen cool ist, um mit all diesen Dingen zu arbeiten, aber man muss sehr gut darin sein, den Code zu optimieren.

 
Maxim Dmitrievsky:

Ich stimme zu, aber wie man die Tiefe mit all den Tricks, die aufkam zu kombinieren :) in der Optimierer wird ein bisschen lang zu lernen ... aber sehr, sehr hohe Qualität, weil es und der Handel geschieht auf einmal

Ich denke, mehr als 30 Gewichte sind für den Optimierer nicht möglich.

+ Ich glaube, viele Leute vergessen, dass es eine Cloud gibt, mit der all diese Dinge Spaß machen, aber man muss den Code sehr gut optimieren.

Versuchen Sie, die Eingabeebene zu duplizieren.

 
Aleksey Terentev:


Das ist dasselbe. MLPs sind nicht mehr relevant, Deep Learning ist schon seit langem im Trend. Und ein Netz ist durchaus in der Lage, heterogene Daten zu verarbeiten, es kommt nur auf die Architektur an.
Wenn eine MLP eine Aufgabe lösen kann, welchen Unterschied macht es dann, ob sie auf dem neuesten Stand ist oder nicht? Gerade bei MLPs muss man sich nicht groß anstrengen - es gibt fast überall alles für sie.
 
Aleksey Terentev:

Versuchen Sie, die Eingabeschicht zu duplizieren.

Thema, und mischen Sie die Gewichte :)
 
Yuriy Asaulenko:
Wenn MLPs ein Problem lösen können, welchen Unterschied macht es dann, ob sie relevant sind oder nicht? Gerade bei MLPs muss man sich nicht anstrengen - es gibt praktisch überall alles für sie.

Ich versuche nicht, Sie zu etwas zu zwingen. Die eingehende Untersuchung beginnt mit MLPs.
Aber wenn es um die Darstellung von Daten in einem Netz, ihre Bewegung und Transformation geht, stellen sich natürlich Fragen nach Aktivierung, rekurrenten Schichten, Regularisierung, Kombination von Schichten usw. Das nenne ich tiefes Lernen.

Außerdem gibt es alles und überall für Deep Learning. =)
 
Yuriy Asaulenko:
Wenn MLPs ein Problem lösen können, welchen Unterschied macht es dann, ob sie relevant sind oder nicht? Gerade bei MLPs muss man sich nicht anstrengen - es gibt praktisch überall alles für sie.
Es ist nur so, dass man in der Tiefe viel schneller lernen kann, wenn alle anderen Dinge gleich sind... nicht 10 Stunden, sondern 5 Minuten, zum Beispiel :)
 
Aleksey Terentev:

Nun, ich neige Ihnen zu nichts. Deep Learning beginnt bereits mit MLPs.
Wenn es jedoch um die Darstellung von Daten im Netz, ihre Bewegung und Transformation geht, stellen sich natürlich Fragen zu Aktivierung, rekurrenten Schichten, Regularisierung, Schichtkombination usw. Das ist tiefes Lernen.

Ich verstehe das, aber ich spreche von etwas anderem. Für das Zwei-Rohr-Problem braucht man keine höhere Mathematik, sondern nur Arithmetik. Ob Arithmetik relevant ist oder nicht, ist eine andere Frage.

Das heißt, Sie müssen zuerst das Problem definieren und dann die Lösungsmethoden wählen.

Was die großen und komplizierten Aufgaben von DM - DL, MLP betrifft, so ist das Stadium sicherlich längst vorbei.

 
Maxim Dmitrievsky:
Es ist nur so, dass der Tiefgründige noch viel schneller lernen kann, wenn alle anderen Dinge gleich sind... nicht 10 Stunden, sondern 5 Minuten, zum Beispiel :)
Ich kann es nicht mit Sicherheit sagen, aber ich habe den Eindruck, dass es sich um Illusionen handelt. Nur aus allgemeinen Erwägungen.
Grund der Beschwerde: