Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 631
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Haben Sie drei Neuronen am Eingang der zweiten Schicht, die von sigmoid verarbeitet werden? Wie passen Sie die Gewichte auf der zweiten Ebene an, deren Bereich von -1 bis 1 in Schritten von z. B. 0,1 gewählt wird?
In meinem Netz ist nach der Verarbeitung der zweiten Schicht die Zahl der Geschäfte zurückgegangen und meine Ergebnisse haben sich nicht wesentlich verbessert. Anders war es, als ich einfach ein Perzeptron mit 9 Eingängen und einem Ausgangsneuron einbaute und dann ein anderes unabhängiges Perzeptron nahm und es erneut einbaute, wobei die Einstellungen des ersten gespeichert wurden usw.
Das 4. Neuron verarbeitet die Ergebnisse der ersten drei, d.h. + 3 weitere Gewichte
Ja, von -1 bis 1 in Schritten von 0,1, aber nicht sigmoidal, sondern tangential
Ich habe versucht, eine Zwischenschicht mit denselben Gewichten wie die erste Eingabeschicht zu erstellen. Die Anzahl der Trades ist gesunken und die Qualität hat sich erheblich verbessert, aber die Optimierung von 9 zusätzlichen Gewichten ist zu viel :)
Ihre Version hört sich gut an... Ich habe darüber nachgedacht, konventionelle NS auf die Ergebnisse der Optimierung zu trainieren... Ich werde es versuchen müssen. Aber dieser Ansatz langweilt mich langsam
Das 4. Neuron verarbeitet die Ergebnisse der ersten drei, d.h. + 3 weitere Gewichte
Ich habe jetzt versucht, eine Zwischenschicht mit den gleichen Gewichten wie die erste Eingabeschicht zu erstellen - die Anzahl der Trades ist gesunken und die Qualität hat sich auch verbessert, aber die Optimierung von zusätzlichen 9 Gewichten ist schon zu viel :)
Ihre Version hört sich gut an... Ich habe darüber nachgedacht, konventionelle NS auf die Ergebnisse der Optimierung zu trainieren... Ich werde es versuchen müssen. Aber dieser Ansatz langweilt mich langsam.
Ich habe den Eindruck, dass ich einen Indikator für die erste Schicht erstellen und visuell sehen sollte, welche Gewichte auf die zweite Schicht angewendet werden sollten. Oder verarbeiten Sie es mit Sigmoid (dann erhalten Sie die Werte von etwa 0,2 bis 0,9), und dann können Sie kleine Gewichte nehmen und brauchen keinen großen Bereich von ihnen.
Plus zusätzliches Gewicht ohne Bindung an den Eingang ist nur ein Gewicht, was Dr.Trader mir vorgeschlagen hat. Das zusätzliche Bias-Gewicht verbessert die Ergebnisse ein wenig, zum Beispiel wird aus 1,7 mit Bias 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
Ich habe den Eindruck, dass Sie einen Indikator für die erste Schicht erstellen und visuell feststellen müssen, welche Gewichte Sie auf die zweite Schicht anwenden müssen. Oder verarbeiten Sie es mit Sigmoid (dann erhalten Sie Werte von 0,2 bis 0,9 oder so), und dann können Sie kleine Gewichte nehmen und brauchen nicht einen großen Bereich von Gewichten.
Plus zusätzliches Gewicht ohne Bindung an den Eingang ist nur ein Gewicht, was Dr.Trader mir vorgeschlagen hat. Zum Beispiel ist es 1,7 mit Vorspannung und jetzt ist es 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
es ist schwer, etwas aus dem Stegreif zu tun :) aber das Hauptproblem bleibt - Umschulung
Nun, 5-10 Neuronen zum Umlernen sind überhaupt kein Problem). So ähnlich scheint es auch bei Ihnen zu sein.
Auf dem Computer befand sich ein interessantes Exemplar. Sie haben eine Rede zu halten. Es wird ein Rauschen erzeugt und dieser Sprache überlagert. Dann wird eine einfache MLP gelehrt, und wir hören wieder fast reine Sprache.
Das hat mich total verwirrt, obwohl es eine Beschreibung eines ähnlichen Geräuschmodifikators in Haikin als Beispiel gibt.
Nun, 5-10 Neuronen zum Umlernen sind überhaupt kein Problem). So ähnlich scheint es auch bei Ihnen zu sein.
Auf dem Computer befand sich ein interessantes Exemplar. Sie haben eine Rede zu halten. Es wird ein Rauschen erzeugt und dieser Sprache überlagert. Dann wird eine einfache MLP gelehrt, und wir hören wieder fast reine Sprache.
Das hat mich wirklich verblüfft, obwohl es in Haikin als Beispiel beschrieben ist.
Einiges an Müll scheint übersehen worden zu sein, ich wünschte, ich hätte Zeit gehabt, daran teilzunehmen.
Die andere ist, dass sie meinen Beitrag gelöscht haben, in dem ich Herrn Terenyevsky antwortete und sagte, dass die lokalen Autoren die einzigen sind, die über die Zeitreihentests geschrieben haben. Ich habe Terentiev auf die Zeitreihentests geantwortet und gesagt, dass die lokalen Autoren Amateure sind, weil sie nicht verstehen, dass bei einer Genauigkeit von 70-80 % das Sharp-Verhältnis über 20 liegen wird, aber sie machen keinen Sinn.
meine Nachricht gelöscht, in der ich Herrn Terenyv geantwortet habe. Terentiev über Zeitreihentests und sagte, dass lokale Artikelschreiber nur Amateure sind, weil sie nicht verstehen, dass bei 70-80% Genauigkeit das Sharp-Verhältnis über 20 liegen wird, und sie haben irgendeinen Unsinn
ah, ok )
Ich habe mir Gedanken über das Erlernen von Re-Informationen gemacht und einen interessanten Artikel gefunden, den ich kaufen und vielleicht in den Bot einbauen möchte.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Ich versuche, den Bot zu kaufen, aber es ist irgendwie dumm, er lernt aus irgendeinem Grund erst am Ende zu kaufen.