Was soll in den Eingang des neuronalen Netzes eingespeist werden? Ihre Ideen... - Seite 79

 
Ivan Butko #:
Ein Beispiel: Schlusskurse [1,1000, 1,1050, 1,1025, 1,1070].
Problem: Durch die Normalisierung werden sie zu [0,0, 0,5, 0,25, 0,7], wodurch die Illusion einer Hierarchie entsteht.

Eine sehr merkwürdige Normalisierung...normalerweise wird sie ohne 0 (und vorzugsweise ohne 1) angeführt. Beides sind unerreichbare Grenzen, die Hämorrhoiden und Fehler mit sich bringen

und ich glaube, dass Sie etwas Altes wieder aufwärmen, so etwas wie Pearson's.

[Gelöscht]  
Eine heiße Kodierung in der Hand, angewandt auf die Kodierung kategorischer Merkmale. Oder Catboost, das die beiden unabhängig voneinander berücksichtigt.
[Gelöscht]  
Sie sehen, worauf ich hinaus will: Solange Sie nicht durch Meditation/Data Mining/Tamburintanz/Lernen mit verschiedenen Zeichen und Markierungen/andere okkulte Praktiken einige signifikante Muster finden, die funktionieren, werden alle diese Transformationen +- 10% auf der Ebene des Modellfehlers ergeben.

Aber es ist auch sehr schwierig, sie zu finden, nur als Ergebnis der Aufzählung.
 
Ivan Butko #:
Gleichzeitig wirkt sich die Zahl 0,9, die im anfänglichen Muster nicht ihre Stärke widerspiegelt, sondern tatsächlich eine Kraft auf den NS ausübt, auch negativ auf die anderen Zahlen aus, die im Bereich unterhalb dieser Zahl liegen - kleinere Zahlen. Und das Gewicht, das versuchen wird, den Eingabewert 0,9 zu schwächen (aufzuheben), wird auch noch(!) stärkere(!) und andere Werte im unteren Bereich dieser Eingabezahl (die später für die Leistung des Systems wichtiger sein können) schwächen, und zwar aufgrund seiner statischen Natur, weil sich die Gewichte in einem trainierten NS nicht ändern.

Dies ist ein interessanter Gedanke. Und offenbar hat sie ihre Berechtigung.
Irgendwann habe ich NS zugunsten hölzerner Modelle aufgegeben, Verwirrung mit Normalisierung ist eines davon. Dort funktioniert alles ironisch (hölzern). Werte < 0,9 gehen in einen Zweig, Werte >= 0,9 in einen anderen. Und der Wert 0,9 selbst beeinflusst die weiteren Aktionen bei Beispielen in diesen 2 Zweigen in keiner Weise.
Sie brauchen nicht normalisiert zu werden, alle Zahlen sind gleichwertig: 0,001 und 10000000 sind nur Vergleichswerte. Der Baum kann auch kategorische Fiches perfekt verarbeiten. Für sie erfolgt die Unterteilung in Zweige nicht durch < oder >, sondern durch ==. Zum Beispiel für Farben: alles Grüne kommt durch Gleichheit in einen Zweig, alles Rote in einen anderen, und der Rest bleibt für die weitere Aufteilung in Zweige (andere Kategorien und Zahlen).

 



Python-Modelle wirken Wunder Zum ersten Mal erschien das Ergebnis mit vielen Eingaben: Ich habe bis zu 160 Stück eingegeben.

(Warum 160? Ich habe einfach bei dieser Zahl aufgehört, ohne Grund) Normalerweise ist es umso schlechter, je mehr Eingaben gemacht werden. Aber dieses Mal lief es gut.

Ergebnis des Handels als Ziel auf.


2) Trainieren Sie mit einer beliebigen Methode.

3) Starten Sie unsere (pomoichny) Strategie

4) Fügen Sie einen Filter, um es - unsere NS.


Infolgedessen müssen wir einige intellektuelle, kreative Anstrengungen, Geduld und Zeit aufwenden, um eine Strategie auszuwählen.

Das neuronale Netz wird den Rest erledigen.

Wir nehmen dem neuronalen Netz eine unerträgliche intellektuelle Arbeit ab, einfach deshalb, weil das NS bei den derzeitigen Gegebenheiten nicht einmal in der Lage ist, die Ebenen zu bestimmen, wenn sie nicht "von selbst" markiert sind.

Und es wird tun, was es tun soll: den TS mahlen.



Und durch die Anhebung der Regressionsschwelle für den Vorwärtsgang werden auch die Eingaben verbessert.


Normalerweise, in 99% der Fälle, bringt die Erhöhung des Eingangsschwellenwerts nichts und reduziert dummerweise die guten Eingaben zusammen mit dem Chaos proportional, aber hier bleiben die Qualitätseingaben erhalten und das Rauschen verschwindet. BiLSTM-Modell (LSTM gibt das gleiche, der Unterschied ist gering).

 
Ivan Butko #:

U nd hier sind es nur Preise + Methode zur Bestimmung von Inputs und Ziel durch TS:.

Also nur Preise ohne jegliche Umrechnung? Seltsam!



I van Butko #: Python-Modelle wirken Wunder

Das ist ja toll! Es muss wenigstens manchmal ein Positives von harter Arbeit geben!!!

 
Aleksey Vyazmikin #:

D.h. nur Preise ohne jegliche Umrechnung? Neugierig!

Das ist ja toll! Es muss doch wenigstens manchmal etwas Positives von harter Arbeit geben!!!

Aus Gewohnheit füge ich nicht hinzu: Normalisierung wie üblich: die ganze Menge (160 Preise) wird in den Bereich -1...1 gebracht
 
Ivan Butko #:
Ich füge sie nicht aus Gewohnheit hinzu: Normalisierung wie üblich: die gesamte Menge (160 Preise) wird in den Bereich -1...1 gebracht

Was ist der Trainingszeitraum? Wurden die Schlusskurse angegeben? Von welchem TF? Test auf Demo von MQ? Wie hoch ist die matte Erwartung pro 1 Lot?

 
Wären da nicht die sechsmonatigen Drawdowns, wäre es in Ordnung. Ich habe sie bis zu 2 Jahre lang gehabt. Beim Testen mit 2015 valkingforward.

PS. Wie können Sie alle nachts arbeiten? Tagsüber ist die effizienteste Zeit.
[Gelöscht]  
Nun, zumindest hat die Bewegung hin zu einer gesunden MO begonnen, was schon mal nicht schlecht ist.