Einsatz neuronaler Netze im Handel. - Seite 2

 
ein häufiger Fehler ist die Nichtberücksichtigung von "Level"- und "Volume"-Messungen (Volumen bei Futures)
 
Neutron писал(а) >> Geben Sie als Eingabe die bereits zerlegte Zeitreihe ein, d.h. nicht jeden Balken, aber die wahrscheinlichen Schlüsselpunkte

Im Allgemeinen ist es nicht empfehlenswert, Zeitreihen zu unterbrechen, insbesondere im Finanzbereich - die Informationen gehen verloren.....

 
StatBars писал(а) >>

Eine Sigmoidalfunktion an sich glättet die Verteilung nicht... Meiner Meinung nach ist es wichtiger, das Problem der Stationarität der Daten während der Vorverarbeitung zu lösen.

Übrigens, die Formel, die Sie mir gegeben haben, hat W=420, d=14, also P>50400 - denken Sie nicht, dass die Stichprobe ein bisschen zu groß ist?

Nein, weder die singhmoidale noch die hyperbolische Funktion gleichen die Verteilung aus. Sie können dies leicht überprüfen, indem Sie die Verteilung vor und nach Anwendung der Funktion grafisch darstellen. Hier müssen Sie besondere Methoden anwenden.

Was die "Größe" der Stichprobe betrifft, so ist ein Kompromiss möglich. Zum Beispiel ist es möglich, bei einer geringeren Länge der verfügbaren historischen Daten ein frühzeitiges Aufhören des Trainings zu empfehlen, es wird erlauben, den Effekt des Umtrainierens zu vermeiden, aber die Klassifizierungsfähigkeiten von NS bei einer solchen Art des Trainings werden auf jeden Fall schlechter sein als NS, die auf einer ausreichend großen Geschichte trainiert wurden.

Nach meiner Erfahrung (klein) und Artikel die Anzahl der Beispiele in der Probe nicht ab, wie Sie bieten ...

Und meiner Erfahrung nach gibt es keine Widersprüche - alles entspricht der Theorie.

LeoV schrieb >>

Im Allgemeinen ist es nicht empfehlenswert, Zeitreihen, insbesondere im Finanzbereich, zu unterbrechen - die Informationen sind verloren.....

Aufgrund der Komplexität des NS-Trainings sind wir immer gezwungen, einen Kompromiss zwischen architektonischer Komplexität und Rechenleistung zu finden. Mit der begrenzten Komplexität der von uns verwendeten Architektur haben wir natürlich eine Begrenzung der Grenzdimension der NS-Eingabe, was zur Folge hat, dass wir die Eingabe mit einem Vektor füttern können, der nicht länger als einige (höchstens hundert) ist, und zwischen Datenverlust und Geschichtsabdeckung wählen müssen. Manchmal ist es wichtig, so viel wie möglich abzudecken und das Abgedeckte in angemessener Zeit zu begreifen (im Sinne von AI).

 
Neutron писал(а) >> Aufgrund der Komplexität des NS-Trainings sind wir immer gezwungen, einen Kompromiss zwischen architektonischer Komplexität und Rechenleistung zu finden. Aufgrund der begrenzten Komplexität der von uns verwendeten Architektur ist die Dimensionalität der NS-Eingabe natürlich begrenzt, so dass wir die Eingabe mit einem Vektor füttern können, der nicht länger als einige (maximal hundert) ist, und zwischen Datenverlust und Abdeckung der Geschichte wählen müssen. Manchmal ist es wichtig, mehr zu lernen und das Gelernte in einer angemessenen Zeit (im Sinne von KI) zu verstehen.

Es macht keinen Sinn, die Komplexität der Architektur eines neuronalen Netzes zu erhöhen, denn 10-15 Neuronen können problemlos die Geschichte von 1500-2000 Takten oder sogar mehr lernen. Aber je besser sie die Geschichte lernen, desto schlechter werden sie in Zukunft arbeiten - der Effekt des Übertrainings tritt ein. Es ist viel effektiver und produktiver, "richtige" Einträge zu finden, die den NS die richtigen Informationen über die Symbolbewegung geben.

 

Leonid, es gibt kein Problem mit der Umschulung des NS - es liegt daran, dass man nicht versteht, was in dieser Schachtel mit dem schönen Namen und den drei Nägeln drin vor sich geht. Nehmen Sie keine Trainingsprobe, die kürzer als minimal ist, und Sie werden nicht nach Bauchgefühl entscheiden müssen, was besser und was schlechter ist!

Bezüglich der "richtigen" Eingaben stimme ich Ihnen zu 100% zu, das ist der Schlüssel zum Erfolg - alles, was für NS-ku gelöst werden kann, muss unabhängig gelöst werden. Es muss bei Dingen bleiben, die die Lösung nicht hat oder die ungerechtfertigt schwierig sind. Es macht zum Beispiel überhaupt keinen Sinn, den Zick-Zack-Eingang zu speisen. Das Verhalten von NS in diesem Fall ist offensichtlich - es wird lernen, was auf der Oberfläche liegt - Vorzeichenwechsel von ZZ's Schultern, und es gibt keine Verwendung von solchen Eingangsdaten.

 
Neutron писал(а) >>

Leonid, es gibt kein Problem mit der Umschulung des NS - es liegt daran, dass man nicht versteht, was in dieser Schachtel mit dem schönen Namen und den drei Nägeln drin vor sich geht. Nehmen Sie keine Trainingsprobe, die kürzer als das Minimum ist, und Sie müssen nicht nach Bauchgefühl entscheiden, was besser oder schlechter ist!

Es gibt auch Probleme mit Stichproben - es ist klar, dass es in Forex bestimmte Bewegungsgesetze gibt, die sich mit der Zeit ändern. Wenn also die Stichprobe zu groß ist - das Netz wird diese Bewegungsgesetze nicht finden, weil es zu viele davon gibt und sie zu unterschiedlich, zu klein sind -, wird es sich schnell umlernen. Und es ist unmöglich, die genaue Formel zu finden - auch hier hängt also viel vom Händler ab, nicht von der Komplexität der NS-Architektur.

 

Das ist richtig. Direkt auf den Punkt gebracht!

Löst man das Problem auf einfache Weise, so stellt sich heraus, dass die optimale Stichprobenlänge P>(W^2)/d ist , und unter Berücksichtigung der Nicht-Stationarität der Prozesse auf dem Markt ist das Optimum

P=(4-8)*(W^2)/d. Das ist es, wovon Sie sprechen.

 
Neutron писал(а) >>

Dies ist in etwa das, was passiert: vor der Konvertierung, nach der Konvertierung, Bilder nicht von der gleichen Probe, aber dennoch haben es viele Male getan, der Effekt ist der gleiche...

 

Ich kann sehen, dass es eben ist.

Das kann aber nicht so sein, wenn man das Eingangssignal nur mit einer Funktion wie Sigmoid und/oder etwas Ähnlichem beeinflusst. Wenn wir die linke und rechte Achse im unteren Diagramm um die Hälfte des letzten Balkens im Histogramm verlängern (um ihn zu sehen), verschwindet das Wunder wahrscheinlich und wir sehen eine Glocke.

Oder es gibt eine Lücke in der Analyse.

 
Neutron писал(а) >>

Ich kann sehen, dass es jetzt ausgeglichen ist.

Aber so kann es nicht sein. Wenn wir die linke und rechte Achse im unteren Diagramm eineinhalb Mal so weit auseinander ziehen wie der letzte Balken im Histogramm (um ihn zu sehen), verschwindet das Wunder wahrscheinlich und wir sehen eine Glocke.

Oder aber es gibt eine Panne in der Analyse.

In den Bildern ist nicht normalisiert Daten und zusätzlich zu den verschiedenen Daten, gab ich nur ein Beispiel für das, was ich tat (wie es aussieht in das Ergebnis)

Und hier ist das Skript, mit dem Sie sehen können, wie die Ausgabe aussehen wird (aber seien Sie nicht zu wählerisch bei den Eingabedaten - dieses Skript wurde nur zur Veranschaulichung erstellt ...)

//Typ 0 - lineare Normierung, 1 - nicht-lineare Normierung

Dateien:
Grund der Beschwerde: