Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 77
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ein sehr gutes Ergebnis für R, wenn man bedenkt, dass alle anderen Sprachen für viele verschiedene Zwecke verwendet werden und R nur für die Datenverarbeitung.
Haben Sie versucht, mit meinen Daten zu trainieren?
Ich habe ein 5-tägiges Experiment durchgeführt. Ich quäle nur EURUSD!
Ich habe 99 Trainingsproben in der Größe gemacht, die ich hier gepostet habe. Sie sind alle einzigartig, da sie zeitlich gestaffelte Beobachtungen enthalten. Ich trainiere Modelle auf ihnen und werde einen Ausschuss für GBM-Wälder bilden. Ich habe bereits einige interessante Ergebnisse bei der Validierung, obwohl ich in 24 Stunden erst 18 Proben durchlaufen habe. Allerdings habe ich die Validierung 2,5 Mal durchgeführt, und ich werde später zeigen, warum!
Wie Sie sehen können, wurde das Modell bereits in der ersten Trainingsstichprobe so trainiert, dass ich bei 400 K Beobachtungen in der Validierung MO 2,7 Punkte (einschließlich Streuung) erhielt.
Nun, es gibt noch 1, 1,5 Punkte Ergebnisse, normal. All dies wird später im Ausschuss gestapelt werden, und wir werden sehen, wie das Bild schließlich bei der Validierung aussehen wird! Ich erwarte eine Note von 4 oder 4+ für die Hausaufgaben.
Legen Sie los, meine Herren.
PS: Trainingsdaten - 99 Stichproben für Diversifizierung und Ausschuss: https://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ
Ja, ich habe es versucht, es hat beim ersten Mal nicht geklappt. Zur Schätzung des Modells wurde die Genauigkeit des Regressionsergebnisses herangezogen (erforderliches Ergebnis skaliert in [0;0,5;1] minus erhaltenes Ergebnis, modulo). Die Genetik hat ein solches globales Maximum mit einigen Prädiktoren gefunden, wenn das Neuronke nicht genügend Daten für das Training hat, so dass es bei fast allen Daten 0,5 liefert (was der Klasse "nicht handeln" entspricht). Im Allgemeinen ist eine solche Fitnessfunktion überhaupt nicht geeignet, das Netzwerk handelt einfach nicht als Ergebnis.
Das zweite Experiment ist noch im Gange. Ich verwende immer noch 3 Klassen, runde aber das Regressionsergebnis sofort auf die Stufen [0;0,5;1]. Die Schätzung ist die Klassifizierungsgenauigkeit ([Anzahl der richtigen Antworten] / [Gesamtzahl]). Aus dem Diagramm der besten Fitnesswerte in der Genetik kann ich ableiten, dass das Ergebnis nahe bei 33 % liegen wird, was im Wesentlichen dem Zufall entspricht. Vielleicht ein bisschen höher, wenn Sie Glück haben. Ich muss noch ein oder zwei Tage warten, bis die Genetik ihr Maximum erreicht hat, dann kann ich einen Fronttest machen.
Mit meinen Prädiktoren erhalte ich in der Regel bessere Ergebnisse. Ich denke, Sie müssen mehr Indikatoren zu diesen Daten hinzufügen. Wenn Ihr Algorithmus Prädiktoren bewerten und verwerfen kann, ist es umso besser, je mehr Indikatoren Sie anfangs hinzufügen.
Ja, ich habe es versucht, es hat beim ersten Mal nicht geklappt. Zur Schätzung des Modells wurde die Genauigkeit des Regressionsergebnisses herangezogen (erforderliches Ergebnis skaliert in [0;0,5;1] minus erhaltenes Ergebnis, modulo). Die Genetik hat ein solches globales Maximum mit einigen Prädiktoren gefunden, wenn das Neuronke nicht genügend Daten für das Training hat, so dass es bei fast allen Daten 0,5 liefert (was der Klasse "nicht handeln" entspricht). Im Allgemeinen ist eine solche Fitnessfunktion überhaupt nicht geeignet, das Netzwerk handelt einfach nicht als Ergebnis.
Das zweite Experiment ist noch im Gange. Ich verwende immer noch 3 Klassen, runde aber das Regressionsergebnis sofort auf die Stufen [0;0,5;1]. Die Schätzung ist die Klassifizierungsgenauigkeit ([Anzahl der richtigen Antworten] / [Gesamtzahl]). Aus dem Diagramm der besten Fitnesswerte in der Genetik kann ich ableiten, dass das Ergebnis nahe bei 33 % liegen wird, was im Wesentlichen dem Zufall entspricht. Vielleicht ein bisschen höher, wenn Sie Glück haben. Ich muss noch ein oder zwei Tage warten, bis die Genetik ihr Maximum erreicht hat, dann kann ich einen Fronttest machen.
Mit meinen Prädiktoren erhalte ich in der Regel bessere Ergebnisse. Ich denke, Sie müssen mehr Indikatoren zu diesen Daten hinzufügen. Wenn Ihr Algorithmus Prädiktoren bewerten und verwerfen kann, ist es umso besser, je mehr Indikatoren Sie anfangs hinzufügen.
Immer noch auf der Suche nach dem Gral???? Komm schon......
Versucht immer noch, einen Gral zu bauen???? Komm schon......
Nein, Leute, das System ist weg, es ist sinnlos, es überhaupt zu zeigen. Entschuldigungen..... Was die Abhandlung über die Klassifizierung angeht, ja... kann... aber noch keine Zeit, sobald ich frei bin und meine Kreativität mich überkommt, werde ich darüber schreiben..... Ansonsten.....
Ich frage mich... Haben Sie nicht geschrieben, dass Sie Ihren Algorithmus seit einem Jahr erfolgreich anwenden? Vor ein paar Stunden schrieben Sie "Ich versuche immer noch, einen Gral zu bauen???? Komm schon......" was bedeutet, dass der Algorithmus vor ein paar Stunden noch funktionierte und dann verschwunden ist???????????????????? Das macht Ihre Geschichte überhaupt nicht sinnvoll....
Hören Sie, wenn Sie mir etwas zu sagen haben, dann schicken Sie mir eine PM, denn ich habe dasselbe getan, worüber Sie geschrieben haben, und das Thema interessiert mich.
Es gab in diesem Thread Beiträge über RNeat, ein Neuron mit adaptiver Topologie, bei dem die Gewichte und Verbindungen der Neuronen mithilfe der Genetik gebildet werden.
Nach der Beschreibung und einfachen Tests zu urteilen, ist das Modell recht gut. Aber für den Devisenhandel ist das nicht so gut. Eine Woche lang habe ich das Training laufen lassen und mit 400 Prädiktoren Kauf/Verkauf für den nächsten Balken vorhergesagt.
Das Lernmodell ist zu langsam, in einer Woche stieg die Fitness des Modells auf nur 2%. Die Vorhersagegenauigkeit liegt selbst bei Trainingsdaten nur bei 55 %, das Modell hatte also noch keine Zeit, sich zu einer guten Logik zu entwickeln, um Gewinne zu erzielen.
Die Genauigkeit bei den Validierungsdaten (zufällige Balken aus den Trainingsdaten) ist etwas besser, aber das liegt eher am Zufall als an der Leistung des Modells.
Die Genauigkeit des Fronttests schwankt zwischen 50 % und 53 %, und nach dem Diagramm zu urteilen, ist dies ebenfalls zufällig und nicht auf das Modell zurückzuführen.
Es ist kein Wunder geschehen. Ich vermute, dass sich das Modell nach monatelanger Arbeit zur richtigen Logik entwickeln wird, aber es wird bei der Validierung schlechte Ergebnisse liefern, so dass es dann veraltet ist und ich wieder von vorne anfangen muss.
Ich breche das Experiment ab; ich sehe keinen Sinn darin, weiterzumachen.