Diskussion zum Artikel "DeMarks Sequential (TD SEQUENTIAL) unter Verwendung künstlicher Intelligenz" - Seite 3
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Lesen.
Gut gemacht, dass Sie sich entschieden haben, Ihren TS zu posten und grob zu erklären, wie er funktioniert, sowie ein wenig Theorie in Bezug auf Ihre Gedanken über die Arbeit von neuronalen Netzen direkt mit dem Forex-Markt zu erklären.
Allerdings ist der Artikel zu viel "Händler kann erraten", "Händler sollte eine Entscheidung auf der Grundlage seiner eigenen Erfahrung zu machen", etc. Alles sehr vage für einen so lauten Titel des Artikels.
So wie ich es verstehe, sind Sie kein Programmierer, sonst wäre der Artikel informativer, systematischer, und Sie würden Ihre TS so verfeinern, dass Sie keine Positionen umkehren.
Dann hätten Sie die Ergebnisse des Handels in den Tester für ein oder zwei Jahre, Pre-Training das Netzwerk alle vierzehn Tage gepostet.
Die Umkehrung erfolgt immer auf eigenes Risiko, es gibt keinen klaren Algorithmus - das ist ein großer Nachteil.
Es ist nicht einmal ein Artikel über neuronale Netze, es ist nur eine Beschreibung Ihres TC.
Ich hätte mehr Spezifika erwartet, mehr Worte über die detaillierte Arbeit des vorgeschlagenen neuronalen Netzes, Beispiele für Testmuster, Trainingsbeispiele, Beispiele für die Arbeit nach dem Training.
Metadologische Artikel sind hier nicht erforderlich, Anfänger werden es sowieso nie richtig hinbekommen, und erfahrene Leute sind nicht daran interessiert. Leute, die sich schon lange mit Forex beschäftigen und sich mit der Programmierung auskennen, suchen oft nach einer interessanten Idee mit einer ausführlichen Erklärung, warum sie eine gute Idee ist, wie sie funktioniert und wie man sie einsetzt. Dann passen sie sie an ihre Bedürfnisse an und bauen sie in ihre Expert Advisors, Indikatoren usw. ein.
Ich habe zum Beispiel einen Datencluster auf der Grundlage des Kohonen Neural Network in C++ entwickelt:
Das Bild auf der linken Seite zeigt die Originaldaten, das Bild auf der rechten Seite die Daten nach dem Clustering, wobei jede Klasse mit einem zweistelligen Klassennamen und dem Mindestabstand in der Klasse gekennzeichnet ist. Das Netzwerk besteht aus 7 Neuronen. Es gibt insgesamt 49 Klassen.
Sie haben kein einziges Beispiel, was genau Sie als Eingabedaten eingeben und in welchem Format, was Sie als Ausgabe erhalten, usw., Beschreibung des Lernalgorithmus, usw.
Vielen Dank für Ihr Interesse. Ich habe eine Beschreibung des Optimierers auf der vorherigen Seite veröffentlicht. Es gibt einen Link zur Organisation des Optimierers, der vom Autor selbst geschrieben wurde.
Ich programmiere in MQL4. Alle Raster sind in den Dateien im Anhang des Artikels enthalten. Der Punkt ist, dass die Aufgabe darin besteht, ein solches Polynom zu konstruieren, das den Effekt der Verallgemeinerung der Ausgangsvariablen hat. Das Polynom selbst muss nicht groß sein, die Hauptsache ist, dass es das Wesen des Marktes begreift. Ich bin im Gleichschritt mit ihm gegangen.
Da der Klassifikator die Stichprobe in zwei Bereiche unterteilt. Wir vergleichen also nur die letzten beiden Signale, da wir das Ergebnis des vorherigen Signals kennen und sehen, in welche Gruppe das aktuelle Signal gefallen ist, können wir bestimmte Schlussfolgerungen ziehen.
Ja, der Artikel war in der Tat etwas trocken, aber sein Kern bestand darin, die Leser mit der METHODE des Aufbaus von Handelssystemen vertraut zu machen. Versuchen Sie, den "Tageskontext" für Ihr TS anzuwenden, und es ist wahrscheinlich, dass das Training Paternos einschließt, die im Laufe des Tages auftauchen werden.
Was die Umkehrungen betrifft, so habe ich in dem Artikel erklärt, wie es gemacht wird.
Wenn man sich die Eingaben ansieht, ist es nicht schwer zu erraten, welche Daten für den Einstieg verwendet werden. Der Ausstieg wird durch den Gewinn organisiert.
Ich werde Ihnen ein Geheimnis verraten, das nur Sie kennen.... gut????
Der Punkt ist, dass es möglich ist, auf NS zu verzichten, und dass es sehr einfach ist.
Es gibt ein solches Konzept wie ein Delta-Profil. Wenn wir ein Signal empfangen haben und sein Fenster kennen. Wir müssen ein Deltaprofil für dieses Fenster erstellen. Wenn der "Kontext des Tages" von Volumen und OI übereinstimmt, d.h. beide gleichzeitig gestiegen oder gefallen sind, dann bewegen wir uns in Übereinstimmung mit dem Delta-Profil, wenn das Delta-Profil für das maximale Volumen im Kauffenster positiv ist, dann kaufen wir, wenn es negativ ist, dann betrachten wir dieses Kaufsignal als "falsch". Aber wenn der "Kontext des Tages" anders ist. Das heißt, das Volumen ist gesunken, aber der OI ist gestiegen. Dann müssen wir in die entgegengesetzte Richtung arbeiten. Normalerweise steigt der Preis an solchen Tagen aus dem negativen Delta-Profil und fällt aus dem positiven. Das ist ein Clusterknäuel. Man braucht hier keine Ns, es funktioniert alles ganz gut so wie es ist. Denn die Sequenta selbst ist adaptiv, und auch das Deltaprofil, das der Grund für die Preisänderung ist. Leider gibt es keinen Delta-Profil-Indikator für ein bestimmtes Fenster, so dass der TS zwar gut, aber nicht sehr gut funktioniert. Aber wenn es möglich wäre, diese Daten in den Input des EA zu geben, wäre das Problem koordiniert gelöst.
Wenn der Wunsch besteht, einen Expert Advisor entsprechend den Bedingungen zu schreiben, können wir es versuchen, aber das Problem des Delta-Profils im Fenster muss irgendwie gelöst werden.....
Nicht jede Probe ist eine Sekunde, nur die, wo es ein Ziel gibt, aber was soll ich Ihnen erklären... meine "Sharp-ratio" ist seit 3 Jahren nicht unter 3 gefallen und das ist unter Berücksichtigung, dass ich sehr oft alles neu mache, reorganisiere und daraus eine Menge Systemübergänge, und auf dem aktuellen Modell, auf der realen, habe ich 8 "Sharp-ratio". Also, erzählen Sie jemand anderem von Ihren 30 Zeilen im "Kontext des Tages".
Sie können natürlich Ihren Datensatz veröffentlichen, das ist immer interessant, aber ich sage Ihnen sofort, dass es bei einer Quantifizierung von mehr als einer Minute schon lange keine Fische mehr auf dem Markt gibt (außer für klassische Insider), und auch ich habe recht effektive Techniken, um Übertraining zu erkennen, mein System wird "30 Proben" nicht ernst nehmen, es wird sagen "nicht genug Daten".
Sind Sie überhaupt mit Statistik vertraut? Haben Sie schon einmal vom zentralen Grenzwertsatz gehört? Über die minimale Stichprobengröße, dass 30 Stichproben der minimale Schwellenwert der potentiellen Repräsentativität der Stichprobe ist, für EINE ZIFFER, im Falle einer quasi-normalen Verteilung, und es ist besser von 200 -t . Bei einem Multimeter wächst die Mindeststichprobengröße auf 30^(D\2), wobei D die Anzahl der Fiches ist.
Es scheint mir, dass Sie eine einfache Anpassung Sir tun, beenden Sie diese vielversprechende Tätigkeit, es gibt immer weniger Fleisch, bald wird es wie in "entwickelten Ländern" qualifizierte Investoren und all das sein, werden die Sauger nicht auf den Markt zugelassen werden und Sie müssen direkt mit Hedge-Fonds und institutionellen kämpfen, und das sind nicht 30 Zeilen, um ihre Modelle zu lernen, werden Sie mit diesem Ansatz beraubt werden)))).
Ich sehe, dass Sie und ich unterschiedliche Ansätze für die Arbeit auf dem Markt haben. Ich werde niemanden umstimmen oder etwas beweisen. Ich habe die Essenz des Ansatzes und die Möglichkeiten der Strategieverbesserung dargelegt und hoffe, dass es für jemanden nützlich ist (natürlich nicht für Sie, was soll ich sagen). Die Bedeutung der Polynomkonstruktion ist jedoch die Fähigkeit, einen mehrdimensionalen Raum durch eine universelle Linie zu teilen, die ihre Effizienz für eine bestimmte Zeit beibehält.
Ist Ihnen bewusst, dass ich etwa 100 Spalten oder Eingaben in meiner Trainingsdatei habe? Ich werde sie posten, um zu sehen, wie Ihre KI ein Modell darauf aufbaut. Wenn Sie so freundlich wären!!!!!
Und was die Anpassung betrifft, so möchte ich sagen, dass ich die Daten betrachte und die Arbeit des Modells ausschließlich anhand des Out-of-Sample-Teils analysiere. Was die Anpassung betrifft, so verstehe ich das nicht.....Grüße alle, neuronka interessiert vor langer Zeit sehr viel und verstanden und jetzt denke ich auch, dass dahinter die Zukunft und die Gegenwart bereits, natürlich mit seinen eigenen Besonderheiten, ich habe so eine Frage des Wesens der neuronka, wenn ich richtig verstehe, dass, wenn es bestimmte Algorithmen zu lehren, es für ähnliche in der Zukunft sucht und Trades auf sie, natürlich in der digitalen und strukturellen Bewegung auf dem Markt ist nie identisch, und es gibt immer Verschiebungen, dh.Zum Beispiel, ein Signal gegeben wird und auf die Geschichte ist es 100 Mal wiederholt, aber von 100 mal natürlich nur ein kleiner Betrag bringt Gewinn, der Rest sind im negativen. Warum gibt es kein neuronka, das genau auf den Mustern oder auf den klaren Signalen gemacht wird, was ein klares Signal ist, d.h. bei bestimmten Einstellungen eines beliebigen Indikators soll neuronka auf der Geschichte solche Wiederholung finden, die die positive Effektivität geben wird, als Ergebnis hier ist es die Zahl der abgesonderten Signale auf mir soll das Ergebnis mit der guten Rentabilität geben. D.h. jeder Indikator und profitabel und nicht profitabel in geschickten Händen, warum nicht 1 oder mehrere Indikatoren in einer Strategie zu kreuzen, weiter durch die Auswahl der besten Ergebnisse der Anpassung durch neuronka nicht die besten Ergebnisse ableiten und den Handel weiter auf sie. Gibt es jemanden, der so etwas tun kann oder kann es tun, würde ich teilnehmen.
Sie haben völlig Recht, es gibt eine Variante des Netzes, wenn es nach Mustern in der Zukunft sucht, sie studiert und dann den gleichen Zug in der Zukunft macht. Es ist jedoch sehr schwierig, in der Vergangenheit ein Muster zu finden, das eindeutig interpretiert werden kann. Das heißt, von 100 Mustern in der Vergangenheit (ein und dasselbe Muster) werden 50 ein Plus und 50 ein Minus ergeben. Was nun? Was sollten die NS tun? Bei der Aufbereitung der Daten ist es wichtig, dass es keinen Widerspruch gibt, wenn ein und dasselbe Muster zu unterschiedlichen Ergebnissen führt. Daher ist der Prozess der Verallgemeinerung die Lösung, wenn beim Auftreten eines Musters auf der Grundlage der Informationen der Eingaben eine Schlussfolgerung über die Richtigkeit oder Falschheit des Signals gezogen wird.
Ich sehe, dass Sie und ich sehr unterschiedliche Ansätze für die Arbeit auf dem Markt haben. Ich werde nicht jemandes Meinung zu ändern oder etwas zu beweisen. Ich habe das Wesentliche des Ansatzes und die Möglichkeiten zur Verbesserung der Strategie dargelegt, und ich hoffe, dass es für jemanden nützlich ist (natürlich nicht für Sie, was soll ich sagen). Der Sinn des Aufbaus eines Polynoms ist jedoch die Fähigkeit, einen mehrdimensionalen Raum durch eine universelle Linie zu unterteilen, die für einen bestimmten Zeitraum funktionsfähig bleibt.
Ist Ihnen bewusst, dass ich etwa 100 Spalten oder Eingaben in meiner Trainingsdatei habe? Ich werde sie posten, um zu sehen, wie Ihre KI ein Modell darauf aufbaut. Wenn Sie so freundlich wären!!!!!
Und was die Anpassung betrifft, so sage ich Ihnen, dass ich die Daten betrachte und die Arbeit des Modells ausschließlich an Teilnehmern außerhalb der Stichprobe analysiere. Was die Anpassung betrifft, so verstehe ich sie nicht.....Entschuldigen Sie bitte eine leichte Aggression, ich kommuniziere selten in Foren und sozialen Netzwerken, daher kann ich mich manchmal nicht politisch korrekt verhalten. Reaktionen und Zitate auf meine harschen Beiträge können entfernt oder bearbeitet werden, wenn Sie wollen.
Für das Teilen Ihres Ansatzes, danke, in unserem Geschäft ist es selten, auch wenn der Ansatz originell ist, eigentlich MUSS er originell sein, wie sonst, wenn wir uns gegenseitig und die Puppe berauben. Hier muss man originell und erfinderisch sein))))))
Über den zweiten Datensatz, den Sie gepostet haben, kann ich leider nichts sagen, für 100 Chips braucht man mindestens 10k Proben für das Training und mindestens tausend für den Test, das würde schon etwas aussagen. Aber mein Modell kann sowohl mit einem Chip als auch mit 10k umgehen.
Ich werde das obige lineare Modell, das auf 50 Stichproben trainiert wurde, am Abend ausgeben und überprüfen, rein um des Experiments willen, obwohl IMHO die Wahrscheinlichkeit, dass es bei 14k Teststichproben mindestens 51% ergibt, gegen Null geht.
Ich werde das Ergebnis posten, wenn Sie möchten.
Entschuldigen Sie die leichte Aggression, ich interagiere nur selten in Foren und sozialen Medien, daher verhalte ich mich vielleicht manchmal nicht politisch korrekt.
Danke, dass Sie Ihren Ansatz mit uns geteilt haben, in unserem Geschäft ist das selten, selbst wenn der Ansatz eigenartig ist, er MUSS sogar eigenartig sein, wie sonst, wenn wir uns gegenseitig und die Puppe berauben. Hier muss man originell und erfinderisch sein))))))
Zu dem zweiten Datensatz, den du gepostet hast, kann ich leider nichts sagen, für 100 Chips braucht man mindestens 10k Stichproben für das Training und mindestens tausend für den Test, das würde schon etwas aussagen.
Ich werde das obige lineare Modell, das auf 50 Stichproben trainiert wurde, am Abend ausgeben und überprüfen, nur um des Experimentierens willen, obwohl IMHO die Wahrscheinlichkeit, dass es bei 14k Teststichproben mindestens 51% ergibt, gegen Null geht.
Ich werde das Ergebnis posten, wenn Sie möchten.
Poste es auf jeden Fall. Ich werde mich nur freuen!!! Interessante Ergebnisse.....
Entschuldigen Sie die leichte Aggression, ich interagiere nur selten in Foren und sozialen Medien, daher verhalte ich mich vielleicht manchmal nicht politisch korrekt.
Danke, dass Sie Ihren Ansatz mit uns geteilt haben, in unserem Geschäft ist das selten, selbst wenn der Ansatz eigenartig ist, er MUSS sogar eigenartig sein, wie sonst, wenn wir uns gegenseitig und die Puppe berauben. Hier muss man originell und erfinderisch sein))))))
Über den zweiten Datensatz, den du gepostet hast, kann ich leider nichts sagen, für 100 Chips braucht man mindestens 10k Stichproben für das Training und mindestens tausend für den Test, der etwas Definitives sagen würde. Aber mein Modell kann sowohl mit einem Merkmal und 10k zu bewältigen.
Ich werde das lineare Modell oben, trainiert auf 50 Proben, am Abend werde ich überprüfen, nur um des Experiments willen, obwohl IMHO die Wahrscheinlichkeit, dass es mindestens 51% auf 14k Testproben geben wird, nahe Null ist.
Ich werde das Ergebnis posten, wenn Sie möchten.
Die Definitionen sind etwas unklar, aber ich habe festgestellt, dass bei einer 100 x 100-Matrix mit 100 Spalten (Eingaben) und 100 Datensätzen (Signale) die Verallgemeinerungsfähigkeit des Modells zunimmt. Das heißt, eine 100 x 100-Matrix trainiert besser als eine 10 x 100-Matrix und schlechter als eine 100 x 10-Matrix, wobei die erste Ziffer die Anzahl der Eingänge und die zweite Ziffer die Anzahl der Signale ist. Das heißt, wenn die Anzahl der Eingaben die Anzahl der Signale deutlich übersteigt, hat der NS, wie man so schön sagt, eine große Auswahl und das Modell erreicht daher einen höheren Grad an Verallgemeinerung. Wenn die Anzahl der Eingaben viel geringer ist als die Anzahl der Signale, dann ist das Modell nicht sehr gut, weil es schwierig wird, eine Auswahl zu treffen, weil widersprüchliche Daten auftauchen. Ich kann Ihnen auch einen Trick verraten, aber der ist bereits unter vier Augen. Der Trick ist nicht sehr wichtig, aber der Effekt, den er bringt, ist sehr interessant.
Also ... bitte erklären Sie mir ein paar Dinge, zum Beispiel, ich nehme eine Toad-Datei, ist das ein trainiertes Modell? Es gibt vier Methoden, es gibt keine Verweise auf Referenzen und in den Methoden selbst sind Koeffizienten shardcoded, aber sie nehmen 5 Chips, und es waren 15, welche Chips haben Sie verwendet oder wie haben Sie die Dimensionalität von 15->5 reduziert?
Und brauche ich *.vrm binary für irgendetwas, wenn ich nur einen Test durchführen will?