Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1042

 
Dmitrij Skub:
Wenn Sie es leid sind, auf das Eis zu hämmern, denken Sie daran, dass beide Preis/Zeit-Skalen nicht von Natur aus linear sind. Das ist so, wenn man es aus einer reinen Algo-Trading-Perspektive betrachtet (ohne den Markt zu verstehen).

Die Zeit ist das Mittel, mit dem wir periodische Prozesse messen. Bei der Messung von Prozessen, deren Auftreten zufällig ist, hat die Zeit wenig Bedeutung.

Die Zeitskala bei kleinen (Tick-, "Quanten"-) Intervallen ist nichtlinear und zufällig, es scheint, dass für Ereignisse von Tick-Dimension die Zeit als signifikanter Faktor überhaupt nicht existiert.

Bei großen Intervallen kann die Zeitskala aufgrund der Überlagerung von täglichen, wöchentlichen, nachrichtenbezogenen und anderen periodischen Heterogenitäten eher als linear angesehen werden, und die Bedeutung der Zeit nimmt zu.

 
Grigoriy Chaunin:
Das können Sie nicht. Prüfen Sie die Währungen auf den Hearst-Index. Dies zeigt deutlich die Zufälligkeit des Marktes. Und was kann man auf einem Zufallsmarkt tun? Nur Martin. Auf der anderen Seite gibt es aber auch Ineffizienzen auf dem Markt zu verschiedenen Zeiten. Und sie verdienen damit Geld. Und das ist kein Zufall. Wir sollten uns also auf die Suche nach Ineffizienzen machen. Ich würde diesen Prozess gerne automatisieren. Aber ich weiß nicht, wo ich anfangen soll. Neuronale Netze sind dafür nicht geeignet. Sie brauchen vorgefertigte Muster zum Lernen.

Und warum nicht auf dem aufbauen, was offensichtlich existiert und funktioniert, was unseren Plan seit Milliarden von Jahren vor dem Kollaps bewahrt hat und was Algotradern hilft, ihre EAs zu optimieren und anzupassen - die Trägheit und das Marktgedächtnis?

Im nächsten Thread, gleich im ersten Beitrag, wird festgestellt, dass keine Tricks die ungebrandete Preisgestaltung zerstören können, obwohl der Rest ihrer Diskussion, rund um die Tick-Verteilungen und Intergruppen-Diffusionen, IMHO vielleicht nur für die Erforschung von Filtern für Dataphids geeignet ist, aber wir sind ja im MO-Thema :)

Und neuronale Netze sind IMHO für diese Aufgabe die besten...

 

Yooooooooooo.... Wo hat man jemals gesehen, dass ein Thema unter die erste Seite gefallen ist????? Ja.... ihr macht das schon... Sie haben es zum Laufen gebracht. In der Zwischenzeit geht es mir gut, und die Ergebnisse sind recht ermutigend, und das alles dank eines versehentlichen Fehlers :-)

Es war so.....Zum Beispiel...



Und jetzt ist es so.... Kann jemand sagen, ob sich die Daten verbessert haben oder nicht????

Es gibt wirklich eine Menge Fragen. So interpretieren Sie die Hauptkomponentengrafik????? Noch eine Frage Diese beiden Datensätze stammen aus demselben Zeitraum. Das Ziel ist dasselbe, aber das Speichern der Prädiktoren wurde auf zwei verschiedene Arten durchgeführt. Also. Ihre Ausstiegsstatisten, diese Aufgabe ist nur für Sie!!!!!

Welcher der angegebenen Datensätze ist besser??? Die erste oder die zweite. Ihre Meinung Gentlemen!!!!!

Und dann werde ich Ihnen meine Meinung mitteilen...... OKAY?

 

Konnte mich nicht durch 2 Seiten dieses Threads durchkämpfen.

Ich werde nur meine Meinung sagen. Das maschinelle Lernen ist also eine Reihe von Statistiken über ein Werkzeug, die Analyse und den Algorithmus selbst, je nach Ergebnis der Arbeit, die... Es gibt einen wichtigen Hinweis: Kein Algorithmus kann garantieren, dass Sie das gewünschte Ergebnis erhalten, wenn alle Bedingungen erfüllt sind. Das bedeutet, egal wie viele Daten Sie analysieren und wie kompliziert die Algorithmen zur Entscheidungsfindung sind, es wird immer eine Wahrscheinlichkeit für das erwartete Ergebnis geben.

Es ist die Wahrscheinlichkeit, mit der Sie handeln, und folglich müssen Sie nach einem Ergebnis mit höheren Quoten suchen. Der Markt selbst ist eintönig, nach meiner Analyse (die sowohl für Long- als auch für Short-Positionen nicht präzise war), bietet der Markt für ein und dasselbe Zeitintervall ungefähr die gleiche (49%/51% oder 51%/49%) Menge an profitablen Trades in beide Richtungen.

Der Entscheidungsalgorithmus sollte also auf der höchsten geschätzten (qualitativen) Wahrscheinlichkeit des Ergebnisses beruhen, mit zusätzlichen Filtern nach eigenem Ermessen.

 
Mihail Marchukajtes:

Yooooooooooo.... Wo hat man jemals gesehen, dass ein Thema unter die erste Seite gefallen ist????? Ja.... Ihr macht das schon... Sie haben es zum Laufen gebracht. Aber es geht mir gut, und die Ergebnisse sind recht ermutigend, und das alles dank eines versehentlichen Fehlers :-)

Es war so.....Zum Beispiel...



Und jetzt ist es so.... Kann jemand sagen, ob sich die Daten verbessert haben oder nicht????

Es gibt wirklich eine Menge Fragen. So interpretieren Sie die Hauptkomponentengrafik????? Noch eine Frage Diese beiden Datensätze stammen aus demselben Zeitraum. Das Ziel ist dasselbe, aber das Speichern der Prädiktoren wurde auf zwei verschiedene Arten durchgeführt. Also. Ihre Ausstiegsstatisten, diese Aufgabe ist nur für Sie!!!!!

Welcher der angegebenen Datensätze ist besser??? Die erste oder die zweite. Ihre Meinung Gentlemen!!!!!

Und dann werde ich Ihnen meine Meinung mitteilen...... OKAY?

Michaelo kam zum PCA... warum, jucken deine Hände? )

die Hauptkomponentendarstellung sollte auf orthogonaler Basis interpretiert werden :D

rot sind prädiktive Orthos und was bedeuten die Zahlen?

 
Maxim Dmitrievsky:

Michaelo kam zum PCA... warum, jucken deine Hände? )

Der Hauptkomponentengraph sollte auf einer orthogonalen Basis interpretiert werden :D

Was ist also besser?

 
Mihail Marchukajtes:

Was ist also besser?

Nun die zweite, 55%.

 
Maxim Dmitrievsky:

die zweite, 55 %.

In der Hauptkomponentendarstellung(erste Darstellung) gibt es keine 55 %. Die 55 % sind das Clustering-Diagramm, in dem die Daten in beiden Fällen zwei gut unterteilbare Bereiche darstellen. Das eine ist besser als das andere, und kehren wir zur ersten Grafik zurück. Warum ist die untere besser als die obere????

Dazu müssen Sie wissen, wie man sie interpretiert!!!!

 
Mihail Marchukajtes:

In der Hauptkomponentendarstellung(erste Darstellung) gibt es keine 55 %. Bei den 55 % handelt es sich um ein Clustering-Diagramm, bei dem die Daten in beiden Fällen zwei gut unterteilbare Bereiche darstellen. Eines ist besser als das andere, und kehren wir zur ersten Grafik zurück. Warum ist die untere besser als die obere????

Dazu müssen Sie wissen, wie man sie interpretiert!!!!

Wenn es sich bei den Zahlen um Punkte handelt, ist die Varianz der beiden Komponenten bei der zweiten Komponente geringer als bei der ersten, oder?

http://setosa.io/ev/principal-component-analysis/

Drehen Sie die Diagramme mit der Maus und lesen Sie, dann werden Sie die Idee bekommen.

 
Maxim Dmitrievsky:

Wenn es sich bei den Zahlen um Punkte handelt, ist die Varianz bei der zweiten Komponente geringer als bei der ersten, oder?

http://setosa.io/ev/principal-component-analysis/

Vereinbart!!!! Aber das ist noch nicht alles... Es stellt sich heraus, dass das zweite Diagramm besser ist, weil es Vektoren gibt, die so nahe wie möglich an den Nullachsen liegen. In diesem Beispiel ist es nicht so offensichtlich, aber jetzt sind wir auf solche Datensätze gestoßen, bei denen die Vektoren der Komponenten mit den Nullachsen zusammenfallen und das Feld in gerade 4 Quadrate unterteilen. Im ersten Fall sind die Komponentenachsen zwischen den Nullen verstreut, während im zweiten Fall die Komponentenvektoren so nahe wie möglich an den Nullen liegen. Wenn wir den Namen des Prädiktors kennen, trainieren wir den Optimierer, solange es sich bei den Eingaben um die Prädiktoren handelt, die den Komponentenvektor bilden, der der Nullachse am nächsten liegt, wobei es keine Rolle spielt, in welcher Richtung. Nochmals, dies ist mein IMHO!!! Deshalb wollte ich klarstellen, wie recht ich habe!!!!

Grund der Beschwerde: