Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 131

 

Version 10 des ternären Klassifikators jPrediction wurde veröffentlicht

In der neuen Version ist eine Kreuzvalidierung implementiert.

Durch die Kreuzvalidierung hat sich die Generalisierungsfähigkeit auf OOS im Vergleich zu Version 9 deutlich verbessert, insbesondere bei nicht-stationären Daten. Gleichzeitig blieb die Verallgemeinerungsfähigkeit gemäß den Testergebnissen auf verschiedenen Teilen der Stichprobe, die als Merkmale des Modells in den Versionen 9 und 10 angegeben sind, nahezu unverändert.

Da sich die Änderungen nicht auf die Benutzeroberfläche ausgewirkt haben, bleiben die Anweisungen für Benutzer der Version 9 gültig. Links zum Herunterladen neuer Versionen von jPrediction sowie des Quellcodes finden Sie in der Anleitung.

 

Awl-Schreiber:
1) Sie vergleicht die beiden Zeitreihen einfach anhand der absoluten Werte, d. h. es ist eine Verschiebung und Skalierung auf der vertikalen Achse vor der Normierung erforderlich, was sehr stark von der jeweiligen Implementierung abhängt.

2) Zum Beispiel nimmt https://www.mql5.com/ru/code/10755 2 Stücke mit fester Länge zum Vergleich

3) und berücksichtigt nicht, dass eine von ihnen länger und die andere kürzer sein kann

4), und der Berechnungsaufwand kann erheblich reduziert werden usw. Wir können über Clustering durch DTW-spezifische Parameter sprechen - wir können nicht nur den "Grad der Ähnlichkeit" zweier Fragmente berechnen, sondern auch das Verhältnis der horizontalen Skalen.

1) Nun, vor einem Ähnlichkeitsvergleich zweier Reihen durch den DTW-Algorithmus wird die Normalisierung natürlich nur auf die übliche Weise durchgeführt... d.h. die absoluten Preiswerte im Bereich von z.B. 0 bis 1 ersetzen, was meinen Sie mit Normalisierung derVerschiebung und Skalierung? erklären Sie bitte

2) Danke für den Link, ich bin wirklich schockiert, um das Mindeste zu sagen, ich habe genau die gleiche Idee wie der Autor, ich habe genau die gleiche Forschung gemacht, ich habe genau den gleichen evolutionären Weg durchlaufen, von der regulären Korrelation zu DTW, es macht mir Gänsehaut ... wir taten dasselbe, dachten an dasselbe, nur zu verschiedenen Zeiten an verschiedenen Orten, kribbelten...

3) Ja nicht berücksichtigt, obwohl es richtig wäre, zu prüfen, aber ich vermute, warum der Autor hat es nicht umgesetzt, die Tatsache ist, dass, wenn Sie anfangen zu denken tiefer Art: "aber wie es zu implementieren" dann kommt eine Menge Fragen, die keine Antworten haben ...

weil es nicht nur darum geht, mit DTW in Segmenten fester Länge nach Ähnlichkeiten zu suchen, wie ich es beim Clustering oder dem Algorithmus des Autors dieses Artikels getan habe, sondern es ist viel komplizierter...

Hier einige Fragen, die sich stellen

1. Wie lässt sich die Ähnlichkeit des aktuellen Preismusters mit historischen Mustern vergleichen, wenn wir nicht nur die Geschichte durchlaufen und nach Ähnlichkeiten suchen müssen, sondern auch das aktuelle Muster und das historische Muster, mit dem wir vergleichen, dynamisch erweitern/verringern?

2. wie man mit ungenügender abgezogener Leistung zu kämpfen hat, persönlich für DTW sogar auf fester Länge von zwei Abschnitten habe ich nicht genug Leistung in vollem Umfang, und mit der Variante ( 1.) steigt die Belastung tausendmal ohne Übertreibung....

4) Wie?

 
mytarmailS:

1. Sie können die Werte der Reihe in den Bereich [0;1] bringen, aber es ist imho besser, die konstante Komponente zu eliminieren, indem Sie den Mittelwert (MA) von jedem Element abziehen und jedes Element durch die Standardabweichung dividieren. Der Browser, ein Parasit wie dieser, hat einen Teil des Textes zerstört.

3-4. Wenn man sich das Wesen des Algorithmus ansieht, wie die Matrix ausgefüllt wird, wird vieles klar. Wir vergleichen zwei gleich lange Segmente, die einen festen Anfang und ein festes Ende haben. Wir können den Anfang fixieren und das Ende fließend machen und einen Skalierungsfaktor von 0,5 bis 2 in den Algorithmus einführen - dann erhalten Sie DTW mit Einschränkungen. Das Ergebnis wird nicht eine, sondern zwei Zahlen sein, und das wird uns einen zusätzlichen Prädiktor geben. Wie kann man die Menge der Berechnungen reduzieren - "singuläre Punkte" (Extrema) finden, sie zueinander ziehen und dadurch einen großen Teil der Matrixfläche wegwerfen, siehe die Links für weitere Details. Siehe auch wikipedia Dynamic Time Warping, Abschnitt Referenzen.

 
Alexey Burnakov:

Meine Herren, eine neue Aufgabe von mir:

Hier ist ein Datensatz im .R-Format: https://drive.google.com/open?id=0B_Au3ANgcG7CcjZVRU9fbUZyUkE

Der Satz enthält etwa 40.000 Zeilen und 101 Spalten. Die Spalte ganz rechts ist die Zielvariable. Auf der linken Seite befinden sich 100 Eingänge.

Ich schlage vor, dass Sie versuchen, ein Regressionsmodell zu erstellen, das den Wert der 101. Spalte auf der Grundlage der 100 verbleibenden Spalten und der ersten 20.000 Beobachtungen vorhersagt.

Bei den verbleibenden 20 000+ Beobachtungen sollte das konstruierte Modell einen R^2 von mindestens 0,5 aufweisen.

Dann zeige ich auf, wie die Daten erzeugt werden, und gebe meine Lösung an.

Der Anhaltspunkt sind die Zeitreihendaten. Die Eingabe besteht aus 100 Proben, wobei 1 vorausgesagt wird. Es handelt sich nicht um Preise oder Notierungen oder deren Derivate.

Alexej

Wer hat es versucht? Meine Kollegen und ich wollen eine NS-Faltung trainieren. Es werden einige Karten erstellt. Das hoffen wir.

Eine eher unkonventionelle Anwendung der Methode. Andererseits legen wir einfach ein eindimensionales "Bild" als Eingabe vor, und wir können benachbarte "Pixel" und ihre verschiedenen Interaktionen dort zusammensetzen.

 
Alexey Burnakov:

Wer hat es versucht? Meine Kollegen und ich wollen eine NS-Faltung trainieren. Es werden einige Karten erstellt. Wir hoffen es.

Eine eher unkonventionelle Anwendung der Methode. Andererseits legen wir einfach ein eindimensionales "Bild" als Eingabe vor, und wir können benachbarte "Pixel" und ihre verschiedenen Interaktionen dort zusammensetzen.

Sollen die Kollegen es also versuchen, oder ist es schwach?
 
Alexey Burnakov:

Meine Kollegen und ich wollen eine NS-Faltung trainieren. Es findet eine Kartierung statt. Wir hoffen es.

Interessant, ich warte auf Eindrücke...
 
mytarmailS:


1. Wie können wir die Ähnlichkeit des aktuellen Preismusters mit historischen Mustern vergleichen, wenn wir nicht nur durch die Geschichte gehen und nach Ähnlichkeiten suchen müssen, sondern auch sowohl das aktuelle Muster als auch das historische Muster, mit dem wir vergleichen, dynamisch erweitern/verringern?


Wozu ist das nötig? Wenn ein Muster eine Analogie in der Geschichte hat, dann sollte es auch in der Dauer gleich sein. Zumindest habe ich bei der Mustersuche nach entsprechenden Abschnitten gesucht.
 
Youri Tarshecki:
Warum ein solches Bedürfnis? Wenn ein Muster eine Entsprechung in der Geschichte hat, dann sollte es auch in seiner Dauer entsprechen. Zumindest habe ich nach proportionalen Abschnitten gesucht, als ich eine Mustersuche durchgeführt habe.

1) Zumindest, weil kein Muster auf dem Markt genau gleich ist,

2) und weil dtw eine so große Chance bietet

3) und weil wir alle das Ergebnis der Suche nach identischen Mustern nach Größe kennen, auch Sie... oder werden Sie mich überraschen? :)

 
Veranstaltung:
Lassen Sie es also Ihre Kollegen ausprobieren, oder ist das zu wenig?
Worauf wollen Sie hinaus, Passagier? Sie wollen es nicht versuchen, oder auf Ihre Art. Ich arbeite an meiner eigenen Aufgabe und bin daran interessiert.
 
mytarmailS:
Interessant, ich freue mich auf die Eindrücke...
Was würden Sie sonst noch sagen? Warten Sie auf die Ergebnisse?
Grund der Beschwerde: