Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 887

 
Maxim Dmitrievsky:

es handelt sich nicht einmal um eine geringe Latenzzeit, sondern um Millisekunden oder sogar Mikrosekunden, jeder zusätzliche Meter Kabel zählt

Sie betreiben nur Skalpierung.

Ja, dessen bin ich mir bewusst. Ich meine, dass die HFT-Methode auch auf größere Entfernungen angewendet werden kann. Mit einigen Anpassungen.

 
elibrarius:

Hier sind weitere Artikel mit Codebeispielen
https://www.mql5.com/ru/users/vlad1949/publications

Ich habe einige von ihnen dreimal gelesen und versucht herauszufinden, wie die Beispiele funktionieren. Und dann kann man schon etwas Eigenes machen.

Ja, danke, toll, ich habe es gelesen, aber ich werde noch mehr lesen - es ist sehr abstrus, man muss bei jeder Lernstufe zurückgehen, sonst versteht man die Hälfte der Wörter nicht.

Aber ich würde gerne verstehen, wie man ein neues Sample in Rattle lädt :)

 
Yuriy Asaulenko:

Ich will damit sagen, dass die HFT-Methode auch für längere Strecken eingesetzt werden kann. Mit einigen Anpassungen.

Nun, Sie können, wenn Sie den Magen für sie haben :D Aber es kann nicht in Forex, zumindest in der ECN-Markt sein

 
Aljoscha:

Schande über mich! Schade!!! Aber jetzt ist es 5% Fehler auf zufällige Wanderungen, wie die coolen!

Haben sie erkannt, dass der Markt ein zufälliges Durcheinander ist und dies sein natürlicher Zustand ist, während alle Arten von Sprüngen und Tänzen eine Abweichung von der Norm sind).

 

Ich fügte einen Prädiktor wie die Taktzeit hinzu - es gab einen deutlichen Sprung.


Es stellte sich heraus, dass Deductor Studio in der Tutorial-Version das Hochladen des Modells in eine Textdatei nicht blockiert, sondern nur das Hochladen in alle möglichen Feinheiten in Excel und HTML. Ich habe also eine Reihe von Regeln, die wie folgt aussehen

Es stellt sich die Frage, wie diese Datenfelder besser organisiert werden können, um die Arbeit zu erleichtern und zu beschleunigen.

 
Aleksey Vyazmikin:

Ich fügte einen Prädiktor wie die Taktzeit hinzu - es gab einen deutlichen Sprung.


Es stellte sich heraus, dass Deductor Studio in der Tutorial-Version das Hochladen des Modells in eine Textdatei nicht blockiert, sondern nur das Hochladen in alle möglichen Feinheiten in Excel und HTML. Ich habe also eine Reihe von Regeln, die wie folgt aussehen

Es stellt sich die Frage, wie man diese Datensätze aus Gründen der Übersichtlichkeit und Schnelligkeit besser zusammenfassen (organisieren) kann.

Ich habe noch nie ein Array kollabiert. Erläutern Sie, wie dies geschieht und vor allem, warum?
Gegoogelt - CollapseArray(nArray) - Entfernt sich wiederholende Werte in einem Array.
Ist es das? Doppelte Zeilen entfernen?
 
elibrarius:
Ich habe nie Arrays kollabiert. Erläutern Sie, wie man es macht und vor allem - warum?
Gegoogelt - collapseArray(nArray) - Es entfernt wiederholte Werte im Array.
Ist es das? Doppelte Werte entfernen?

Jetzt laufe ich herum und überlege, wie ich es machen soll... Im Allgemeinen, ja ich nehme an, dass es Wiederholungen und sie sollten entfernt werden, aber die Hauptsache traf mich, dass alle Daten nicht benötigt wird, sondern nur diejenigen, die die kleinere von zwei 1 oder 0 bestätigen. Dann dachte ich über Arrays durch Treppe anordnen, wie machen Abschneiden von sich wiederholenden Teilen... oder vielleicht nur in eine Zeile zu schreiben, und jeweils auch kombinieren Daten in eine Zeile von Prädiktoren (Eingangsdaten in Echtzeit empfangen), aber das ist, bis wir über String-Länge Grenze durch die Anzahl der Vorhersagen gehen.

 
Aleksey Vyazmikin:

Jetzt laufe ich herum und überlege, wie ich es machen soll... Im Allgemeinen, ja ich nehme an, dass es Wiederholungen, und sie sollten entfernt werden, aber die Hauptsache traf mich, dass alle Daten nicht benötigt wird, aber nur diejenigen, die die kleinere von zwei 1 oder 0 bestätigen. Dann dachte ich über die Anordnung von Arrays durch Treppe, wie machen Trunkierung der sich wiederholenden Teile... oder vielleicht nur in eine Zeile zu schreiben, und jeweils auch kombinieren Daten in eine Zeile von Prädiktoren (Eingangsdaten in Echtzeit empfangen), aber es ist, bis wir über String-Länge Grenze durch die Anzahl der Vorhersagen gehen.

Ich glaube, du brauchst Wiederholungen, dann wird die Situation wichtiger. Wenn es sich in der Vergangenheit 100 Mal wiederholt hat, ist es wahrscheinlicher, dass es in der Zukunft passiert, als wenn es 1-2 Mal passiert ist.
 
Aljoscha:

Ich stimme zu, dass Python der beste Kernel für HFTs ist.

Für die Forschung vielleicht, für die Produktion - das glaube ich nicht.

 
elibrarius:
Ich denke, Wiederholungen sind notwendig, um die Bedeutung der Situation zu unterstreichen. Wenn es sich in der Vergangenheit 100 Mal wiederholt hat, wird es wahrscheinlich auch in der Zukunft passieren, und nicht nur 1-2 Mal.

Ich werde also nur solche nehmen, die eine hohe Unterstützung und Zuverlässigkeit bieten. So stelle ich mir die Arbeit vor - ich generiere Prädiktoren im Indikator in Echtzeit und in der Historie, füge sie in eine Zeichenkette ein, und dann wird diese Zeichenkette im Array gesucht, wenn sie gefunden wird, dann markieren wir den Balken als günstig für den Einstieg, und wenn nicht, tun wir nichts. Dementsprechend werden die verdoppelten Zeichenfolgen das Feld nur vergrößern. Natürlich können wir auch eine farbliche Abstufung vornehmen, mit Informationen über Zuverlässigkeit und Unterstützung (durch Multiplikation des einen mit dem anderen erhalten wir den Koeffizienten, der je nach Wert die Farbe ändert), aber dafür ist es einfacher, einfach ein separates Array vom Typ int mit Index zu erstellen. Oder ich verstehe etwas nicht....

Grund der Beschwerde: