Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2757

 
Aleksey Nikolayev #:

Die erste Idee zum Überladen ist, eine andere Funktion mit demselben Namen, aber mit anderen Argumenten zu schreiben. Ich habe das noch nie in Rcpp gemacht, also weiß ich nicht, ob es funktionieren wird. Wahrscheinlich muss ich den C-Code in einer separaten Datei erstellen und sourceCpp() anstelle von cppFunction() verwenden.

Danke

 
Maxim Dmitrievsky #:
Richtig. In Ermangelung von A-priori-Annahmen wird der zweite Typ verwendet.
Aleksey Nikolayev #:

Meiner Meinung nach gibt es zwei Arten von Verbindungen.

Der erste ist ein kausaler Zusammenhang, der nicht durch irgendwelche Berechnungen, sondern durch a priori Informationen über den Forschungsgegenstand aus dem Wissen des jeweiligen Fachgebiets bestimmt wird.

Die zweite Art ist die probabilistische Abhängigkeit, die a posteriori aus einigen Daten berechnet werden kann, die durch Beobachtung des Verhaltens des Objekts gewonnen wurden. Zum zweiten Typ gehören die Korrelation, die deterministische Abhängigkeit (als Extremfall) und so weiter, einschließlich derjenigen, die durch Kopulas und andere Methoden beschrieben wird. Die Grundlage für die Untersuchung dieses Typs ist die Annahme, dass es eine gemeinsame Verteilung für Prädiktoren und Ziel gibt.

In Ermangelung von Experimenten wird der 2. Typ verwendet (z. B. US Food & Drugs Association - testet für seine Schlussfolgerungen keine normale repräsentative Stichprobe, sondern stützt sich auf Bayes'sche Ansätze)... und ohne A-priori-Informationen gibt es überhaupt nichts zu modellieren

 
JeeyCi #:

In Ermangelung von Experimenten wird der zweite Typ verwendet (z. B. US Food & Drugs Association - testet keine normale repräsentative Stichprobe für seine Schlussfolgerungen, sondern verlässt sich auf Bayes'sche Ansätze)... und ohne a priori Informationen gibt es überhaupt nichts zu modellieren

Haben Sie sich die Bibliothek selbst angesehen? Gibt es dort irgendetwas, mit dem man spielen kann? Ich werde sie mir ansehen, wenn ich fertig bin.

Es gibt eine Menge solcher Libs, sie sind also gefragt.
 

Hat jemand am Numerai-Wettbewerb teilgenommen? Was muss man tun, um dort Geld zu verdienen?

Müssen Sie Ihr eigenes Geld investieren? Ich verstehe nicht, wie ihr Auszahlungsmodell aussieht.

 
Evgeni Gavrilovi #:

Hat jemand am Numerai-Wettbewerb teilgenommen? Was muss man tun, um dort Geld zu verdienen?

Müssen Sie Ihr eigenes Geld investieren? Ich verstehe nicht, wie das Auszahlungsmodell aussieht.

Vielleicht hilft das hier weiter.
 

Ich habe mir die Bibliothek nicht angesehen, der Artikel ist widerlich - er widerspricht dem gesunden Menschenverstand der Statistik ....

in Standard-Englisch Quellen - die Bedeutung der Zeitreihenanalyse wird auf die Änderung der Politik zum Zeitpunkt der Behandlung/Intervention und die Analyse der Änderung der Steigung des Gesamttrends reduziert (was, wie ich annehme, als ein Akteur interpretiert werden kann, der den Einfluss der Politik erfährt und seinen Entscheidungsprozess zum Zeitpunkt der Behandlung ändert - worauf die Forschung der Vermarkter abzielt, wenn sie die Wirkung von Preisnachlässen, Verkaufsaktionen usw. bewerten, um herauszufinden, ob der Preis nicht zu den Kunden passt, oder das Produkt im Prinzip, oder der Standort des Einkaufszentrums usw.) ....д.)...

aber das gleiche Problem wie immer bei der Modellierung - um die Nachbehandlung zu bewerten, braucht man natürlich eine Stichprobe(!), um die Schlussfolgerungen "geholfen-nicht geholfen-indifferent" (in Bezug auf die Intervention) anzunähern...

und in Bezug auf die kontrafaktische Betrachtung ist es wichtig, die richtige Frage zu stellen, um die Dynamik der durch einen Politikwechsel (oder eine Intervention) verursachten Veränderungen zu bewerten - um die Metrik, das Ziel und die Parameter (für die Abstimmung) zu wählen - denn unterschiedliche Fragestellungen können unterschiedliche Ergebnisse (und unterschiedliche Neigungsveränderungen) ergeben - und damit auch unterschiedliche Schlussfolgerungen.

Das Ungleichgewichtsproblem in ML-Realdaten (das die Schätzungen verzerrt) verwirrt mich - löst es jemand hier mit Oversampling/Undersampling? -- Ich sehe keinen Sinn darin, die realen Daten auf diese Weise zu verzerren....

aber es ist notwendig, eine repräsentative Stichprobe in der Vorbehandlungsphase zu erhalten (A-priori-Wahrscheinlichkeitsverteilung), und die nachfolgende Verteilung wird in der Nachbehandlungsphase (z.B. Politikwechsel) erhalten... An dieser Stelle ist es wichtig, sich für eine Stopp-Regel zu entscheiden - d. h. ob die Stichprobe vergrößert werden soll, um die Ergebnisse zu verfeinern, oder ob man sich mit der gewählten Stichprobengrenze begnügt, um eine Schlussfolgerung zu ziehen, die wahrscheinlich weniger statistisch signifikant sein wird, als wenn man die Stichprobe vergrößert.... aber es ist nicht sicher, dass eine Vergrößerung der Stichprobe die statistische Signifikanz des Mittelwertes oder der Varianz erhöht.

= dies ist ein Größenproblem ... Wenn der Effekt einer Intervention groß ist, kann er normalerweise in einer kleinen Stichprobe gesehen werden....

das Problem der Faktoren (FS) bleibt ebenfalls bestehen - durch die Erhöhung der Anzahl der berücksichtigten Faktoren verringern wir die Verzerrung der Schätzungen, erhöhen aber die Varianz ... Aufgabe: signifikante Faktoren zu finden (wie in der explorativen Datenanalyse üblich - deshalb heißt esData_Science und nicht eine dumme Programmierer-Näherung an den Zufall), um unverzerrte Schätzungen mit geringer Varianz zu erhalten (die Balance zwischen diesen beiden Zielen liegt im Ermessen des Entwicklers).

Vladimir hat bereits viel über das Problem der Auswahl von Faktoren gesagt - wenn wir Wahrscheinlichkeiten modellieren, um einen Handel mit hoher Wahrscheinlichkeit auszuwählen.

P.S..

Geschwindigkeit und Beschleunigung (falls vorhanden) sind in der Zeitreihenanalyse immer wichtig, ihr Vergleich im Zeitraum vor und nach der Behandlung gibt Aufschluss (auch über Richtungsänderungen)...

Divergenz/Konvergenz und Extrema der richtig gewählten Ziele bleiben ebenfalls gültig... alles ist wie immer - es geht um das Design/die Architektur des neuronalen Netzes... und es werden nur Trends und Wahrscheinlichkeiten ihrer Entwicklung vorhergesagt - mehr nicht... und auf dem Markt für Daytrader ändert sich alles schneller als in einem langfristigen Trend (wenn er von D1 analysiert wird) - daher sollte der Zeitfaktor auch in das Modell des Roboters für Daytrading einbezogen werden.... Im Allgemeinen sollten Sie Ihren Handelsstil formalisieren, damit Sie nicht ständig vor dem Bildschirm sitzen müssen. Und wenn Sie möchten, suchen Sie nach statistischen Gründen für Ein- und Ausstiege oder das Fernbleiben vom Markt (auch aus Gründen des Risikomanagements - wenn der Markt nicht klar ist).

p.p.s

das Thema kann endlos weiterentwickelt werden, indem man strukturelle Kausalmodelle studiert (was hängt wovon ab, wie ich bereits erwähnt habe) - einschließlich der Berücksichtigung exogener (Einfluss von außen) und endogener (z. B. Rohstoff- oder Finanzwährung und sogar Wechsel der regierenden Partei, nehme ich an) Faktoren.... Im Allgemeinen können Sie, wie üblich, die Daten für jede Hypothese untersuchen und die Annahme oder Ablehnung der Nullhypothese für ein bestimmtes Signifikanzniveau von Interesse (Erhöhung des Stichprobenumfangs für eine mögliche Verbesserung des [Signifikanzniveaus]) betrachten.

p.p.p.s

auch wenn manche Leute das Wort probabilistische Verteilung nicht mögen - aber das Wesen der Verteilung ändert sich nicht - Verteilungen sind immer noch probabilistisch, auch wenn sie bedingt sind (die Bedingung gibt einen Grund für die Klassifizierung) ... und Before_treatment und After-treatment (in einem A/B-Test) können als eine Änderung der Bedingungen (Politik) betrachtet werden, aber es ist möglich, die Regression zu schätzen oder die Varianz zu vergleichen (ob sie sich geändert hat), auch wenn die Steigung dieselbe ist.

Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
Глубокие нейросети (Часть III). Выбор примеров и уменьшение размерности
  • www.mql5.com
Эта статья продолжает серию публикаций о глубоких нейросетях. Рассматривается выбор примеров (удаление шумовых), уменьшение размерности входных данных и разделение набора на train/val/test в процессе подготовки данных для обучения.
 
Ich habe den Eindruck, dass dies alles sehr weit vom Handel entfernt ist.
 
Deshalb sage ich, dass Sie sich zuerst für den Algorithmus entscheiden sollten (einschließlich der Ungleichgewichte - ich weiß nicht, was Sie damit machen wollten ???)... und dann nach einer Bibliothek suchen, die es Ihnen erlaubt, den Code mit den notwendigen Entitäten/Klassen aufzuladen... - als Sie vorhin zum Oversampling rieten)... und dann suchen Sie nach einer Lib, die es Ihnen erlaubt, die notwendigen Entitäten/Klassen zum Code hinzuzufügen... oder programmieren Sie Ihre eigene Bibliothek mit den notwendigen Klassen... oder programmieren Sie Ihre eigene Bibliothek mit den benötigten Klassen.
 
JeeyCi #:
Deshalb sage ich, dass Sie sich zuerst für den Algorithmus entscheiden sollten (einschließlich der Ungleichgewichte - ich weiß nicht, was Sie damit machen wollten ???)... und dann nach einer Bibliothek suchen, die es Ihnen erlaubt, den Code mit den notwendigen Entitäten/Klassen aufzuladen... - als Sie vorhin zum Oversampling rieten)... und dann suchen Sie nach einer Lib, die es Ihnen erlaubt, die notwendigen Entitäten/Klassen zum Code hinzuzufügen... oder programmieren Sie Ihre eigene Bibliothek mit den notwendigen Klassen... oder programmieren Sie Ihre eigene Bibliothek mit den benötigten Klassen.
Resampling wird durchgeführt, um Ausreißer zu entfernen und die Stichprobe zu gaussianisieren.

Ich habe allgemein eine sinnvolle Stichprobenziehung nach Entropie oder Korrelation vorgeschlagen. Um die Chips informativer zu machen. Außerdem nimmt man die Inkremente und fügt ihnen durch alle möglichen Transformationen ein Maximum an Informationen aus der ursprünglichen Serie hinzu. Und ein nicht festes Stotterfenster. Es ist ein Anfängeransatz und niemand hat das bisher gemacht. Aber ich habe mir irgendeinen Coronavirus-Mist eingefangen und ruhe mich aus ☺️

Lässige Infernos hätten helfen sollen, informative Fiches als Option zu wählen, aber es stellte sich heraus, dass es nicht darum ging
 
JeeyCi #:
Deshalb sage ich, dass Sie sich zuerst für den Algorithmus entscheiden sollten (einschließlich der Ungleichgewichte - ich weiß nicht, was Sie damit machen wollten ???)... und dann nach einer Bibliothek suchen, die es Ihnen erlaubt, den Code mit den notwendigen Entitäten/Klassen aufzuladen... - als Sie vorhin zum Oversampling rieten)... und dann suchen Sie nach einer Lib, die es Ihnen erlaubt, die notwendigen Entitäten/Klassen zum Code hinzuzufügen... oder programmieren Sie Ihre eigene Bibliothek mit den notwendigen Klassen... oder programmieren Sie Ihre eigene Bibliothek mit den benötigten Klassen.

Alles, was Sie brauchen, wurde bereits vor Ihnen kodiert.

Die Caret Shell von R enthält bis zu 200(!) Modelle in Ihrer Terminologie (Bibliotheken) + das gesamte notwendige Pipelining für Data Mining und Modellauswahl.

Das Problem liegt in der Auswahl der Prädiktoren und deren Auswahl, es gibt keine Probleme in Modellen für eine lange Zeit.

Grund der Beschwerde: