Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3042

 

Extrahieren einiger "guter" Regeln/Strategien aus den Daten...

Vollständiger Schritt

1) Datentransformation und Normalisierung

2) Modelltraining

3) Extraktion von Regeln

4) Filterung der Regeln

5) Visualisierung

fertiger Code, ersetzen Sie einfach Ihre Daten.

close <- cumsum(rnorm(10000,sd = 0.00001))+100
par(mar=c(2,2,2,2))
plot(close,t="l")

sw <- embed(x = close,dimension = 10)[,10:1] #  make slide window data
X <- t(apply(sw,1,scale)) #  normalase data

dp <- c(diff(close),0) #  diff prices
Y <- as.factor( ifelse(dp>=0,1,-1) ) #  target for classification

tr <- 1:500
library(inTrees)  # ?inTrees::getRuleMetric()
library(RRF)

rf <- RRF(x = X[tr,],y = Y[tr],ntree=100)
rule <- getRuleMetric(unique(extractRules(RF2List(rf),X[tr,])),X[tr,],Y[tr])
rule <- data.frame(rule,stringsAsFactors = F)
for(i in c(1,2,3,5)) rule[,i] <- as.numeric(rule[,i])
buy_rules <- rule$condition[ rule$pred==1 ]

plot(x = 1:1000,y = rep(NA,1000), ylim = c(-0.001,0.001)) 
for(i in 1:length(buy_rules)){
   cum_profit <- cumsum( dp[  eval(str2expression(buy_rules[i]))  ] )
   lines(cum_profit,col=8,lwd=1)
}
for(i in 1:length(buy_rules)){
  cum_profit <- cumsum( dp[  eval(str2expression(buy_rules[i]))  ] )
  ccor <- cor(cum_profit, 1:length(cum_profit))
  if(ccor>=0.9)  lines(cum_profit,col=i,lwd=2)
}
abline(h = 0,col=2,lty=2)



Die Frage ist, wenn man "funktionierende TCs" zufällig finden kann, wie kann man dann beweisen, dass die TCs, die man auf realen Daten findet, nicht zufällig sind?

Alexey macht das hier. Ich frage mich, ob es einen statistischen Test für diese Art von Aufgaben gibt?

 
Fragen Sie chatgpt, antwortet oft informativer als ein Mensch :)

Ich möchte ein Experiment machen - schreiben Sie einen Bot von Grund auf nur durch Eingabeaufforderungen.
 
Maxim Dmitrievsky einen Bot von Grund auf nur durch Prompts schreiben.

Warum eigentlich? Um Lilith zu übertreffen? Obwohl, was würde ..... ... ... ... Ich würde gerne)))))))))))))))))))))))) Ein wirklich cooles Werkzeug in geschickten Händen.)

 
Valeriy Yastremskiy #:

Warum? Um Lilith auszustechen? Obwohl, was würde ..... ... ... ... sya)))))))) Es ist ein wirklich cooles Tool in den richtigen Händen.)

Es ist eine Metaebene der Programmierung, und sie kennt Python perfekt. Ich mache auch Souffleure, wenn ich auf der Couch liege. Es kommt oft vor, dass ich Ideen habe, aber zu faul bin, den Code noch einmal zu schreiben :).
 
Maxim Dmitrievsky #:
Es ist eine Programmierung auf Metaebene, und sie kennt Python perfekt. Ich mache auch Aufforderungen per Sprache, während ich auf dem Sofa liege. Es kommt oft vor, dass ich Ideen habe, aber ich bin zu faul, den Code noch einmal zu schreiben :)

Ich stimme zu, die richtige Frage ist eine Metaebene))))

Nun, und überprüfen Sie die Korrektheit der Code-Ausführung)
 
Valeriy Yastremskiy #:

Ich stimme zu, eine richtig gestellte Frage ist eine Metaebene)))))

Nun, und überprüfen Sie die Korrektheit der Codeausführung)
Gib mir eine neuronale Schnittstelle, damit ich meinen Mund nicht bewegen muss.
 
Ich denke, es ist eine Verschlechterung
 
mytarmailS #:

Extrahieren einiger "guter" Regeln/Strategien aus den Daten...

Vollständiger Schritt

1) Datentransformation und Normalisierung

2) Modelltraining

3) Extraktion von Regeln

4) Filterung von Regeln

5) Visualisierung

fertiger Code, ersetzen Sie einfach Ihre Daten



Die Frage ist, wenn Sie "funktionierende TCs" zufällig finden können, wie können Sie beweisen, dass die gefundenen TCs auf realen Daten nicht zufällig sind?

Alexey macht das hier. Ich frage mich, ob es einen statistischen Test für diese Art von Aufgaben gibt?

Das Hauptproblem bei der Anwendung von Matstat für solche Probleme ist, dass die Suche nach TCs durch Auswahl aus einer großen Anzahl von Varianten erfolgt. Es ist immer möglich, aus einer großen Menge von Varianten etwas sehr Schönes auszuwählen - an einem einfachen Beispiel habe ich hier einmal gezeigt, dass man bei der Modellierung von Preisen als SB immer eine gute Stunde der Woche für den Handel "finden" kann. Und das sind nur 120 Varianten, aus denen man wählen kann.

Die Matstat sagt nicht, dass der gewählte TS zwangsläufig schlecht ist, sie sagt nur, dass ein solches Ergebnis eben das Ergebnis der Auswahl aus dem SB sein KANN (NICHT MUSS).

 
mytarmailS #:

Extrahieren einiger "guter" Regeln/Strategien aus den Daten...

Ich erhalte eine Fehlermeldung beim Starten

> sw <- embed(x = close,dimension = 10)[,10:1] # make slide window data
Error in h(simpleError(msg, call)) : 
  ошибка при оценке аргумента '.data' при выборе метода для функции 'embed': argument ".data" is missing, with no default
 

Es stellt sich die rein theoretische Frage, ob ein ONNX-Modell zur Ableitung eines anderen ONNX-Modells verwendet werden kann. Zum Beispiel wird das erste Modell verwendet, um regelmäßig mit neuen Daten zu trainieren und das Arbeitsmodell zu aktualisieren. Das heißt, ohne Verwendung von Python usw.

Auf den ersten Blick ist es unwahrscheinlich, dass dies möglich ist, aber für den Fall, dass jemand versucht hat, so etwas zu tun.

Es ist mir nicht gelungen, von der KI eine sinnvolle Antwort zu erhalten - sie schreibt, dass sie es kann, und zitiert Referenzen, die nichts mit der Frage zu tun haben.)