トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2750

 
mytarmailS #:
覚えてるけど、フィッティングエラーだよ、つまり、トレースサンプリング...
その次のロウソクの誤差は何ですか、テスト。

次の300本の誤差です。各バーで予測値が生成され、フィルタリングされ、モデルが学習され、次のバーが予測される。

 
Maxim Dmitrievsky #:
モデルが長生きしないことはよくあることですから。しかし、私は、少なくとも1年以上の間隔で、モデルの劣化が緩やかで、 。

これには同意できない。

市場は変化しており、変化の時間間隔はそれぞれ異なり、独立している。

私は以前、3ヶ月から6ヶ月のEAを書くことができました。週末に最適化した。その後、EAは死んでしまい、短期間ではあるが、預金を使い果たすには十分だった。しかし、最適化のための十分な時間はありませんでした。結局、状況はさらに悪化した。しばらくして、パラメーターを選択することが不可能な境界線があることが判明した。

市場が変化する期間は5~7年と長い。しかし、結果は月次の場合と同じである。ボットは永遠に死ぬのだ。私はプライベート・メッセージで市場から特定のボットを送信します - ここではできません。

だから、"サンプル外 "という考え方はくだらない。ボットにはまだ寿命がある:3ヶ月か7年か。ボットが死ぬと、私たちはそれを別のドローダウンと混同し、預金を失う。

理想的なのは、次のローソク足で再トレーニングすることだ。ティックで動作する場合は、次のティックで、H1で、次の時間の到着時に。

 
Valeriy Yastremskiy #:

すべての鉄棒でトレーニングすることに異論はないし、例えば固定しないティックでもいいかもしれない。私はトレーニングの構造を完全に理解していません。EAロジックは各バーで別のトレーニングなのでしょうか、それともトレーニングの一部なのでしょうか?それは最初のトレーニングの尾のようなもので、何尾、またはトレーニングの段階ですか?

各バーですべてが新しくなります。

 
Maxim Dmitrievsky #:

因果推論には もっと木製のモデルがある。

実際には、多くの解釈がある:

- RLはMLよりも優れて いるが、モデル化する必要が あり、すべてを考慮できるわけではない......。
- 相関のある2つの値について推論する場合、何が何に依存するかについてのみ推論することができ、その逆はできない(結果が要因に、または要因が結果に)
- 媒介、中庸、相互作用、依存関係がプロセスに干渉する(実験的に追跡することさえできないことが多い)
- 一般的に、実験を計画することが重要である(依存関係のグラフを描くことができると便利である、正確に論理的、理論的なもの) 実験を計画するためには、その結果をMLで処理することができる、あるいはさらに単純な .......
、つまり、調査した要因に関する条件分布、あるいは調査した2つの要因の共同影響度を得るために、どのような順序で、どのような要因を修正するか、得られた結果を無条件分布と比較するか、「より良い-良くない」、「影響-影響でない」という仮説を提唱するか、統計的に確認するか反論するか、フィールド条件でのテストに移行するか...。そして新たな因果推論を得る。)

そして、ML RFでは、相関行列をどのように処理しているのかわからない。

多くの人が確率モデルを批判するのは、まさに2.のためであり、他の要因の影響も考慮していると主張して、因果推論を称賛し始めるのである...。しかし、この問題(推論と 同義語)がVM装置によってアルゴリズム的にどのように解決されるかは(少なくとも私には)不明である。

私にとって因果推論は本質的に推論 であり、媒介、中庸、相互作用の研究は別の大きなトピックであり、好みの問題である(つまり、論理的に構築されたグラフをあれこれスケッチすること)。

市場に1つのBPがあるだけで、従属性に関する仮説を検証することはできません...そして、実験の合理的な設定で、1つのOLSまたはANOVAで十分です(しかし、確実にチップを1つに絞る必要はないでしょう)。

?? ...というわけで、ある特徴をある要因に帰着させるとか、ある結果に帰着させるというアルゴリズムは、(木型でもなんでも)論理的・理論的な知識以外には知りません.とはいえ、昨今はいろいろなものが別の言葉で宣伝されているので、どのような文脈で因果推論に 出会ったのかは知らないが......。

 
JeeyCi #:

実践から、多くの解釈:
- 環境が被検者に影響を与える(実験室条件下ですべてが相関する場合、自然条件下では、他の説明できない依存関係が現れる - 最も平凡なもの - 人的要因や混雑効果) - RLはMLよりも優れているが、モデル化する必要もあり、すべてを考慮することはできない....
- 相関のある2つの値について、何が何に依存するかについての推論ができるだけで、その逆はできない(結果が要因に、または要因が結果に)
- 媒介、中庸、相互作用、プロセスに干渉する依存関係(多くの場合、実験的に追跡することさえできない)
- 一般的に、実験を計画することが重要である(依存関係のグラフを描くことができると便利である、正確に論理的、理論的なもの) 実験を計画するためには、その結果をMLで処理することができる。...
すなわち、調査された要因の条件分布、あるいは調査された2つの要因の共同影響度を得るために、どのような順序で、どのような要因を修正するか、得られた結果を無条件分布と比較する-「ベターかベターでないか」という仮説を提唱し、統計的に確認し、あるいは反論し、フィールド条件でのテストに移行する...そして新たな因果推論を行う)

そして、ML RFでは - 私は彼らが相関行列を処理し、それを行う方法を知りません - (特にポイント2は疑問である)。

多くの人が確率モデルを批判するのは、まさにこの2のためであり、他の要因の影響も考慮していると主張して、因果推論を賞賛し始めるのである。しかし、この問題(推論と同義語)がVM装置によってアルゴリズム的にどのように解決されるかは(少なくとも私には)不明である。

私にとって因果推論は本質的に推論 であり、媒介、中庸、相互作用の研究は別の大きなトピックであり、好みの問題である(つまり論理的に構築されたグラフをスケッチすること)。

市場に1つのBPがあるだけでは、依存関係についての仮説を検証することはできません...合理的な実験を行えば、1つのOLSまたはLDAで十分です(しかし、確実に機能を割り当てる必要はありません)。

?? ...というわけで、(木型でもなんでも)特徴を要因に帰属させるとか、結果に帰属させるとか、そういうアルゴリズムは、ロジックや理論的な知識以外にはわからない......。とはいえ、昨今はいろいろなものが別の言葉で宣伝されているので、どのような文脈で因果推論に出会ったのかは知らないが......。

Uberの リブで、プロセスを改善したというのを見ました。

相関関係=因果関係という一般的な解釈と、A/Bを始めとするさまざまな方法でそれを解決しようとしているが、それはよくわからない。

変な定義をしている。ボトルなしでは理解できない。余計な言葉で頭をいっぱいにしなければならない。

Causal Inference from Observational Data, или как провести А/В-тест без А/В-теста.
Causal Inference from Observational Data, или как провести А/В-тест без А/В-теста.
  • Stats&Data ninja
  • koch-kir.medium.com
Привет дата-ниндзя👋! Первый вопрос, который ты задашь — зачем вообще это нужно ❗️❓ Предположим, ты исследуешь причинно-следственную связь между двумя величинами (Y зависит от X). И тогда, изменяя X, мы можем быть уверены что изменяем Y, причем уверены мы не только в самом факте изменения, но и в его направлении и величине (magnitude). Конечно...
 
mytarmailS #:

ところで、他のモデルはどのように動作するのだろうか。mach()関数を エラーなしで 作成できるのだろうか。

GPチューニングなしで、異なるモデルを簡単にトレーニングした

1 0.002392       форест
3 0.005348 екстр. буст.
4 0.024160     нейронка
2 0.037200         МГУА

結論:モデルは関数を作ることはできないが、ある程度の精度で近似することはできる。

set.seed(125)
dat <- round(rnorm(100000),2)
X <- matrix(dat,ncol = 5)
Y <- apply(X,1,max)
colnames(X) <- paste0("x",1:5)

tr <- 1:19950
ts <- 19951:20000

#///////////////

library(randomForest)
rf <- randomForest(Y[tr]~.,X[tr,],ntree=100)
pr <- predict(rf,X[ts,])

cb <- round(  cbind(pred=pr,actual=Y[ts])  ,2)
matplot(cb,t="l",col=c(1,2),lty=1,lwd=c(3,1),main="RF regresion")
rf_MSE <- mean((cb[,1] - cb[,2])^2)  #  rf MSE 0.002392

#///////////////

library(GMDHreg)
gmdh <- gmdh.mia(X = X[1:10000,],
                 y = Y[1:10000],
                 x.test = X[10000:19951,] ,
                 y.test = Y[10000:19951], prune = 25,criteria = "test")
pr <- predict(gmdh,X[ts,])

cb <- round(  cbind(pred=pr,actual=Y[ts])  ,2)
matplot(cb,t="l",col=c(1,2),lty=1,lwd=c(3,1),main="gmdh regresion")
gmdh_MSE <- mean((cb[,1] - cb[,2])^2)  #  gmdh MSE 0.038692

#///////////////

library(xgboost)
xgb_train = xgb.DMatrix(data = X[1:10000,], label = Y[1:10000])
xgb_test =  xgb.DMatrix(data = X[10000:19951,], label = Y[10000:19951])

watchlist = list(train=xgb_train, test=xgb_test)
xgb = xgb.train(data = xgb_train, max.depth = 3, watchlist=watchlist, nrounds = 1750)

pr <- predict(xgb,X[ts,])
cb <- round(  cbind(pred=pr,actual=Y[ts])  ,2)
matplot(cb,t="l",col=c(1,2),lty=1,lwd=c(3,1),main="xgb regresion")
xgb_MSE <- mean((cb[,1] - cb[,2])^2)  #  xgb MSE 0.005348

#///////////////

library(automl)
nn <- automl_train(Xref = X[tr,], Yref = Y[tr],
                   autopar = list(numiterations = 10,
                                  psopartpopsize = 10),
                   hpar = list(numiterations = 10))

pr <- automl::automl_predict(nn,X[ts,])

cb <- round(  cbind(pred=pr,actual=Y[ts])  ,2)
matplot(cb,t="l",col=c(1,2),lty=1,lwd=c(3,1),main="nn regresion")
nn_MSE <- mean((cb[,1] - cb[,2])^2)  #  nn MSE 0.023828

#///////////////

 res <- c(rf_MSE , gmdh_MSE , xgb_MSE , nn_MSE)
nms <- c("форест","МГУА","екстр. буст.","нейронка")
m <- cbind.data.frame(res,nms)
m <- m[order(m$res),]
m
barplot(m$res,names.arg = m$nms)
 
СанСаныч Фоменко #:

これは次の 300 バーの誤差である。各バーで予測変数が形成され、フィルタリングされ、モデルがトレーニングされ、次のバーが予測された。

夕方、同じようなことをやってみようと思うが、私はこのような再教育ボットをかなりたくさんやっている。

むしろ、テスト・サンプルとは何かという概念や理解に混乱があり、そのために私たちは同じものを呼びながら、異なることを話しているのだ。

 
Aleksey Vyazmikin #:

タスク・キューが少しアンロードされ、スクリプトを実行できるようになった。実行するとエラーが出る。

プログラムが古いバージョンR 4.0を要求しているという理解で合っていますか?

古いバージョンを探したのですが、見つかりませんでした。もちろん、ひどい非互換性には反吐が出る。

違う。異なるバージョン用にビルドされたパッケージには警告が出る。非互換性とは何のことでしょうか?

randomForest v.4.7-1.1はどこにも行かなかったし、クレーンにも。R 4.1.3

 
Renat Fatkhullin #:

ビルド3440からAVXバージョンの配布を開始しますのでご注意ください:https://www.mql5.com/ru/forum/432624/page5#comment_42117241。

次のステップは、数学的装置をベクトルとOpenCL関数に書き換えることです。これにより、CUDAのような追加ライブラリをインストールすることなく、10倍の加速が可能になります。

これは本当に大きな前進だ。指標やエキスパートの書き換えが必要ですか?

 
СанСаныч Фоменко #:

それには同意できない。

市場は変化しているし、変化の時間間隔はそれぞれ異なり、独立している。

以前は3ヶ月から6ヶ月のExpert Advisorを書くことができた。週末に最適化していた。その後、彼らは死んでしまい、短期間ではあるが、預金を使い果たすには十分だった。しかし、最適化には時間が足りない。結局、状況はさらに悪化した。しばらくして、パラメーターを選択することが不可能な境界線が存在することが判明した。

市場が変化する期間は5~7年と長い。しかし、結果は月次の場合と同じである。ボットは永遠に死ぬのだ。具体的なボットをプライベート・メッセージでお送りします。

だから、"サンプル切れ "という考え方はくだらない。ボットにはまだ寿命がある:3ヶ月か7年か。ボットが死ぬと、私たちはそれを別のドローダウンと混同し、デポを使い果たす。

理想的なのは、次のローソク足で再教育することだ。ティックで動作する場合は、次のティックで、H1で動作する場合は、次の時間の到着時に。

あなたのアルゴリズムとKNN(またはその修正版)を比較しましたか?どの程度の利得があるのか興味深い。

理由: