トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3384

 
Aleksey Nikolayev #:
mql5でCPU上の計算を並列化するメカニズムをご存知ですか?

上級者向けにはOpenCL。

あまり高度でない場合 - エージェントを別々のチャートで実行する。各チャートを別々のスレッドで実行すると、すべてのCPUコアが使用されます。

その上、ターミナル・エージェントは、ターミナル・チャート上でアプリケーションの計算を並列化するために使用することができます。

この記事では、MQL5でパラメータのステップを無制限に小さくして、2進数のすべての有効桁をカバーするバイナリGAを書く方法を紹介します(実際には、2進数の小数点以下は16桁までです)。MQL5では標準的な数値型の拡張を書くことができます。

 
Andrey Dik #:

OpenCLは多かれ少なかれ上級者向けだ。

あまり高度でない場合 - エージェントを別々のチャートで実行する。各チャートを別々のスレッドで実行すると、すべてのプロセッサコアが合計で使用される。

その上、ターミナル・エージェントは、ターミナル・チャート上でアプリケーションの計算を並列化するために使用することができます。

この記事では、MQL5でパラメータのステップを無制限に小さくして、2進数のすべての有効桁をカバーするバイナリGAを書く方法を紹介します(実際には、2進数の小数点以下は16桁までです)。MQL5では標準的な数値型の拡張を書くことができます。

つまり、窮屈な自転車を手に入れることができる、ということだ。

そしてOpenCLはとても優れているので、metaquotesはGPUオプティマイザをその上で書かなかった。

わかった、もうやめるよ。でないと、君のデマゴギーについて思ったことを全部言ったら、マキシムみたいに出入り禁止にされちゃうよ。

 
Aleksey Nikolayev #:

つまり、かなり厄介な自転車になるということだ。

OpenCLはとても優れているので、metaquotesはGPUオプティマイザを書かなかった。

わかった、もうやめるよ。でないと、君のデマゴギーについて思ったことを全部言ったら、マキシムみたいに出入り禁止にされちゃうよ。

では、具体的に何が問題なのか?MQL5で問題があったとしても、それは言語のせいではないし、質問する人のための特別なプロフィールのスレッドもある。

私の「デモゴギー」とは?MQL5での具体的な実装や検索戦略について話したり見せたりした。私の顔に泥を塗ったり、出入り禁止になることを恐れさせたりしないために、あなたは私に他に何を求めているのですか?

私は人々にとても驚かされます。

 

レンダリングされたforrestの冗長性について少し。

虹彩データセットを取得し、forrestを訓練し、forrestからルールを抽出し、各ルールが特徴であるデータセットを作成する。

すると、ルールが列に並んだ行列ができる(約700個)。

X <- iris[,-5]
target <- iris[,"Species"] 

library(inTrees)
library(RRF)

rules_dataset <- target |> 
                  RRF(x = X) |> 
                  RF2List() |> 
                  extractRules(X = X) |> 
                  sapply(\(r) eval(str2expression(r)))
ncol(rules_dataset)
[1] 698

ここで、線形に関連するルールをすべて特定し、冗長なルールとして削除する。

remove_lin_comb <- caret::findLinearCombos(rules_dataset)$remove
clear_rules_dataset <- rules_dataset[, -remove_lin_comb]

すると

ncol(clear_rules_dataset)
[1] 32


データセット全体は、698個ではなく32個のルールで記述できる。


そういうことだ...。

フォレストは 698/32= 21.8125倍も冗長な のだ。

 
mytarmailS #:

ランダム・フォレストの冗長性について少し。

虹彩データセットを取得し、フォレストを訓練し、フォレストからルールを抽出し、各ルールが特徴であるデータセットを作成する。

ルールを列に持つ行列を得る(約700個)

次に、線形に関連するルールをすべて特定し、冗長なルールとして削除する。

すると


データセット全体は698ルールではなく32ルールで記述できる。


そういうことだ。

フォレストは 698/32= 21.8125倍も冗長な のだ。

ルールはどこから来るのか?その通り、入力された山のような情報を圧縮してルールを得て、それを予測に使うのであって、元の情報ではない。それがモデルと呼ばれる理由だ。

 
СанСаныч Фоменко #:

ルールはどこから来るのか?その通り、入力にある山のような情報を圧縮してルールを得て、それを予測に使うのであって、元の情報を使うわけではない。それがモデルと呼ばれる理由だ。

書かれていることをよく読んでください

 
mytarmailS #:
ルールに関する記事を書きたくなかったのか、それとも気が変わったのか?テスト関数の最小化よりも興味深いトピックだろう。それとも、OOSでの検証に問題があるのですか?あるいは、問題などなく、ただ書くのが億劫なだけなのか。
 
ルール選択の一般的なアプローチ。例えば、ツリーをルールに分解して、それからどうするか...TCの文脈で。ベストプラクティスや洞察。それは興味深い。

ただ、ランダムな関数やランダムな狼ではなく、利益に近いもの。
 
Maxim Dmitrievsky #:
ルール選択の一般的なアプローチ。TCの文脈で、ツリーをルールに分解して、それからどうするか...というような。ベストプラクティスや洞察。

ただ、ランダムな関数やランダムな狼ではなく、利益に 近い。

利益に近づける」というのは「オーバートレーニング」と同義ではないか?
基本はランダムな増分値なので、ランダムな利益についてはいい均衡が得られる。そしてバランスの美しさはどこから来るのか?

このバランスは、分類エラーに影響されるだけではない。

しかし、もし私たちがMOEの範囲内にとどまるならば、評価はプロファイルではない。

 
СанСаныч Фоменко #:

利益に近づく」ことは「オーバートレーニング」と同義ではないか?
基準がランダムな増分値であるため、ランダムな利益で美しい均衡が得られる。バランスの美しさはどこから来るのか?

バランスとは端末におけるTSの評価であり、このバランスは分類エラーに影響されるだけではない。

そして、もし我々が手口の範囲内にとどまるならば、評価は利益ではない。

利益に近づく - 引用符に近い、無意味な何かのトレーニングではありません。このようなテストはインターネット上にたくさんあり、異なるMOの特殊性は長い間知られている。何が悪くて何が良いのか。

ただ、ルール抽出がどの階層に位置するのか理解できない。
理由: