トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 646

 
Dr.トレーダー

2つのタイプから選べます
1=精度の平均的な低下(mdaがそうだろう、最初の文字を合わせればいい)
2=ノード不純物の平均的な減少量

と、特別パッケージのVSURF、VarSelRF、Borutaがあります。

 
イワン・ネグレシュニー

また、VSURF、VarSelRF、Borutaのスペシャルパッケージもあります。

どっちがいい?)

 
マキシム・ドミトリエフスキー

どっちがいい?)

つまり、これはランダムフォレストを 扱うRのほんの一部で、BorutaはPython用でもあるようです。

IMHOでは、バリエーションが多くても、ユーザーの手間が少ないものがベストです。 フルオートで、モデルを解析して、適したものをすべて見てくれるものがベストです)。

 
イワン・ネグレシュニー

つまり、これはランダムな足場上で動作するRのほんの一部で、BorutaはPythonでも利用できるようです。

バリエーションは増えたが、ユーザーの手間は少なく、モデルを解析して最適なものを探すのがベストだと思う)

足場のフィーカイモータンの何かをMT5用に書き換えて手元に置こうと思っていたのですが

いまだに手をつけていない。

Pなんてどうでもいい、一生かかっても身につかないよ...。:) そして、全部を使うことはできません。
 
マキシム・ドミトリエフスキー

手元にあるscaffoldingの何かをMT5用に書き換えようと思っていたのですが

まだ届かない。

は、Pのこんなことどうでもいい、一生かかっても身につかないよ...。しかも、全部は使えません。

もし自分でやろうとするなら、古典的なBreymanのfishimportanceから始めるべきでしょう。学習セット中の先物を一つずつ並べ替えて、OOBのMSEやツリー分割のジニ指数の変化から関連性を計算します。

時系列にも使えるようになっているので、有意でない要素を必要数削除して、長さの異なるパターンを同じ次元に落とし込むことができます。
Random forest - Wikipedia
Random forest - Wikipedia
  • en.wikipedia.org
Random forests or random decision forests[1][2] are an ensemble learning method for classification, regression and other tasks, that operate by constructing a multitude of decision trees at training time and outputting the class that is the mode of the classes (classification) or mean prediction (regression) of the individual trees. Random...
 
イワン・ネグレシュニー

もし自分で書きたいのであれば、古典的なBreymann ficcimportanceから 始めるべきです。学習セットの中の先物を一つずつ並べ替えて、OOBのMSEやツリー分割のGini指数を変化させて重要度を計算します。

アイデアとしては、時系列に適用することで、重要度の低い要素を必要数削除し、異なる範囲のパターンを同じ次元に削減することができます。

そう、手始めにジニが欲しい。

と、一般的には足場の方が使いやすく、同じ最適化でも

 
私見では、価格は下落するよりも上昇する方が遅いと思います。つまり、記憶する絵柄が違えば、違うものになるのです。でも、おそらく比べてみても時間はかからないと思います。
 
エリブラリウス
価格が下がるより上がる方が遅いと思います。つまり、覚えるべきイメージが違ってくるのです。でも、おそらく比べてみても時間はかからないと思います。

それはFXでも同じです :) 2つの通貨があります。

相反する例もあるのではないか......むしろ少ないはずだ

 
マキシム・ドミトリエフスキー

それはFXでも同じです :) 2つの通貨があります。

相互に排他的な 例があるかどうか...実際、あまりないはずです

だから、それでいいんです。Nをクラス1、Mをクラス2とし、クラスが重なるようにする、イミフですが、そうあるべきでしょう。

このとき、確率はPn=n/N、Pm=m/Mとなる。確率>0.5なら、DMが単独で処理できる。私たちの経験では、重複は20~40%のレベル、つまり20~40%のトランザクションが不正になります。

 
Yuriy Asaulenko:

だから、それでいいんです。Nをクラス1、Mをクラス2とし、クラスが重なるようにする、イミフですが、そうあるべきでしょう。

このとき、確率はPn=n/N、Pm=m/Mとなる。確率>0.5なら、DMが単独で処理できる。つまり、20〜40%の確率で間違うことになる。

まあ基本的にはそうなんですが、バターを腐らせることもないし、オーバートレーニングも少なくて済みます。そして、そのような一見小さなことにこそ、効率化の鍵があるのかもしれません。

ただし、授業はなく、退行があります。

また、初期級数の変換(アフィン変換など)や増分の加算も可能です(モンテカルロってこういうことだったんですね)。

とにかく、私はすでに自分のしていることが好きで、NSとのゴールまであと3週間です :))聖杯か 地獄のどちらかです。賭けてみてください :)))

理由: