トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2406

 
エントロピーは古くからロスフィやクロスエントロピーのようにあらゆるところで使われてきた。また、このようなことは、浮遊法のある列では重要ではなく、重要であったとしても二次的なものである。解決策は表面にあり、変種の1つは、すでにこのスレッドで提案されている、揺るぎなく動作します。まだ詳細は言いませんが、いつか記事を書きます。Z.I.おそらく表面で少し興奮したのでしょうが、少なくとも私にとっては😀。
 
メトリクスへの言及、自分ではいくつか知らないhttps://russianblogs.com/article/7586220986/
 
Maxim Dmitrievsky:
メトリクスのリファレンス、私自身はいくつかのhttps://russianblogs.com/article/7586220986/ を知りません。

符号が単位立方体に一様に分布している場合、直感的にチェビシェフメトリックが最も正しいと思われる。もうひとつは、任意の特徴量がそううまく正規化できるとは思えないことです。

 
アレクセイ・ニコラエフ

特徴量が単位立方体に一様に分布している場合、直感的にチェビシェフメトリックが最も正しいと思われる。もうひとつは、任意の属性をそれほどうまく正規化できそうにないことだ。

正規化で実験したところ、モデルでまともな損失が出たので、正規化せずに良くなった。だから、ニューラルネットワークではなく、樹木の森なんです。
 
Maxim Dmitrievsky:
正規化を試してみたところ、モデルでそれなりの損失が発生したが、正規化しない方が良い。したがって、ニューラルネットワークではなく、木の森。
同じような結論-木だけ特にマキシマがアップデートされ、すべてがシフトしたときが楽しい。もちろん、手動または自動で(各機能に)最大値を設定することもできますが、それは松葉づえです。
 
Maxim Dmitrievsky:
正規化を試してみたところ、モデルでそれなりの損失が発生したが、正規化しない方が良い。だから、ニューラルネットワークではなく、樹木の森なんです。

また、xgboostの ようなものに傾倒していますこれも 皆さんの努力のおかげです)。しかし、正規化だけでなく、特徴を生かした一般的な準備研究は決して損にはなりません。また、カスタムの目的関数を構築するための柔軟なアプローチも必要です。

 
Maxim Dmitrievsky:
したがって、ニューラルネットワークではなく、樹木の森です。

そう、数年前、このスレッドで誰かがそんなアイデアを書いていました。森を提案し、ニューラルネットワークを核兵器と比較したのです。他の方法ではどうにもならない場合にのみ使用するようにとのこと。しかし、一部のマキシムは彼をプーしている。

どうなんだろう...。彼は正しかったのでしょうか?

 
アレクセイ・ニコラエフ

また、xgboostの ようなものに傾いていますこれも あなたの仕事のおかげです)。しかし、正規化だけでなく、特徴を生かした一般的な準備研究は決して損にはなりません。また、カスタム目的関数を構築するための柔軟なアプローチも必要です。

LightGBMやCatBoostを推奨、XGBoostは遅れている。

どんな前処理でもαを殺してしまうことが判明したのです。これは、インクリメントをとって乾燥させ始めた場合です。理想は元の系列(引用符)を取ることですが、非定常性があるため訓練できません。これは、分数微分法の記事(grok the market memory)でよくわかります。変形を加えれば加えるほど、そこに何かが残っているわけではありません。

 
Dmytryi Nazarchuk:

そう、数年前、このスレッドで誰かがそんな考えを書いていました。彼は足場を提案し、ニューラルネットワークを核兵器に例えていたのです。他の方法では全く達成できない場合にのみ使用すべきものである、と。しかし、一部のマキシムは彼をプーしている。

どうなんだろう...。彼は正しかったのでしょうか?

何を言っているのかわからない。

 
elibrarius:
同じような結論-木のみ。特にマキシマがアップデートされ、すべてがシフトしたときが楽しい。もちろん、手動または自動で(各機能の)最大値を設定することはできますが、それは支障をきたします。

ああ、どう転んでも無意味だ

理由: