Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
ウラジミールの記事も 10~20%程度の誤差はあるが、バランスラインは心もとない。
これもトレーニングの解釈「a-post」次第かもしれないが......。
前の投稿に追加
#299
誰かが、私がビデオを投稿した私の投稿を削除した...どうしてそんなことが起こるのかわからない。
誰かが僕がビデオを投稿した記事を削除したんだ...どうしてそんなことが起こるのかわからないよ。
まあまあ、ずいぶん目立ちたがり屋さんだね。
ウッドモデリングについてはこちら。
#4469
#4467
キャットバスターズ検索について?😄スレを立てた人
おやおや、ずいぶん目立ちたがり屋なんだね。
これがウッドモデリングだ
#4469
#4467
キャットバスターズ検索について?スレッドを立てた人
いいか、木材は全く議論にならない...MoDのチュートリアルの95パーセントは木材から始まる、それは初心者が最初に知ることだ、あなたはそれを担当していない。
いいか、木材はまったく論外だ......。MoDのチュートリアルの95%は木材から始まる。
ここでは以前からNSがほとんどだった。テストをしてみたら、木も悪くないことがわかった。ここでそのような情報を見たのは初めてで、そうでなければこの質問をしなかっただろう。
それからboustingに切り替えて、katbust libを見つけて、ここで再現し始めたんだ。
以前、ここで議論されたのはほとんどがNSだった。テストをしてみたところ、樹木の方が悪くないことがわかった。ここでこのような情報を見たのは初めてで、そうでなければこの質問をしなかっただろう。
ところで、ツリーは、クラスタリングとFSに代わる「2 in one」としての価値があります。
その後、boustingに切り替えて、katbust libを見つけ、ここでそれを再現し始めました。
ところで、ツリーは、クラスタリングやFSに代わる価値あるものとして機能する。
アルゴリズムについて:数学的にもう1つの2階微分を与える(あるいは残差の平均化 - 統計的に) --しかし、それはトレーニングにどのように役立ち、どのような場合に役立つのだろうか?というのも、どこでも点の精度が重要なわけではなく、モデルの生成能力の方が重要な場合もあるからだ。因果推論の ための木製のモデルもある。
Boustingはバイアスと分散を減らしますが、Forestは分散だけだと思います。ググってみてください。また、ライブラリ自体も開発されているので、便利に使える。
生成的なものについてはよくわからない。でも、NSの生成的なものは、合成データを生成するという話であれば、FXではうまく機能しません。
合成データの生成について話しているのであれば。
いいえ、一般化することです。はい、間違っています。すみません。
リスクオンとリスクオフの環境を区別することだと思います。すべて私自身の考えです(たまたまこのフォーラムで)。
お返事ありがとうございました!
いいえ、一般化することです......。はい、間違っています。すみません
リスクオンとリスクオフの環境を区別するためだと思うのですが......この区分をどう一般化するか、まだ考えています......。すべて私自身の考えです(たまたまフォーラムで)...
お返事ありがとうございました!
catbustaには様々な機能があり、私は気に入っています。
検証サンプルのエラーに基づく早期停止、事前学習があります。汎化はNSより悪くない。
学習も早く、何時間も待つ必要がない。
MOがJAの原始的な関数をシミュレートできるかどうかが気になります。
行列があり、行列の各行が訓練例です。
各行の最大値を求める必要があり、サンプルサイズは20k行です。
回帰による問題の解決
明瞭さのために丸みを帯びた
かなり良い。50行の改行のうち、テストでのエラーはわずかだった。
しかし、行列Xのデータは非常に単純で、1から5までの5つのユニークな値と5つの列だけですが、すでにエラーが発生しています。
分類をすればエラーはなくなると思うが。
まあ、そうなんですが、データの最大値を探すのであれば、値の散らばりが大きくなる可能性があるので、分類は適していません。
それでは回帰に戻って、データを複雑にしましょう。
このような結果が得られる。
原理的には悪くはないが、通常の関数mach()の方がうまくいくし、このモデルをすべて置き換えることができる。
ところで、他のモデルはどのように動作するのだろうか、 エラーなしで mach()関数を 作成できるのだろうか?