В статье будут рассмотрены особенности выбора, предподготовки и оценки входных переменных для использования в моделях машинного обучения. Будут рассмотрены множественные методы нормализации и их особенности. Будут указаны важные моменты этого процесса, сильно влияющие на конечный результат обучения моделей. Рассмотрим и оценим новые и...
Vladimirの以前の記事(2番目か3番目)を見ると、Rパッケージの1つでscaffoldingの助けを借りて決定されている。計算には非常に時間がかかり(メインのNSのトレーニングの何倍もの時間)、それが完全なオーバーフィットなのか、ある種の遺伝学なのかは、パッケージのドキュメントを見てください。
おそらく何らかの方法で最適化されたのでしょう。
情報をありがとう。しかし、この 記事では予測変数の独立評価について話しており、興味があるのはグループ法です。
情報をありがとう。しかし、この 記事は予測変数の独立推定に関するもので、興味があるのはグループ法です。
ここでは入力変数の相互作用について書かれているhttps://www.mql5.com/ja/articles/2029
はい、ありがとうございます。でもグループの相互作用についてはこう書いてあります:
ラッパー.ラッパー法は,モデル性能を最適化する最良の組み合わせを見つけるために予測変数を追加/削除する手順を用いて,さまざまなモデルを推定する.本質的に,ラッパー・メソッドは,予測変数を入力として扱い,最適化される出力としてモデル効率を使用する探索アルゴリズムである.予測変数の列挙には多くの方法がある(再帰的削除/追加,遺伝的アルゴリズム,シミュレーテッド・アニーリング,その他多数).
どちらのアプローチにも利点と欠点がある.フィルタ法はラッパー法よりも計算効率がよい傾向があるが,選択基準はモデルの性能に直接関係しない.ラッパー法の欠点は、複数のモデルの推定(ハイパーパラメータのチューニングが必要になる場合がある)は計算時間の劇的な増加につながり、通常モデルのオーバーフィッティングにつながることである。
本論文では、ラッパー法を検討するのではなく、フィルタリング法の新しい手法やアプローチを検討する。
この記事では、ラッパー法を検討するのではなく、フィルタリング法の新しい手法やアプローチを検討する。
これらの論文はニューラルネットワークとRの教科書に過ぎず、そこにロバストシステムは1つもない。多くのアプローチは誤解されたり捻じ曲げられたりする可能性もある。私はすでに、森林の重要 性を信用するなという大学教授の資料を割り引いた。https://explained.ai/rf-importance/index.html。
同時に、非相関と順列は信頼でき、 大半のケースでは十分で ある。
私の質問ではないかもしれませんが、あなたが苦しむのを見るのは耐えられません :)
これらの論文はニューラルネットワークとRの教科書に過ぎず、そこにロバストなシステムは一つもない。多くのアプローチは誤解されたり捻じ曲げられたりする可能性もある。スキャフォールディングの不純物の重要性を信じては いけないという話はすでに投げました。https://explained.ai/rf-importance/index.html。
私の質問ではないかもしれませんが、あなたが苦しむのを見るのは耐えられません :)
それが問題なんだ。誰もそれがどのように正しいのかわからない。誰かがモデルについてあることをやっていて、別の誰かが別のことをやっている。あるいは、すべてがランダムなのかもしれない。
私自身もこの問題に取り組んでいるが、今のところ、予測グループの完全な列挙とそのモデルの評価のような、プロセスを加速させるようなものは何も思い浮かばない。私にとって困難なのは、列挙をスピードアップするために、大きなグループのリンクを保存し、その後小さなグループに分割することである。
順列はRFだけでなく、あらゆるMO法にとって普遍的であり、計算量も非常に少ない。
順列はRFだけでなく、どのMO法にも普遍的であり、計算も非常に安価である。
通常の並べ替えはもちろんですが、ここでは違います - 予測値を9つのグループに分け、平均モデルの結果が悪いグループや逆に良いグループを何らかの方法で識別し、それから異なる分割で新しいグループを作成します。例えば、不合格にするためのスラグを見つけるためや、なぜそれが全体像に強く影響するのかを理解するために、悪いグループをサブグループに分けて、何度も繰り返します。このようにして、予測因子間の相互作用の観点から、ベスト/バッド・グループを特定することができる。タスクは、モデルが分類された後、得られた経験を考慮して、自動的に新しいグループ分けを行い、再度トレーニングを行うことである。ポイントは、分類がランダムではないということである。
もちろん通常の並べ替えもありますが、ここでは違います-予測因子を9つのグループに分割し、平均モデルの結果が悪い、または逆に良いグループを何らかの方法で識別し、それから異なる分割で新しいグループを作成します。例えば、廃棄すべきスラグを見つけるため、またはなぜそれが全体像にそれほど影響するのかを理解するために、悪いグループをサブグループに分割します。このようにして、予測因子間の相互作用の観点から、予測因子のベスト/バッド・グループを識別することができる。タスクは、モデルが分類された後、得られた経験を考慮して自動的に新しいグループ分けを行い、再度トレーニングを行うことである。ポイントは、分類がランダムではないということである。
お互いの間に相互作用はない、とすでに前述した。場所の配置を変えても、インポートの 数を変えても変わらない。確認してほしい。また、ウェイトが少ないということは、単純にモデルへの貢献度が低いということなので、悪いものはモデルを使うときに取り除く必要もないが、不必要なノイズを取り除くことは望ましい。
互いの間に相互作用はない。並べ替えても、インポートの数を変えても変わらない。それを確認することができる。さらに、ウェイトが少ないということは、単純にモデルへの貢献度が低いということなので、モデルを使用する際に悪いものを取り除く必要もないが、不必要なノイズを取り除くことは望ましいことだ
私は別の結論を持っている。
私は違う結論を持っている。
お好きなように :)
しかし、これは些細なことです。重要度は フィッシュの分散に依存します(非常に単純なモデルを除いて、ほとんどの場合)。Forestはフィッシュに対していかなる変換も行わず、掛け算や割り算なども行わず、ただノード間で値を分散させるだけである。