トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3360 1...335333543355335633573358335933603361336233633364336533663367...3399 新しいコメント Aleksey Vyazmikin 2023.12.26 23:40 #33591 Maxim Dmitrievsky #: 私は全くキャンペーンをしていない。アプローチはいくらでもある。質問はMOの知識についてだった まあ、私自身はモデルの答えをクラスが脱落する確率とは関連付けておらず、クラス定義に対するモデルの信頼度として受け取っている。信頼度は葉っぱでカウントされ、葉っぱはトレーニングサンプルでカウントされます。ここでは、1つのリーフがクラス脱落の確率を示す。各葉はサンプルのすべてのポイントで応答を持っているわけではないので、確率の合計がモデルの最終的な応答で歪んでいることがわかります。おそらく、このレベルで修正する方法があり、私はそれに興味があります。 私の意見では、解決策は、似たような回答ポイントで葉をグループ化し、グループの平均要約結果をさらに変換することです...。 Maxim Dmitrievsky 2023.12.27 00:19 #33592 Aleksey Vyazmikin #:まあ、私自身はモデルの反応をクラス脱落の確率とは関連付けず、クラス検出に対するモデルの自信として受け止めています。信頼度は葉に基づいており、葉はトレーニングサンプルに基づいています。ここでは、1つのリーフがクラス脱落の確率を示します。各葉はサンプルのすべてのポイントで応答を持っているわけではないので、確率の合計がモデルの最終的な応答で歪んでいることがわかります。おそらく、このレベルで修正する方法があるのでしょう - そして私はそれに興味があります - それが私が議論を変えようとした方向です。私の意見では、解決策は、似たような回答ポイントで葉をグループ分けし、グループの平均的な要約結果をさらに変換することです......。 申し訳ないが、図書館やノート、論文の参照がなければ、私はまだおおよそ次のように受け止めている。 Aleksey Vyazmikin 2023.12.27 00:33 #33593 Maxim Dmitrievsky #:申し訳ないが、図書館やノート、記事へのリンクがなければ、私はまだ大まかにこのように受け止めている。 え、必要なのはパッケージだけ...。 Maxim Dmitrievsky 2023.12.27 00:40 #33594 Aleksey Vyazmikin #:バッグがあればいいのに。 任意の 分類器をCV法でキャリブレーションした後、すぐにこのモデルの可能性を見ることができる。何の能力もない場合、この手順の後、確率は0.5付近に集まる。それ以前は自信過剰でしたが。このようなモデルをこれ以上いじってもまったく意味がない。改善することはできない。つまり、普通にキャリブレーションすることさえできない。便利なものだ。 あなたの言う「量子カット」、つまり、利益が出る可能性のある範囲やビンは存在しない。 Maxim Dmitrievsky 2023.12.27 01:18 #33595 さて、最後にこの話題を終わります。シグモイドキャリブレーションをmetacにエクスポートすることに成功しました。 与えられたもの:再トレーニングされた勾配ブースティング、そしてこの状態にキャリブレーションされたもの: しきい値0.5では、すべてが明らかで、OOSがどこにあるかわかります: しきい値0.5を実行し、最適化を停止します: いろいろなバリエーションが得られるが、しきい値0.75-0.85がベスト。しきい値0.5では通常のバリエーションはありませんが、新しいデータでは少しアウトです。 なかなか楽しいおもちゃだ。 Aleksey Vyazmikin 2023.12.27 11:27 #33596 Maxim Dmitrievsky #:CV法を用いて任意の 分類器を校正した後、そのモデルの可能性をすぐに見ることができる。もしそのモデルが何の能力も持っていなければ、この手順の後、確率は0.5の周りに固まる。それ以前は過信していたが。このようなモデルをさらにいじっても、まったく意味がない。改善することはできない。つまり、普通にキャリブレーションすることさえできない。便利なものだ。あなたの言葉を借りれば、「量子カット」は一つもなく、利益が出る可能性のある範囲やビンは一つもない。 モデルスクリーニングを自動化できるのであれば、それはもう良いことです。 私は、0.05のステップで確率信頼度指数によってモデルを視覚化し、そこですべてを一度に見ることができます。主なものは、トレーニングサンプルや他のサンプルでの結果の変換です。そこでは確率が忍び寄り、それが私が非代表性について話している理由です。それが、私が「非代表性」について話している理由です。ですから私は、今回のケースではキャリブレーションは有効な手段ではないと見ています。あなたのモデルに強いサンプル間バイアスがないとすれば、それはむしろ驚くべきことです。 また、訓練不足のモデルは、狭い範囲の確率を出すことに注意してください。 普通に訓練されたモデルは、多くの場合、確信度の高いゾーンに正確に存在します。だからこそ、分類しきい値ではなく、ウィンドウを設定することが意味を持つのです。両端では、モデルは信頼できるが、しばしばオブザベーションがとても少ないので、統計的有意性は小さい. Maxim Dmitrievsky 2023.12.27 13:11 #33597 まだ手付かずの状態のうちに、最大限に活用してください。誰もあなたの言っていることを理解していない。すっ飛んでくるし、手紙に手紙は残さない。 Renat Akhtyamov 2023.12.28 19:10 #33598 MoDの諸君! その価値はあるか? 私のアルゴリズムを取り上げる - 総合討論 - MQL5 Механика рынка и Машинное Обучение (ИИ). - Заняться моим алгоритмом. 2023.12.26www.mql5.com вероятно компилятор с оптимизацией на си быстрее проги на асемблере. Не уверен вообще что это заработок оптимальным образом. Это оптимальный метод дешифровки биржевого позволяет четко описать механику изменения цены Valeriy Yastremskiy 2023.12.29 20:27 #33599 Maxim Dmitrievsky #: まだ手付かずの状態のうちに、最大限に活用しましょう。 。 筋金入りのM.O.S.が急襲する、彼らは手紙に手紙を残さない。 さあ)))))あけましておめでとうございます))) 真実は変わらない))) Maxim Dmitrievsky 2023.12.29 21:59 #33600 Valeriy Yastremskiy #:うん、いいね))))あけましておめでとうございます))))真実は変わらない))))) このような年、一般的に私たちの周りの世界では幸せではなく、誰かがそれを喜んでいる。乾杯:新しい年にモナドがひっくり返りますように。そして、それを可能にする人々に。 1...335333543355335633573358335933603361336233633364336533663367...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
私は全くキャンペーンをしていない。アプローチはいくらでもある。質問はMOの知識についてだった
まあ、私自身はモデルの答えをクラスが脱落する確率とは関連付けておらず、クラス定義に対するモデルの信頼度として受け取っている。信頼度は葉っぱでカウントされ、葉っぱはトレーニングサンプルでカウントされます。ここでは、1つのリーフがクラス脱落の確率を示す。各葉はサンプルのすべてのポイントで応答を持っているわけではないので、確率の合計がモデルの最終的な応答で歪んでいることがわかります。おそらく、このレベルで修正する方法があり、私はそれに興味があります。
私の意見では、解決策は、似たような回答ポイントで葉をグループ化し、グループの平均要約結果をさらに変換することです...。
まあ、私自身はモデルの反応をクラス脱落の確率とは関連付けず、クラス検出に対するモデルの自信として受け止めています。信頼度は葉に基づいており、葉はトレーニングサンプルに基づいています。ここでは、1つのリーフがクラス脱落の確率を示します。各葉はサンプルのすべてのポイントで応答を持っているわけではないので、確率の合計がモデルの最終的な応答で歪んでいることがわかります。おそらく、このレベルで修正する方法があるのでしょう - そして私はそれに興味があります - それが私が議論を変えようとした方向です。
私の意見では、解決策は、似たような回答ポイントで葉をグループ分けし、グループの平均的な要約結果をさらに変換することです......。
申し訳ないが、図書館やノート、論文の参照がなければ、私はまだおおよそ次のように受け止めている。
申し訳ないが、図書館やノート、記事へのリンクがなければ、私はまだ大まかにこのように受け止めている。
え、必要なのはパッケージだけ...。
バッグがあればいいのに。
任意の 分類器をCV法でキャリブレーションした後、すぐにこのモデルの可能性を見ることができる。何の能力もない場合、この手順の後、確率は0.5付近に集まる。それ以前は自信過剰でしたが。このようなモデルをこれ以上いじってもまったく意味がない。改善することはできない。つまり、普通にキャリブレーションすることさえできない。便利なものだ。
あなたの言う「量子カット」、つまり、利益が出る可能性のある範囲やビンは存在しない。
さて、最後にこの話題を終わります。シグモイドキャリブレーションをmetacにエクスポートすることに成功しました。
与えられたもの:再トレーニングされた勾配ブースティング、そしてこの状態にキャリブレーションされたもの:
しきい値0.5では、すべてが明らかで、OOSがどこにあるかわかります:
しきい値0.5を実行し、最適化を停止します:
いろいろなバリエーションが得られるが、しきい値0.75-0.85がベスト。しきい値0.5では通常のバリエーションはありませんが、新しいデータでは少しアウトです。
なかなか楽しいおもちゃだ。
CV法を用いて任意の 分類器を校正した後、そのモデルの可能性をすぐに見ることができる。もしそのモデルが何の能力も持っていなければ、この手順の後、確率は0.5の周りに固まる。それ以前は過信していたが。このようなモデルをさらにいじっても、まったく意味がない。改善することはできない。つまり、普通にキャリブレーションすることさえできない。便利なものだ。
あなたの言葉を借りれば、「量子カット」は一つもなく、利益が出る可能性のある範囲やビンは一つもない。
モデルスクリーニングを自動化できるのであれば、それはもう良いことです。
私は、0.05のステップで確率信頼度指数によってモデルを視覚化し、そこですべてを一度に見ることができます。主なものは、トレーニングサンプルや他のサンプルでの結果の変換です。そこでは確率が忍び寄り、それが私が非代表性について話している理由です。それが、私が「非代表性」について話している理由です。ですから私は、今回のケースではキャリブレーションは有効な手段ではないと見ています。あなたのモデルに強いサンプル間バイアスがないとすれば、それはむしろ驚くべきことです。
また、訓練不足のモデルは、狭い範囲の確率を出すことに注意してください。
普通に訓練されたモデルは、多くの場合、確信度の高いゾーンに正確に存在します。だからこそ、分類しきい値ではなく、ウィンドウを設定することが意味を持つのです。両端では、モデルは信頼できるが、しばしばオブザベーションがとても少ないので、統計的有意性は小さい.
MoDの諸君!
その価値はあるか?
私のアルゴリズムを取り上げる - 総合討論 - MQL5
まだ手付かずの状態のうちに、最大限に活用しましょう。 。
さあ)))))あけましておめでとうございます)))
真実は変わらない)))
うん、いいね))))あけましておめでとうございます))))
真実は変わらない)))))