トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2107 1...210021012102210321042105210621072108210921102111211221132114...3399 新しいコメント Aleksey Vyazmikin 2020.11.11 21:33 #21061 elibrarius: こうでなくっちゃね。NSクラスによるバランス取りが必要。木はそのままでもなんとかなる。 まあ、いつもそうとは限りませんが......前にも書きましたね。 Aleksey Vyazmikin 2020.11.11 21:36 #21062 私の記事で儲かるExpert Advisor(トレーニング手法)を燃やしてしまったようです。 このグラフは、最初のモデルを12ヶ月で訓練し、それに新しい各月の履歴を追加した場合、各月末のモデルの財務結果を示しています - USDRUB_TOMの先物Si 契約を接着します。 Forester 2020.11.11 22:24 #21063 Aleksey Vyazmikin: まあ、いつも対応しているわけではないのですが......前にも書きましたね。 木の深さを増すことも、バランスをとることと同じように効果があると思います。 Forester 2020.11.11 22:35 #21064 Aleksey Vyazmikin: そう、本質的に予測指数にノイズを加えるのです。この場合、量子化の境界で、1の領域が選択される可能性が高くなりますが、考え方によっては、重複を追加しても同じ効果があるはずで、ただ、学習開始前にCatBoostアルゴリズムで重複がカットされると仮定すると(検証が必要)、選択肢としてはありです。 量子化することで、そのノイズを打ち消すことができる可能性が高くなります。ある列が10000種類の値を持つ場合、255量子に量子化すると、1量子に40種類の値の平均が入ることになります。例えば、元々1000の例があったとして、10000の例を得るためにノイズを加え、それを255の量子に量子化する、このノイズを加える作業は不要だと私は考えています。 最近、コードを見たのですが、重複して削除されていませんでした。むしろその逆で、40種類のサンプルから重複を排除して1つの量子に統合しています。 Aleksey Vyazmikin 2020.11.11 22:51 #21065 elibrarius: 木の深さを増すことは、バランスをとることと同じくらい効果的だと思います。 深さも増やしてみてください。また、並行して学習率を下げるとよいでしょう。バランスの悪いサンプルに対する結果も改善されます。 elibrarius: むしろ量子化することで、このノイズを打ち消すことができる。ある列が10000種類の値を持つ場合、255量子化すると、1回の量子化で平均40種類の値が得られる。例えば、元々1000の例があったとして、10000の例を得るためにノイズを加え、それを255の量子に量子化する、このノイズを加える作業は不要だと私は考えています。 そこでは、範囲内のオブジェクトの混在を考慮するなど、さまざまな量子化方法が用いられています。 エリブラリウス最近、コードを見ていたのですが、重複削除は見当たりませんでした。むしろその逆で、40種類の例から1つの量子にまとめて複製しているのです。 量子化(境界設定)の処理をコードで発見された方は、このコードを掲載していただけませんか?そこに機能があるのでは? Maxim Dmitrievsky 2020.11.11 22:53 #21066 奥行き向上と何の関係があるのか 一方のクラスの大きな点群と、もう一方のクラスのいくつかのサンプルを横に並べて(あるいは中に並べて)、決して実行されないようにします。 2つ目のクラスは適正なサイズに肥大化させるか、1つのクラスの分類アルゴリズムを使用する必要がある Aleksey Vyazmikin 2020.11.11 23:02 #21067 マキシム・ドミトリエフスキー: 奥行きの強化は何か関係があるのでしょうか?あるクラスの大きな点群と、別のクラスのいくつかのサンプルで、横から横へ(あるいは内側へ)決して実行されないものがあります。セカンドクラスは、まともなサイズに膨らませる必要がある 深さを増すと、葉の中のサンプル数が少ない部分が強調されます。もうひとつは、ゼロの葉の割合が変わらないことがあり、その場合、その後のツリーで再びそれらのユニットが見えなくなることです。このようなサンプルを学習させると、学習の途中でRecallが0になり、また小さなパーセンテージに戻る様子がよくわかります。 サンプルを渡せば膨らませることができるのでしょうか?もし、この方法がうまくいったら、MT5にどう実装するか考えます。 Maxim Dmitrievsky 2020.11.11 23:04 #21068 Aleksey Vyazmikin: 深さを増すと、葉の中のサンプル数が少ない部分が強調されます。もうひとつは、ゼロの葉の割合が変わらないことがあり、その場合、その後のツリーで再びそれらのユニットが見えなくなることです。このようなサンプルを学習させると、学習の途中でRecallが0になり、また小さなパーセンテージに戻る様子がよくわかります。サンプルを渡せば膨らませることができるのでしょうか?もし、この方法がうまくいったら、MT5にどう実装するか考えます。 はい、できますよ。 葉っぱの話とか、くだらないんですけどね。クラスのバランスが取れていること Aleksey Vyazmikin 2020.11.11 23:25 #21069 マキシム・ドミトリエフスキー: できるよ。葉っぱがどうとか、そんなのデタラメだ。クラスのバランスが取れていること。 サンプルです。3つのパートに分かれていますが、train.csvだけを修正する必要があるということですね? ターゲット列「Target_100」-最後の4列はトレーニングには関係ありません(そこでは日付列に注目するとよいでしょう)-バランスを構築するために必要なものです。 Файл из Облака Mail.ru cloud.mail.ru Облако Mail.ru - это ваше персональное надежное хранилище в интернете. Renat Akhtyamov 2020.11.12 03:01 #21070 Aleksey Vyazmikin: 私の記事で儲かるExpert Advisor(トレーニング手法)を燃やしてしまったようです。このグラフは、最初のモデルを12ヶ月で訓練し、それに新しい各月の履歴を追加した場合、各月末のモデルの財務結果を示しています - USDRUB_TOMの先物Si 契約を糊付けしてください。 同じ角度で収支が上がる または再投資された場合は幾何学的に 1...210021012102210321042105210621072108210921102111211221132114...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
こうでなくっちゃね。NSクラスによるバランス取りが必要。木はそのままでもなんとかなる。
まあ、いつもそうとは限りませんが......前にも書きましたね。
私の記事で儲かるExpert Advisor(トレーニング手法)を燃やしてしまったようです。
このグラフは、最初のモデルを12ヶ月で訓練し、それに新しい各月の履歴を追加した場合、各月末のモデルの財務結果を示しています - USDRUB_TOMの先物Si 契約を接着します。
まあ、いつも対応しているわけではないのですが......前にも書きましたね。
そう、本質的に予測指数にノイズを加えるのです。この場合、量子化の境界で、1の領域が選択される可能性が高くなりますが、考え方によっては、重複を追加しても同じ効果があるはずで、ただ、学習開始前にCatBoostアルゴリズムで重複がカットされると仮定すると(検証が必要)、選択肢としてはありです。
量子化することで、そのノイズを打ち消すことができる可能性が高くなります。ある列が10000種類の値を持つ場合、255量子に量子化すると、1量子に40種類の値の平均が入ることになります。例えば、元々1000の例があったとして、10000の例を得るためにノイズを加え、それを255の量子に量子化する、このノイズを加える作業は不要だと私は考えています。
最近、コードを見たのですが、重複して削除されていませんでした。むしろその逆で、40種類のサンプルから重複を排除して1つの量子に統合しています。
木の深さを増すことは、バランスをとることと同じくらい効果的だと思います。
深さも増やしてみてください。また、並行して学習率を下げるとよいでしょう。バランスの悪いサンプルに対する結果も改善されます。
むしろ量子化することで、このノイズを打ち消すことができる。ある列が10000種類の値を持つ場合、255量子化すると、1回の量子化で平均40種類の値が得られる。例えば、元々1000の例があったとして、10000の例を得るためにノイズを加え、それを255の量子に量子化する、このノイズを加える作業は不要だと私は考えています。
そこでは、範囲内のオブジェクトの混在を考慮するなど、さまざまな量子化方法が用いられています。
最近、コードを見ていたのですが、重複削除は見当たりませんでした。むしろその逆で、40種類の例から1つの量子にまとめて複製しているのです。
量子化(境界設定)の処理をコードで発見された方は、このコードを掲載していただけませんか?そこに機能があるのでは?
奥行き向上と何の関係があるのか
一方のクラスの大きな点群と、もう一方のクラスのいくつかのサンプルを横に並べて(あるいは中に並べて)、決して実行されないようにします。
2つ目のクラスは適正なサイズに肥大化させるか、1つのクラスの分類アルゴリズムを使用する必要がある
奥行きの強化は何か関係があるのでしょうか?
あるクラスの大きな点群と、別のクラスのいくつかのサンプルで、横から横へ(あるいは内側へ)決して実行されないものがあります。
セカンドクラスは、まともなサイズに膨らませる必要がある
深さを増すと、葉の中のサンプル数が少ない部分が強調されます。もうひとつは、ゼロの葉の割合が変わらないことがあり、その場合、その後のツリーで再びそれらのユニットが見えなくなることです。このようなサンプルを学習させると、学習の途中でRecallが0になり、また小さなパーセンテージに戻る様子がよくわかります。
サンプルを渡せば膨らませることができるのでしょうか?もし、この方法がうまくいったら、MT5にどう実装するか考えます。
深さを増すと、葉の中のサンプル数が少ない部分が強調されます。もうひとつは、ゼロの葉の割合が変わらないことがあり、その場合、その後のツリーで再びそれらのユニットが見えなくなることです。このようなサンプルを学習させると、学習の途中でRecallが0になり、また小さなパーセンテージに戻る様子がよくわかります。
サンプルを渡せば膨らませることができるのでしょうか?もし、この方法がうまくいったら、MT5にどう実装するか考えます。
できるよ。葉っぱがどうとか、そんなのデタラメだ。クラスのバランスが取れていること。
サンプルです。3つのパートに分かれていますが、train.csvだけを修正する必要があるということですね?
ターゲット列「Target_100」-最後の4列はトレーニングには関係ありません(そこでは日付列に注目するとよいでしょう)-バランスを構築するために必要なものです。
私の記事で儲かるExpert Advisor(トレーニング手法)を燃やしてしまったようです。
このグラフは、最初のモデルを12ヶ月で訓練し、それに新しい各月の履歴を追加した場合、各月末のモデルの財務結果を示しています - USDRUB_TOMの先物Si 契約を糊付けしてください。
同じ角度で収支が上がる
または再投資された場合は幾何学的に