トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1545 1...153815391540154115421543154415451546154715481549155015511552...3399 新しいコメント Грааль 2019.09.28 13:23 #15441 mytarmailS: 増加のサインではなく、例えば次のジグザグ膝の値段とか、もっと良いものを予測するようにします。 というように、分類ではなく回帰を使うべきですが、回帰は一歩先ではなく、極限を探すものです。 きっと、嬉しい驚きがあると思いますよ。 残念ながら奇跡は起きず、価格(極値など)のような集計変数は全く予測できず、まあ杖をつくよりもずっと良くない(つまり何もしない)し、相対的なもの(極値からの価格偏差)は増分と同じくらい悪いのです。 mytarmailS 2019.09.28 14:38 #15442 ザ・グレイル 残念ながら、奇跡は起こらない。価格(極値など)のような集約的な変数はまったく予測できないし、まあ、杖(=何もしない)を使うよりはずっとましだが、相対的な変数(極値からの価格偏差)は増分と同じくらいひどい出来である。 これだけは言える、例えば次の1時間で最も重要なものとなる極限は、ローソク足の値よりも、ローソク足の色よりも、ジグザグの方向よりも、予測しやすいのである。 少なくとも、私にとってはそうであり、合理的な説明がつくのです。 Aleksey Vyazmikin 2019.09.28 19:29 #15443 マキシム・ドミトリエフスキー: python tester, liba - いろいろなものがあります。他のことについては......今、別のパラメータでレースをしていますが、熱意はなくなり、森の中と同じオーバーフィットですどこにトラックがあり、どこにテストがあるのか、一目瞭然です。つまり、要するに何も変わっていない、キャットバストが有利になったわけではないのです。後でlstmを試してみます。 オーバートレーニングだと思うのであれば、もっと早くツリーの生成を止めればいいのですが、案件の数から判断するとアンダートレーニングの可能性が高いですね...。 PrecisionとRecallのサンプルを変えてみると、どのような結果が得られるでしょうか? トレーニングダイナミクスと私のデータを比較してみるのも面白いかもしれませんね。 ところで、CatBoostから 葉っぱを取ってみることにしたのですが、その中で良いものが見つかるかどうか、ブーストの考え方自体がそれを想定していないのか、どうなんでしょう? Aleksey Vyazmikin 2019.09.28 19:30 #15444 mytarmailS: ローソク足の値やローソク足の色、ジグザグの方向などよりも、例えば今後1時間の間に最も大きな影響を与えるであろう極値を予測する方が簡単だということです。 少なくとも、私にとってはそうであり、合理的な理由があるのです。 最も重要な極限値」とはどういう意味ですか。重要かどうか、後でどのように確認するのですか。 これらを合理的に説明するものは何か、なかなか興味深い。 Maxim Dmitrievsky 2019.09.28 20:13 #15445 アレクセイ・ヴャジミキン オーバートレーニングだと思うなら、もっと早くツリーの生成を止めればいいのですが、トレード数から判断するとアンダートレーニングの可能性が高いですね...。 PrecisionとRecallのサンプルを変えてみると、どのような結果が得られるでしょうか? それを試して、トレーニングダイナミクスと私のデータを比較するのは興味深いことです。 ところで、CatBoostから木の葉を抜いてみることにしたのですが、その中から良いものが見つかるかどうか、ブーストの思想自体がそれを示唆しないのですが、いかがでしょうか? 弱い汎化という意味での過学習。この問題を回避する方法はすでに上に書きましたが、もっとエレガントなアプローチもあるはずです。 電車の品質+検証で問題なし。 Sergey Chalyshev 2019.09.28 20:42 #15446 皆さん、先生の力を借りてネットワークを鍛えようとしているんですね。 リカバリーファクターなど、目標とする機能でトレーニングしようとした人はいますか? Forester 2019.09.28 20:43 #15447 アレクセイ Vyazmikin: CatBoostの木の葉を得るために - 私はそれらの間の良い標本があるかどうかわからない、またはブーストの思想はそれを示唆していないと思いますか? いいえ、そんなことはありません。XGBoostの 最初の木は、ラフなモデルである。他のすべての木は、最初の木を微小な係数で修正します。あそこは個人では何もできない、全体でいい結果を出すしかないんです。 キャットバストでは、どうやら基本原理は同じで、独自の特殊性があるようです。 Forester 2019.09.28 20:53 #15448 マキシム・ドミトリエフスキー 他のことはともかく、今はパラメータを変えてレースに臨んでいますが、熱意はなくなり、森と同じオーバーフィットです そのため、どこにトラックがあり、どこにテストがあるかが一目瞭然です。つまり、実は何も変わっていない、カトビュストはメリットを与えなかった。 明らかにMQL+Python+Catbustのセットでシステムを複雑化させる意味がないのです。そして、アルジブフォレストで規則性を探ります。 パターンがあるなら、ネコババのように99%ではなく、90%で森に覚えさせればいいのです。それを見つけて、パーセンテージを追いかけるのが本筋です。現時点では、どちらも50%程度です。 Sergey Chalyshev 2019.09.28 20:57 #15449 この森で、みんな大自然の中に入ってしまったようです。 と、助けなしに出ることは不可能です )))) Maxim Dmitrievsky 2019.09.28 20:59 #15450 エリブラリウス どうやらMQL+Python+Catbustでシステムを複雑化する意味はないようです。そして、アルギバの森との規則性を探すこと。 関係があるなら、キャットバストのように99%ではなく、90%は森に教えてもらいましょう。それを見つけて、パーセンテージを追いかけるのが主な仕事です。今のところ、どちらも50%前後です。 比較するものがなければ、何も理解できない。 1...153815391540154115421543154415451546154715481549155015511552...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
増加のサインではなく、例えば次のジグザグ膝の値段とか、もっと良いものを予測するようにします。 というように、分類ではなく回帰を使うべきですが、回帰は一歩先ではなく、極限を探すものです。 きっと、嬉しい驚きがあると思いますよ。
残念ながら奇跡は起きず、価格(極値など)のような集計変数は全く予測できず、まあ杖をつくよりもずっと良くない(つまり何もしない)し、相対的なもの(極値からの価格偏差)は増分と同じくらい悪いのです。
残念ながら、奇跡は起こらない。価格(極値など)のような集約的な変数はまったく予測できないし、まあ、杖(=何もしない)を使うよりはずっとましだが、相対的な変数(極値からの価格偏差)は増分と同じくらいひどい出来である。
これだけは言える、例えば次の1時間で最も重要なものとなる極限は、ローソク足の値よりも、ローソク足の色よりも、ジグザグの方向よりも、予測しやすいのである。
少なくとも、私にとってはそうであり、合理的な説明がつくのです。
python tester, liba - いろいろなものがあります。
他のことについては......今、別のパラメータでレースをしていますが、熱意はなくなり、森の中と同じオーバーフィットです
どこにトラックがあり、どこにテストがあるのか、一目瞭然です。つまり、要するに何も変わっていない、キャットバストが有利になったわけではないのです。
後でlstmを試してみます。
オーバートレーニングだと思うのであれば、もっと早くツリーの生成を止めればいいのですが、案件の数から判断するとアンダートレーニングの可能性が高いですね...。
PrecisionとRecallのサンプルを変えてみると、どのような結果が得られるでしょうか?
トレーニングダイナミクスと私のデータを比較してみるのも面白いかもしれませんね。
ところで、CatBoostから 葉っぱを取ってみることにしたのですが、その中で良いものが見つかるかどうか、ブーストの考え方自体がそれを想定していないのか、どうなんでしょう?
ローソク足の値やローソク足の色、ジグザグの方向などよりも、例えば今後1時間の間に最も大きな影響を与えるであろう極値を予測する方が簡単だということです。
少なくとも、私にとってはそうであり、合理的な理由があるのです。
最も重要な極限値」とはどういう意味ですか。重要かどうか、後でどのように確認するのですか。
これらを合理的に説明するものは何か、なかなか興味深い。
オーバートレーニングだと思うなら、もっと早くツリーの生成を止めればいいのですが、トレード数から判断するとアンダートレーニングの可能性が高いですね...。
PrecisionとRecallのサンプルを変えてみると、どのような結果が得られるでしょうか?
それを試して、トレーニングダイナミクスと私のデータを比較するのは興味深いことです。
ところで、CatBoostから木の葉を抜いてみることにしたのですが、その中から良いものが見つかるかどうか、ブーストの思想自体がそれを示唆しないのですが、いかがでしょうか?
弱い汎化という意味での過学習。この問題を回避する方法はすでに上に書きましたが、もっとエレガントなアプローチもあるはずです。
電車の品質+検証で問題なし。
皆さん、先生の力を借りてネットワークを鍛えようとしているんですね。
リカバリーファクターなど、目標とする機能でトレーニングしようとした人はいますか?
CatBoostの木の葉を得るために - 私はそれらの間の良い標本があるかどうかわからない、またはブーストの思想はそれを示唆していないと思いますか?
いいえ、そんなことはありません。
XGBoostの 最初の木は、ラフなモデルである。他のすべての木は、最初の木を微小な係数で修正します。あそこは個人では何もできない、全体でいい結果を出すしかないんです。キャットバストでは、どうやら基本原理は同じで、独自の特殊性があるようです。
他のことはともかく、今はパラメータを変えてレースに臨んでいますが、熱意はなくなり、森と同じオーバーフィットです
そのため、どこにトラックがあり、どこにテストがあるかが一目瞭然です。つまり、実は何も変わっていない、カトビュストはメリットを与えなかった。
明らかにMQL+Python+Catbustのセットでシステムを複雑化させる意味がないのです。そして、アルジブフォレストで規則性を探ります。
パターンがあるなら、ネコババのように99%ではなく、90%で森に覚えさせればいいのです。それを見つけて、パーセンテージを追いかけるのが本筋です。現時点では、どちらも50%程度です。
この森で、みんな大自然の中に入ってしまったようです。
と、助けなしに出ることは不可能です ))))
どうやらMQL+Python+Catbustでシステムを複雑化する意味はないようです。そして、アルギバの森との規則性を探すこと。
関係があるなら、キャットバストのように99%ではなく、90%は森に教えてもらいましょう。それを見つけて、パーセンテージを追いかけるのが主な仕事です。今のところ、どちらも50%前後です。
比較するものがなければ、何も理解できない。