トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1255 1...124812491250125112521253125412551256125712581259126012611262...3399 新しいコメント Yuriy Asaulenko 2019.01.09 16:56 #12541 マキシム・ドミトリエフスキーもし市場が多少なりとも安定していて、トレンドか何かがあれば、少なくとも私にとっては今回はうまくいくでしょう...パターンは同じなのですから、なぜダメなのでしょうか? 学習曲線はボタン1つで済むように単純化しましたし、予測機能も必要ありません。まあ、そもそも予想屋に迷惑かけてないんだけどね。ワンボタンでは試しませんでしたが。1つのボタンでは、プロファイルのみで同じ最適化しかできません。どうやってワンボタンで回避しているのかは謎です)。 削除済み 2019.01.09 16:58 #12542 ユーリイ・アサウレンコまあ、そもそも予想屋に迷惑かけてないんだけどね。でも、ワンボタンで試したこともないんです。プロファイルだけ同じ最適化以外、ボタン1つで何もできないんだけど。どうやってワンボタンで回避しているのかは謎です)。テストサンプルでベストな誤差を探したい、ただそれだけです オプティマイザー・オプティマイザー・アハ Yuriy Asaulenko 2019.01.09 17:06 #12543 マキシム・ドミトリエフスキーモンテカルロ法で、テストサンプルの中から最適な誤差を探す、それだけです。モンテカルロなしではやっていけない(笑)しかし、ベストなエラーはそう簡単には出ない。最適というのは、いろいろな要素が絡み合って曖昧なもので、何が最適なのか、自明とは言い難い。 削除済み 2019.01.09 17:08 #12544 ユーリイ・アサウレンコモンテカルロなしにはありえない(笑)。しかも、最高のエラーでそう簡単にはいきません。最適とは多因子で曖昧なものであり、何が最適なのかは自明とは言い難い。なるほど、最適が明らかでシステムが少なくとも永遠に儲かるような周期方程式ならなんでもいいんですね(笑)。 市場に最適なものはなく、ローカルなものしかない 削除済み 2019.01.11 10:57 #12545 Aleksei Kuznetsov 2019.01.12 21:33 #12546 木で理論を読み解く。 剪定(せんてい)を考えています。 木を作り、誤差が大きくならないような枝を切り落とすか、サブツリーに置き換えるという単純なルールが可能です。 少なくともある値、例えば0.1〜0.5%の誤差を減らす分割を見つけない限り、葉を剪定せずに木を作る方が簡単で速いのかもしれませんね? 結果は同じで、より速くなるはずです。 それとも、0.0001%のモデル改良をしたブランチを何本か作った後に、一気に1~5%改良するものが見つかるのでしょうか? Aleksei Kuznetsov 2019.01.13 08:26 #12547 マキシム・ドミトリエフスキー: どれくらい速くなったかというと、すでにとても速いです。そして、ブーストを自作するんでしょう?ベイズ法は遅いし、大きなサンプルには向かないが、仕組みが違うので、いきなり再教育することはない。各モデルには、それぞれの仕様があります。ベイズは、再トレーニングなしでTCを最適化できる素晴らしいパワーを持っていますね。良い視点 - 再教育ではなく、バージョンアップが可能である。 200~1000個の予測子で100万個の文字列があるとしたら、長い時間でしょうね...。 剪定は、最後まで木を作り込んでから剪定する必要があります。 また、minエラー改善による分岐の停止で、同様の結果で大幅な節約になると思います。xgboostの パラメータはgammaと呼ばれるものですが、枝刈りはないようです。どうやら開発者も、これらを互換性のあるものと判断したようです。 削除済み 2019.01.13 08:29 #12548 エリブラリウス まあ、200~1000の予測因子で100万分の1行なら、長い方でしょうけど...。 そして剪定。最後まで木を作り込んでから剪定するのです。 また、minエラー改善による分岐の停止で、同様の結果で大幅な節約になると思います。xgboostのパラメータはガンマと呼ばれるものですが、プルーニングはないように思います。どうやら開発者も、これらを互換性のあるものと判断したようです。ブーストの専門家がチームを組んで、テストをしています。 キャットバストは問題ないようです、速いし、そもそも木が浅いので FXの数百万のデータ...なくてもいい Aleksei Kuznetsov 2019.01.13 08:36 #12549 ちなみに、1回目の分割でほとんど誤差が改善されず、2回目の分割で100%改善される状況を思いつきました。 4セクター、各10点。x軸またはy軸のどちらかに1分割。ほとんど改善されず、50%前後の誤差のままです。例えば、最初に縦に真ん中で割る。水平方向の真ん中で2回目の分割を行うと、非常に強い誤差の改善(50%からゼロへ)が得られます。 しかし、これは人為的に作られた状況であり、人生ではありえないことです。 削除済み 2019.01.13 08:36 #12550 サンプルサイズは決して大きくはありません。Nが小さすぎて十分に正確な推定値が得られない場合は、より多くのデータを取得する(またはより多くの仮定をする)必要があります。しかし、Nが「十分に大きい」と、データを細分化して、より詳しく知ることができるようになります(例えば、世論調査で、国全体の推定値が決まれば、男性と女性、北部の人と南部の人、異なる年齢層などの間で推定することができるようになります)。Nで足りるわけがない。もし「足りる」なら、もっとデータが必要な次の問題にもう取りかかっているはずだからだ。 1...124812491250125112521253125412551256125712581259126012611262...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
もし市場が多少なりとも安定していて、トレンドか何かがあれば、少なくとも私にとっては今回はうまくいくでしょう...パターンは同じなのですから、なぜダメなのでしょうか?
学習曲線はボタン1つで済むように単純化しましたし、予測機能も必要ありません。
まあ、そもそも予想屋に迷惑かけてないんだけどね。ワンボタンでは試しませんでしたが。1つのボタンでは、プロファイルのみで同じ最適化しかできません。どうやってワンボタンで回避しているのかは謎です)。
まあ、そもそも予想屋に迷惑かけてないんだけどね。でも、ワンボタンで試したこともないんです。プロファイルだけ同じ最適化以外、ボタン1つで何もできないんだけど。どうやってワンボタンで回避しているのかは謎です)。
テストサンプルでベストな誤差を探したい、ただそれだけです
オプティマイザー・オプティマイザー・アハモンテカルロ法で、テストサンプルの中から最適な誤差を探す、それだけです。
モンテカルロなしではやっていけない(笑)しかし、ベストなエラーはそう簡単には出ない。最適というのは、いろいろな要素が絡み合って曖昧なもので、何が最適なのか、自明とは言い難い。
モンテカルロなしにはありえない(笑)。しかも、最高のエラーでそう簡単にはいきません。最適とは多因子で曖昧なものであり、何が最適なのかは自明とは言い難い。
なるほど、最適が明らかでシステムが少なくとも永遠に儲かるような周期方程式ならなんでもいいんですね(笑)。
市場に最適なものはなく、ローカルなものしかない
木で理論を読み解く。
剪定(せんてい)を考えています。
少なくともある値、例えば0.1〜0.5%の誤差を減らす分割を見つけない限り、葉を剪定せずに木を作る方が簡単で速いのかもしれませんね?
結果は同じで、より速くなるはずです。
それとも、0.0001%のモデル改良をしたブランチを何本か作った後に、一気に1~5%改良するものが見つかるのでしょうか?
どれくらい速くなったかというと、すでにとても速いです。
そして、ブーストを自作するんでしょう?
ベイズ法は遅いし、大きなサンプルには向かないが、仕組みが違うので、いきなり再教育することはない。各モデルには、それぞれの仕様があります。ベイズは、再トレーニングなしでTCを最適化できる素晴らしいパワーを持っていますね。
良い視点 - 再教育ではなく、バージョンアップが可能である。
剪定は、最後まで木を作り込んでから剪定する必要があります。
また、minエラー改善による分岐の停止で、同様の結果で大幅な節約になると思います。xgboostの パラメータはgammaと呼ばれるものですが、枝刈りはないようです。どうやら開発者も、これらを互換性のあるものと判断したようです。
まあ、200~1000の予測因子で100万分の1行なら、長い方でしょうけど...。
そして剪定。最後まで木を作り込んでから剪定するのです。
また、minエラー改善による分岐の停止で、同様の結果で大幅な節約になると思います。xgboostのパラメータはガンマと呼ばれるものですが、プルーニングはないように思います。どうやら開発者も、これらを互換性のあるものと判断したようです。
ブーストの専門家がチームを組んで、テストをしています。
キャットバストは問題ないようです、速いし、そもそも木が浅いので
FXの数百万のデータ...なくてもいい
4セクター、各10点。x軸またはy軸のどちらかに1分割。ほとんど改善されず、50%前後の誤差のままです。例えば、最初に縦に真ん中で割る。水平方向の真ん中で2回目の分割を行うと、非常に強い誤差の改善(50%からゼロへ)が得られます。
しかし、これは人為的に作られた状況であり、人生ではありえないことです。