ベイズ回帰 - このアルゴリズムを使ってEAを作った方はいらっしゃいますか? - ページ 41 1...343536373839404142434445464748...55 新しいコメント Alexey Burnakov 2016.03.11 15:30 #401 Vizard_: そうやって少しずつ、変換という魅力的なテーマにたどり着いたのです)))正規分布がなければ、作ればいいのですから。 再変換と...両方が必要なので、時間がかかります。そして、箱○はあまり好きではありません))))がないと残念なことになります。 ただ、良い予想屋がいないと、最終的にあまり効果がないのが残念ですが...。まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな差をつけることができるのです。 СанСаныч Фоменко 2016.03.11 15:50 #402 Alexey Burnakov:まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな影響を与える可能性があるのです。シックテイル用のリグレッションがあり、メモリFARIMAから。しかし、増分の大きさに話を戻します。何を取引しているのか?前のバーに対して1時方向に7pipsの増量?よく理解できていない。どなたか教えてください。増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。 TheXpert 2016.03.11 15:57 #403 誰か真剣に入力を検討してほしいものです ) Alexey Burnakov 2016.03.11 16:06 #404 СанСаныч Фоменко:シックテイル用のリグレッションがあり、メモリFARIMAから。しかし、増分の大きさに話を戻します。何を取引しているのか?前のバーと比較して、時間マーカーで7ピップスの増分?よく理解できていない。どなたか教えてください。増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。 また、インクリメントでなければ、何を取引するのですか? Alexey Burnakov 2016.03.11 16:19 #405 Комбинатор: 誰か真剣に入力データの検討をしてほしいものです )と思ったんです。マジで )まず、思いつく限りのインプットを生成する。そして、特定のターゲット変数に最も関連性の高いものを選び、残りはゴミ箱に捨てます。効果はあるようですが、トレーニング方法にもよりますね。私が行った実験では、次のようなことをしました。まず、システムが見るべき情報は何かを考えました。でも、それはあくまで主観的な話。また、トレーニング前に情報量の多いプレディクターを選びましたが、うまくいきました。train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))] test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))] input_eval <- gbm(train_set[, 109] ~ . , data = train_set[, 1:108] , distribution = "laplace" , n.trees = 100 , interaction.depth = 10 , n.minobsinnode = 100 , bag.fraction = 0.9 , shrinkage = 0.01 , verbose = T , n.cores = 4) best_inputs <- as.character(summary(input_eval)[[1]][1:10]) train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))] test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]コメントします。まず、利用可能なすべての予測因子を使って、再トレーニングではない弱いモデルでトレーニングを行いました。モデルが再学習する時間がないことが重要です。そして、重要なものから上位10位までを選びました。これによって、結果がノイズにならないだけでなく、学習速度も10倍になった。そういう見方もあるんですね。 СанСаныч Фоменко 2016.03.11 17:18 #406 Alexey Burnakov: インクリメントでなければ、何を取引するのですか?ロングとショートが注目されるトレンド。端末での注文:買い、売り。 СанСаныч Фоменко 2016.03.11 17:26 #407 Комбинатор: 誰か真剣に入力データの検討をしてほしいものです )そういえば、分類モデル用のノイズ予測器から入力予測器セットをクリーンアップするサービスも有料で提供していますね。これにより、過学習のモデルを生成しないセットを残すことができる。True, We should clarify: If anything remains.逆説的ですが、トレンドトレードには、多種多様なマッシュアップはすべて絶望的です。その中で、私が加工したセットもあります。元の予測変数のリストを3~5倍に減らす。これにより、将来的に対応可能な20~25の予測項目が残りますこの予測変数のセットから、すべてのバーについて、Rの標準的な手段でいくつかのサブセットを選択します。10-15個の予測変数が残っており、それに基づいてモデルが学習されます。予測変数の最後の選択が,ウィンドウに等しいおおよその小節 数にならないことが可能であるが,ウィンドウが100以内であること結果:モデルは再トレーニングされない。すなわち、トレーニング、AOB、サンプル外での分類誤差はほぼ等しい。 Dmitry Fedoseev 2016.03.11 17:35 #408 男、正常・正常のコーンの 子供たちは一部です。 Дмитрий 2016.03.11 17:37 #409 2つのスレッドが同じことを議論している - モデル用の予測変数の選択 Alexey Burnakov 2016.03.11 17:41 #410 СанСаныч Фоменко:ロングとショートが注目されるトレンド。端末での注文:買い、売り。これは同じだ!増加分が+または-記号になった。そして、このサインは1時間先の刻みで取ることができます。質問は何ですか? 1...343536373839404142434445464748...55 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そうやって少しずつ、変換という魅力的なテーマにたどり着いたのです)))正規分布がなければ、作ればいいのですから。
再変換と...両方が必要なので、時間がかかります。そして、箱○はあまり好きではありません))))がないと残念なことになります。
ただ、良い予想屋がいないと、最終的にあまり効果がないのが残念ですが...。
まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな差をつけることができるのです。
まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな影響を与える可能性があるのです。
シックテイル用のリグレッションがあり、メモリFARIMAから。
しかし、増分の大きさに話を戻します。
何を取引しているのか?前のバーに対して1時方向に7pipsの増量?よく理解できていない。どなたか教えてください。
増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。
シックテイル用のリグレッションがあり、メモリFARIMAから。
しかし、増分の大きさに話を戻します。
何を取引しているのか?前のバーと比較して、時間マーカーで7ピップスの増分?よく理解できていない。どなたか教えてください。
増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。
誰か真剣に入力データの検討をしてほしいものです )
と思ったんです。マジで )
まず、思いつく限りのインプットを生成する。そして、特定のターゲット変数に最も関連性の高いものを選び、残りはゴミ箱に捨てます。効果はあるようですが、トレーニング方法にもよりますね。
私が行った実験では、次のようなことをしました。まず、システムが見るべき情報は何かを考えました。でも、それはあくまで主観的な話。また、トレーニング前に情報量の多いプレディクターを選びましたが、うまくいきました。
コメントします。まず、利用可能なすべての予測因子を使って、再トレーニングではない弱いモデルでトレーニングを行いました。モデルが再学習する時間がないことが重要です。そして、重要なものから上位10位までを選びました。
これによって、結果がノイズにならないだけでなく、学習速度も10倍になった。
そういう見方もあるんですね。
インクリメントでなければ、何を取引するのですか?
ロングとショートが注目されるトレンド。
端末での注文:買い、売り。
誰か真剣に入力データの検討をしてほしいものです )
そういえば、分類モデル用のノイズ予測器から入力予測器セットをクリーンアップするサービスも有料で提供していますね。これにより、過学習のモデルを生成しないセットを残すことができる。True, We should clarify: If anything remains.逆説的ですが、トレンドトレードには、多種多様なマッシュアップはすべて絶望的です。
その中で、私が加工したセットもあります。
これにより、将来的に対応可能な20~25の予測項目が残ります
結果:モデルは再トレーニングされない。すなわち、トレーニング、AOB、サンプル外での分類誤差はほぼ等しい。
ロングとショートが注目されるトレンド。
端末での注文:買い、売り。
これは同じだ!増加分が+または-記号になった。そして、このサインは1時間先の刻みで取ることができます。
質問は何ですか?