ベイズ回帰 - このアルゴリズムを使ってEAを作った方はいらっしゃいますか? - ページ 41

 
Vizard_:
そうやって少しずつ、変換という魅力的なテーマにたどり着いたのです)))正規分布がなければ、作ればいいのですから。
再変換と...両方が必要なので、時間がかかります。そして、箱○はあまり好きではありません))))がないと残念なことになります。
ただ、良い予想屋がいないと、最終的にあまり効果がないのが残念ですが...。

まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな差をつけることができるのです。

 
Alexey Burnakov:

まずは「信仰者」の目に、理解の光明を見出したいものです。そして、必要であれば変換する。太いテールが変換できるかどうか、それが問題です。品質に大きな影響を与える可能性があるのです。

シックテイル用のリグレッションがあり、メモリFARIMAから。

しかし、増分の大きさに話を戻します。

何を取引しているのか?前のバーに対して1時方向に7pipsの増量?よく理解できていない。どなたか教えてください。

増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。

 
誰か真剣に入力を検討してほしいものです )
 
СанСаныч Фоменко:

シックテイル用のリグレッションがあり、メモリFARIMAから。

しかし、増分の大きさに話を戻します。

何を取引しているのか?前のバーと比較して、時間マーカーで7ピップスの増分?よく理解できていない。どなたか教えてください。

増分は、より正確には、ボラティリティを取引することができますが、いくつかの定常シリーズに相対的な - それは共同継ぎと呼ばれています。

また、インクリメントでなければ、何を取引するのですか?
 
Комбинатор:
誰か真剣に入力データの検討をしてほしいものです )

と思ったんです。マジで )

まず、思いつく限りのインプットを生成する。そして、特定のターゲット変数に最も関連性の高いものを選び、残りはゴミ箱に捨てます。効果はあるようですが、トレーニング方法にもよりますね。

私が行った実験では、次のようなことをしました。まず、システムが見るべき情報は何かを考えました。でも、それはあくまで主観的な話。また、トレーニング前に情報量の多いプレディクターを選びましたが、うまくいきました。

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

コメントします。まず、利用可能なすべての予測因子を使って、再トレーニングではない弱いモデルでトレーニングを行いました。モデルが再学習する時間がないことが重要です。そして、重要なものから上位10位までを選びました。

これによって、結果がノイズにならないだけでなく、学習速度も10倍になった。

そういう見方もあるんですね。

 
Alexey Burnakov:
インクリメントでなければ、何を取引するのですか?

ロングとショートが注目されるトレンド。

端末での注文:買い、売り。

 
Комбинатор:
誰か真剣に入力データの検討をしてほしいものです )

そういえば、分類モデル用のノイズ予測器から入力予測器セットをクリーンアップするサービスも有料で提供していますね。これにより、過学習のモデルを生成しないセットを残すことができる。True, We should clarify: If anything remains.逆説的ですが、トレンドトレードには、多種多様なマッシュアップはすべて絶望的です。

その中で、私が加工したセットもあります。

  • 元の予測変数のリストを3~5倍に減らす。

これにより、将来的に対応可能な20~25の予測項目が残ります

  • この予測変数のセットから、すべてのバーについて、Rの標準的な手段でいくつかのサブセットを選択します。
  • 10-15個の予測変数が残っており、それに基づいてモデルが学習されます。
  • 予測変数の最後の選択が,ウィンドウに等しいおおよその小節 数にならないことが可能であるが,ウィンドウが100以内であること

結果:モデルは再トレーニングされない。すなわち、トレーニング、AOB、サンプル外での分類誤差はほぼ等しい。

 
男、正常・正常のコーンの 子供たちは一部です。
 
2つのスレッドが同じことを議論している - モデル用の予測変数の選択
 
СанСаныч Фоменко:

ロングとショートが注目されるトレンド。

端末での注文:買い、売り。

これは同じだ!増加分が+または-記号になった。そして、このサインは1時間先の刻みで取ることができます。

質問は何ですか?