トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 391

 
Dr.トレーダー

これはReshetovのRNNという確率モデルにあります。

そして、ミハイルが使っているjPredictorです。レシェトフのニューロン、入力が多い、勾配降下の代わりに何らかの学習がある。


アルグリブからNSの最初の投稿の問題を解決しようとした。ネットワークは20勝5敗1分。成功しました。しかし、非常に長い、あなたは約2秒のソリューションを持っています。私の計算では平均10~20分、1サイクルから2分でバリアントがありますが、どうも偶然につまずくようで、20サイクルの学習を設定しないと信頼できないようです...。または、以下のバリアントのように100000回の反復処理

アラート:学習(60.0%)区間の平均誤差 =0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
アラート:検証(20.0%)区間の平均誤差 =0.0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
警告:テスト時の平均誤差(20.0%)区間 =0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2

計算時間=22.30分
0 sum weight=3.2260
1 sum weight=0.0000
2 sum weight=3.2258
3 sum weight=0.0000
4 sum weight=8.7035
5 sum weight=0.0000
6 sum weight=3.2253
7 sum weight=0.0000
8 sum weight=3.2258
9 sum weight=0.0000。0000
10 sum weight=3.2251
11 sum weight=0.0000
12 sum weight=0.0000
13 sum weight=0.0000
14 sum weight=0.0000
15 sum weight=0.0000
16 sum weight=0.0000
17 sum weight=0.0000
18 sum weight=0.0000
19 sum weight=0.0000。

もっと早くしたい...。
入力が20個ではなく、200個の場合は、数十時間になります。
出力と相関の低いものや他の入力と相関の高いものを選別すると、重要な入力が取り除かれる。また、Fisherの LDAを試しても、重要な入力が取り除かれる。だから、こういう方法でふるいにかけても、何の役にも立たないし、逆に邪魔になるんです。

どうやら、すべての入力を一度に処理し、重みの和で入力をふるいにかけ、将来使用するモデルを得るという長い解法が残っているようです。その後、切り捨てた入力数で週に一度など再トレーニングを行う。

私は、スピードアップのために、このタスクをMS Azureに与えて、入力の重みの合計を取得し、それを私のモデルで使用することを考えていました。ちょっと実験してみましたが、どこから重さを取っているのかがわかりません...。

 
その通りだ、兄弟よ!!!そうです、レゾリュートのオプティマイザーを使っているのです。そこで、GPUで計算を実行したいと思います。そんなことをしたことがある人がいるのだろうか。JPredictionは並列化されているので、GPU上でプログラムを走らせればいいだけです。JAVAプログラムをGPUで動かす方法をご存知の方はいらっしゃいますか?役に立つ知識は...と思います。
 
ミハイル・マルキュカイツ
そうだ、兄弟!!!!私はレゾリュートのオプティマイザーを使っています。そこで、GPUで計算を実行したいと思います。誰がこんなことするんだ?JPredictionは並列化されているので、GPU上でプログラムを走らせればいいだけです。JAVAプログラムをGPUで動かす方法をご存知の方はいらっしゃいますか?役に立つ知識は...と思います。

動作するバージョンへのリンクと説明をお願いします。
 
ミハイル・マルキュカイツ
みなさん、こんにちは!!!!このスレッドが枯れずに生きているのが嬉しいので、一般の方に質問させてください。学習用のデータセットがあるのですが、残念ながら大きくなりすぎてしまい、学習に時間がかかりすぎています。誰か自作でモデルを作って、一緒に見てくれないかな~!!?
それに対して、あなたのセットは111機能、452点と非常に小さいものです。しかし、データが正しければ(ターゲティングはチップと混同しない)、3-4%の利点があります(精度 - 53.5%)、大規模な投資ファンドや銀行、中期的な取引では、これは十分ですが、巨大なレバレッジと数千ドルのデポとイントレードではもちろんそうではありません。
 
アリョーシャ
3~4%のアドバンテージがある(精度-53.5%)。
どの機種をどのような構成で使用されたのでしょうか?なぜ、これはランダムな結果ではないと判断したかというと、このデータセットに納得がいかないからです。
 
アリョーシャ
それに対して、あなたのセットは111機能、452点と非常に小さいものです。しかし、データが賢明に収集されている場合(ターゲティングはチップと混同されない)、3〜4%の利点があります(精度 - 53.5%)、大規模な投資ファンドや銀行の場合、中期的な取引は十分ですが、巨大なレバレッジと数千ドルのデポとイントレードはもちろんそうではありません。

イントラデイでもシグナルより50pips良くエントリーすれば十分だと思います。シグナルより50pips良く入れば十分だと思います。スプレッド以上の収入が得られる
 
マキシム・ドミトリエフスキー

動作するバージョンへのリンクと説明をお願いします。

意味は?JPredictionへのリンク?
 
アリョーシャ
それに対して、あなたのセットは111機能、452点と非常に小さいものです。しかし、データが賢明に収集されている場合(ターゲティングはチップと混同されません)、3〜4%の利点があります(精度 - 53.5%)、大規模な投資ファンドや銀行のために、中期的な取引は十分である場合、巨大なレバレッジと数千ドルのデポと日中のためにもちろんそうではありませんが。

小ささがわからない。3ヶ月で先物取引まるまる1回分みたいなものですね。問題は別のところにある。ネットワークに入ってない週があと2週あるんです。そこで、モデルを作って、このサンプルで動かしてみようと思ったのです。しかし、JPredictionの場合、トレーニングに何週間もかかるので、これは良くない。だからこそ、他のアルゴリズムを使ってモデルを取得し、その効果を確かめたいと思ったのです。
 
繰り返しになるが、このセットは分類用である。つまり、出力変数にはすでに予測値が含まれている。レジリエントモデルを使う場合、出力変数を予測する必要はなく、出力はすでに未来にあるのだから、それにモデルをプロキシングすればよいのです。正しく理解していただければ、それだけです。
 

もうひとつは、プログラムをGPUで動かして、計算速度を少なくとも10~20倍は上げることです。ここに進歩があるだろうと思うのですが...。でも、インターネットに載っている情報はとても古くて、どうすればいいのかわからない。私はプログラミングがあまり得意ではありません。私はチキンです :-)

この騒ぎの背景には、次のような考え方がある。どのアルゴリズムを使うかは関係ない(嘘、もちろん重要ですが。重要なのは、データの種類、収集方法、トレーニングの準備です。これを確認したかったのです。集めたデータの中に、本当に魚がいるのかどうかを確かめたかったのです。以下はその一例です。

理由: