トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2052

 
マキシム・ドミトリエフスキー

バカでないことは明らかです。 テストは簡単なものですが、おそらく時代遅れでしょう。

イディオクラシー』のようになると、また複雑な展開になりそうです))

 
ロールシャッハ

イディオクラシー』のようになったら、これまた大変なことになります))

私の知人や地元の同業者で、成功しない人はたくさんいます。

 
Aleksey Vyazmikin:

バー以上の予測が出るのであれば、それだけでは判断できないので、MAとあまり変わらない。一方、収益については、この想定されるMAからの乖離に関心がある。

を、どこまでも。

今朝、テスターでrnnをいじっていたら、インクリメントでリトレインしているんですね。電車の中では良いが、テスターではダメだ。

森より良い結果が出ないのであれば必要ない)ちなみにキャットバストはもっと面白い絵を見せることができます。一般的には、カッコいいのですが、やはり何の役にも立ちません。
 

Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。

ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。


そして、ほぼ同じことをキャットバストで行うと、より良い結果が得られるということを少しおさらいしておきます。


 
マキシム・ドミトリエフスキー

Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。

ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。


そして、キャットバストとほぼ同じ働きをすることで、より良い結果が得られることを少し振り返ってみましょう。


アクセラレーションにNumbaは使わないんですか?

 
ロールシャッハ

Numbaを使って高速化しないのですか?

ループ自体はなくても速いので、今のところ必要ないですね。

可能であれば、ベクトル化はどこでも、そこではすべてが高速である

Z.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくともメトリックをねじ込む必要がある。今頃気がつきました。そのため、あまり良い結果にはならないことがほとんどです。

招待状はオズから来たのでしょうか? もしかしたら他の方法があるかもしれませんので、聞いてみなければなりませんね。
 
マキシム・ドミトリエフスキー

ループ自体はなくてもすぐに動くので、今のところ必要ありません。

可能であれば、あらゆるところでベクトル化することで、すべてが高速になります。

Z.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくとも精度の指標をねじ込まなければならない。今頃になって気がついたのですがこのため、結果はあまりよくない、ということがほとんどです。

他の方法があるかもしれないので、聞いてみないとわからない。

numpyの配列はpythonのリストよりも計算に時間がかかることが時々あります。また、コードを関数にラップすると高速化されることにも気づきました。

まだ到着していないので、次にNSを訪れるのはいつになるかわからない。

 
ロールシャッハ

Pythonのリストよりもnumpyの配列の方が評価時間が長いと感じることがあります。また、コードを関数にラップすると高速化されることにも気づきました。

まだ手をつけていないんだ、ちょっと急いでないんだ、次のNSの走行がいつになるかわからないから。

というのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。

ナンパイはプラスが飛ぶように、小さなオーバーヘッドで
 
マキシム・ドミトリエフスキー

というのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。

プラスのようなナンパイは、少しオーバーキル気味に飛ばすといい。

そう、ループでやるならね。

ヌンバは500回とか数えたけど、正確じゃないな。このコードを関数に入れ、そこに@njitを入れる必要があります。ベクタライズは@njitの速度で動くので、gpuをあてにする場合のみ、いじる意味がない。しかし、GPUはさらに厄介で、関数内で配列を宣言できないし、ループのないコードでないと非常に長くなってしまいます。
 

そして、同じデータでcatbustを学習させた結果がこれです(5秒)。

52: learn: 0.7964708test: 0.7848837 best: 0.7860866 (27) total: 604ms remaining: 5.09s

ソースデータセット

学習済みモデル(トレード後半はテストサンプル)。


もちろん、サンプリング(しかもランダム、つまりオーバーサンプリングが必要)によっては、必ずしもそうなるとは限りません。時にはこんな風に。

34: learn: 0.5985972test: 0.5915832 best: 0.5927856 (9) total: 437ms remaining: 5.81s



理由: