トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2809

 
Valeriy Yastremskiy #:

リブはデータ型を考慮しないのか?データ型は最も安い計算のためのデータのようなものだ。同じマトリックスが計算用に設計されているはずだ。

Rのためのnumpyの類似は見つかっていないし、そこでの行列はそれほど高速ではないし、R自体がそのパラダイムのために多くのメモリを消費する。

もちろん、サードパーティのライブラリは遅いかもしれない。

何を比較すればいいのか分からないので、速度を比較するためにギガバイトのデータセットをロードしたくありません。
 
Алексей Тарабанов #:

とんでもない。

補強のトレーニングも?
 
mytarmailS #:
強化学習は?

topkstarterはhubrでDQNに関する論文をRで書いている。

強化学習はトリッキーな最適化に過ぎないことを理解すべきだ。

うまくいく場合もあれば、うまくいかない場合もある。

 
Maxim Dmitrievsky #:

R用のnumpyアナログが見つかりません。

..
スピードが必要ならデータテーブル、データフレームの高速アナログならtibble、大量のデータなら大きな行列。

 
mytarmailS #:
..
スピードならデータテーブル、データフレームの高速アナログならタイブル、大量のデータならビッグマトリックス。

Alexeyの苦しみを和らげたかったんだ)確かに最初からその方が簡単なんだけど...それでもね。

 
Maxim Dmitrievsky #:

トピックスターターがRのハブにDQNの記事を書いた。

強化学習は巧妙に設計された最適化に過ぎないことを理解すべきである。

場合によってはうまくいくかもしれないし、うまくいかないかもしれない。

記憶に関する質問だが...
RLでは、行動行列と状態または行動評価行列を永遠に更新することができる。でも、それが正しいかどうかはわからない。
 
mytarmailS #:
さて、メモリーの質問の文脈で。
RLでは行動行列と状態評価行列、あるいは行動評価行列を永遠に更新することができる。でも、それが正しいかどうかはわからない。

新しいデータに対して状態を調整することはできるけど、それはすべてマシュカのようなレベル、つまりタイムラグがある。

それよりも、基本的には報酬やターゲットを選ぶことが重要なんだ。そしてトレードを様々な方向に投げかけ、反復するたびにどんどん良くなっていく。

 
Maxim Dmitrievsky #:

アレクセイの苦しみを和らげたかったんだ。

アレクセイが考えたり聞いたりしようと思えば、私の脚本なら2分で終わるのだが...。
 
Maxim Dmitrievsky #:

新しいデータに合わせて状態を調整することができるが、それはすべてレベルかマシュカのようなものだ。

要するに報酬、つまりターゲットを選択することの方が重要なんだ。そして、その取引は自らさまざまな方向に投げかけられ、反復のたびにどんどん良くなっていくだろう

メモリは重みを学習したNSで、各ステップでそれを訓練し、重みを少しずつ動かす......あまり動かさない、それがラグがある理由だ。

だからラグが発生するんだ。

 
Maxim Dmitrievsky #:

メモリはNSで、ウエイトをトレーニングし、各ステップで再トレーニングし、ウエイトを少し移動させる。

.
訓練されたネットワークや、訓練されたAMO、あるいはマシュカはメモリーだ。 そう、その例えは受け入れられるだろう...。

でも、訓練されたニューラルネットワークを "再訓練 "するときは、重みを変え、過去を忘れ、現在を優先する......。

スライディング・ウィンドウの中にいるマシュカのように、スライディング・ウィンドウの外のことは覚えていない。
理由: