トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2809 1...280228032804280528062807280828092810281128122813281428152816...3399 新しいコメント Maxim Dmitrievsky 2022.10.31 05:06 #28081 Valeriy Yastremskiy #:リブはデータ型を考慮しないのか?データ型は最も安い計算のためのデータのようなものだ。同じマトリックスが計算用に設計されているはずだ。Rのためのnumpyの類似は見つかっていないし、そこでの行列はそれほど高速ではないし、R自体がそのパラダイムのために多くのメモリを消費する。もちろん、サードパーティのライブラリは遅いかもしれない。 何を比較すればいいのか分からないので、速度を比較するためにギガバイトのデータセットをロードしたくありません。 mytarmailS 2022.10.31 05:11 #28082 Алексей Тарабанов #:とんでもない。 補強のトレーニングも? Maxim Dmitrievsky 2022.10.31 05:13 #28083 mytarmailS #: 強化学習は? topkstarterはhubrでDQNに関する論文をRで書いている。 強化学習はトリッキーな最適化に過ぎないことを理解すべきだ。 うまくいく場合もあれば、うまくいかない場合もある。 mytarmailS 2022.10.31 05:14 #28084 Maxim Dmitrievsky #:R用のnumpyアナログが見つかりません。..スピードが必要ならデータテーブル、データフレームの高速アナログならtibble、大量のデータなら大きな行列。 Maxim Dmitrievsky 2022.10.31 05:16 #28085 mytarmailS #:.. スピードならデータテーブル、データフレームの高速アナログならタイブル、大量のデータならビッグマトリックス。 Alexeyの苦しみを和らげたかったんだ)確かに最初からその方が簡単なんだけど...それでもね。 mytarmailS 2022.10.31 05:17 #28086 Maxim Dmitrievsky #:トピックスターターがRのハブにDQNの記事を書いた。強化学習は巧妙に設計された最適化に過ぎないことを理解すべきである。場合によってはうまくいくかもしれないし、うまくいかないかもしれない。 記憶に関する質問だが...RLでは、行動行列と状態または行動評価行列を永遠に更新することができる。でも、それが正しいかどうかはわからない。 Maxim Dmitrievsky 2022.10.31 05:19 #28087 mytarmailS #: さて、メモリーの質問の文脈で。 RLでは行動行列と状態評価行列、あるいは行動評価行列を永遠に更新することができる。でも、それが正しいかどうかはわからない。 新しいデータに対して状態を調整することはできるけど、それはすべてマシュカのようなレベル、つまりタイムラグがある。 それよりも、基本的には報酬やターゲットを選ぶことが重要なんだ。そしてトレードを様々な方向に投げかけ、反復するたびにどんどん良くなっていく。 mytarmailS 2022.10.31 05:20 #28088 Maxim Dmitrievsky #:アレクセイの苦しみを和らげたかったんだ。 アレクセイが考えたり聞いたりしようと思えば、私の脚本なら2分で終わるのだが...。 Maxim Dmitrievsky 2022.10.31 05:26 #28089 Maxim Dmitrievsky #:新しいデータに合わせて状態を調整することができるが、それはすべてレベルかマシュカのようなものだ。要するに報酬、つまりターゲットを選択することの方が重要なんだ。そして、その取引は自らさまざまな方向に投げかけられ、反復のたびにどんどん良くなっていくだろう メモリは重みを学習したNSで、各ステップでそれを訓練し、重みを少しずつ動かす......あまり動かさない、それがラグがある理由だ。 だからラグが発生するんだ。 mytarmailS 2022.10.31 05:46 #28090 Maxim Dmitrievsky #:メモリはNSで、ウエイトをトレーニングし、各ステップで再トレーニングし、ウエイトを少し移動させる。.訓練されたネットワークや、訓練されたAMO、あるいはマシュカはメモリーだ。 そう、その例えは受け入れられるだろう...。でも、訓練されたニューラルネットワークを "再訓練 "するときは、重みを変え、過去を忘れ、現在を優先する......。スライディング・ウィンドウの中にいるマシュカのように、スライディング・ウィンドウの外のことは覚えていない。 1...280228032804280528062807280828092810281128122813281428152816...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
リブはデータ型を考慮しないのか?データ型は最も安い計算のためのデータのようなものだ。同じマトリックスが計算用に設計されているはずだ。
Rのためのnumpyの類似は見つかっていないし、そこでの行列はそれほど高速ではないし、R自体がそのパラダイムのために多くのメモリを消費する。
もちろん、サードパーティのライブラリは遅いかもしれない。
何を比較すればいいのか分からないので、速度を比較するためにギガバイトのデータセットをロードしたくありません。とんでもない。
強化学習は?
topkstarterはhubrでDQNに関する論文をRで書いている。
強化学習はトリッキーな最適化に過ぎないことを理解すべきだ。
うまくいく場合もあれば、うまくいかない場合もある。
R用のnumpyアナログが見つかりません。
..
Alexeyの苦しみを和らげたかったんだ)確かに最初からその方が簡単なんだけど...それでもね。
トピックスターターがRのハブにDQNの記事を書いた。
強化学習は巧妙に設計された最適化に過ぎないことを理解すべきである。
場合によってはうまくいくかもしれないし、うまくいかないかもしれない。
さて、メモリーの質問の文脈で。
新しいデータに対して状態を調整することはできるけど、それはすべてマシュカのようなレベル、つまりタイムラグがある。
それよりも、基本的には報酬やターゲットを選ぶことが重要なんだ。そしてトレードを様々な方向に投げかけ、反復するたびにどんどん良くなっていく。
アレクセイの苦しみを和らげたかったんだ。
新しいデータに合わせて状態を調整することができるが、それはすべてレベルかマシュカのようなものだ。
要するに報酬、つまりターゲットを選択することの方が重要なんだ。そして、その取引は自らさまざまな方向に投げかけられ、反復のたびにどんどん良くなっていくだろう
メモリは重みを学習したNSで、各ステップでそれを訓練し、重みを少しずつ動かす......あまり動かさない、それがラグがある理由だ。
だからラグが発生するんだ。
メモリはNSで、ウエイトをトレーニングし、各ステップで再トレーニングし、ウエイトを少し移動させる。