トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2052 1...204520462047204820492050205120522053205420552056205720582059...3399 新しいコメント Rorschach 2020.10.27 14:11 #20511 マキシム・ドミトリエフスキー: バカでないことは明らかです。 テストは簡単なものですが、おそらく時代遅れでしょう。 イディオクラシー』のようになると、また複雑な展開になりそうです)) Maxim Dmitrievsky 2020.10.27 14:27 #20512 ロールシャッハ: イディオクラシー』のようになったら、これまた大変なことになります)) 私の知人や地元の同業者で、成功しない人はたくさんいます。 Maxim Dmitrievsky 2020.10.27 14:30 #20513 Aleksey Vyazmikin: バー以上の予測が出るのであれば、それだけでは判断できないので、MAとあまり変わらない。一方、収益については、この想定されるMAからの乖離に関心がある。を、どこまでも。今朝、テスターでrnnをいじっていたら、インクリメントでリトレインしているんですね。電車の中では良いが、テスターではダメだ。 森より良い結果が出ないのであれば必要ない)ちなみにキャットバストはもっと面白い絵を見せることができます。一般的には、カッコいいのですが、やはり何の役にも立ちません。 Maxim Dmitrievsky 2020.10.27 17:11 #20514 Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。 ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。 そして、ほぼ同じことをキャットバストで行うと、より良い結果が得られるということを少しおさらいしておきます。 Rorschach 2020.10.27 17:50 #20515 マキシム・ドミトリエフスキー: Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。そして、キャットバストとほぼ同じ働きをすることで、より良い結果が得られることを少し振り返ってみましょう。 アクセラレーションにNumbaは使わないんですか? Maxim Dmitrievsky 2020.10.27 17:53 #20516 ロールシャッハ: Numbaを使って高速化しないのですか?ループ自体はなくても速いので、今のところ必要ないですね。可能であれば、ベクトル化はどこでも、そこではすべてが高速であるZ.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくともメトリックをねじ込む必要がある。今頃気がつきました。そのため、あまり良い結果にはならないことがほとんどです。 招待状はオズから来たのでしょうか? もしかしたら他の方法があるかもしれませんので、聞いてみなければなりませんね。 Rorschach 2020.10.27 17:58 #20517 マキシム・ドミトリエフスキー: ループ自体はなくてもすぐに動くので、今のところ必要ありません。可能であれば、あらゆるところでベクトル化することで、すべてが高速になります。Z.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくとも精度の指標をねじ込まなければならない。今頃になって気がついたのですがこのため、結果はあまりよくない、ということがほとんどです。 他の方法があるかもしれないので、聞いてみないとわからない。 numpyの配列はpythonのリストよりも計算に時間がかかることが時々あります。また、コードを関数にラップすると高速化されることにも気づきました。 まだ到着していないので、次にNSを訪れるのはいつになるかわからない。 Maxim Dmitrievsky 2020.10.27 18:06 #20518 ロールシャッハ: Pythonのリストよりもnumpyの配列の方が評価時間が長いと感じることがあります。また、コードを関数にラップすると高速化されることにも気づきました。まだ手をつけていないんだ、ちょっと急いでないんだ、次のNSの走行がいつになるかわからないから。というのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。 ナンパイはプラスが飛ぶように、小さなオーバーヘッドで Rorschach 2020.10.27 18:07 #20519 マキシム・ドミトリエフスキー: というのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。プラスのようなナンパイは、少しオーバーキル気味に飛ばすといい。そう、ループでやるならね。 ヌンバは500回とか数えたけど、正確じゃないな。このコードを関数に入れ、そこに@njitを入れる必要があります。ベクタライズは@njitの速度で動くので、gpuをあてにする場合のみ、いじる意味がない。しかし、GPUはさらに厄介で、関数内で配列を宣言できないし、ループのないコードでないと非常に長くなってしまいます。 Maxim Dmitrievsky 2020.10.29 06:26 #20520 そして、同じデータでcatbustを学習させた結果がこれです(5秒)。 52: learn: 0.7964708test: 0.7848837 best: 0.7860866 (27) total: 604ms remaining: 5.09s ソースデータセット 学習済みモデル(トレード後半はテストサンプル)。 もちろん、サンプリング(しかもランダム、つまりオーバーサンプリングが必要)によっては、必ずしもそうなるとは限りません。時にはこんな風に。 34: learn: 0.5985972test: 0.5915832 best: 0.5927856 (9) total: 437ms remaining: 5.81s 1...204520462047204820492050205120522053205420552056205720582059...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
バカでないことは明らかです。 テストは簡単なものですが、おそらく時代遅れでしょう。
イディオクラシー』のようになると、また複雑な展開になりそうです))
イディオクラシー』のようになったら、これまた大変なことになります))
私の知人や地元の同業者で、成功しない人はたくさんいます。
バー以上の予測が出るのであれば、それだけでは判断できないので、MAとあまり変わらない。一方、収益については、この想定されるMAからの乖離に関心がある。
を、どこまでも。
今朝、テスターでrnnをいじっていたら、インクリメントでリトレインしているんですね。電車の中では良いが、テスターではダメだ。
森より良い結果が出ないのであれば必要ない)ちなみにキャットバストはもっと面白い絵を見せることができます。一般的には、カッコいいのですが、やはり何の役にも立ちません。Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。
ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。
そして、ほぼ同じことをキャットバストで行うと、より良い結果が得られるということを少しおさらいしておきます。
Neural Network Porn...RNN(GRU)について、結論ありきのパート2を近日中にアップします。
ч.2.映像の最後にある通常テスト。それ以前に、まともにトレーニングしたいわけがない。
そして、キャットバストとほぼ同じ働きをすることで、より良い結果が得られることを少し振り返ってみましょう。
アクセラレーションにNumbaは使わないんですか?
Numbaを使って高速化しないのですか?
ループ自体はなくても速いので、今のところ必要ないですね。
可能であれば、ベクトル化はどこでも、そこではすべてが高速である
Z.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくともメトリックをねじ込む必要がある。今頃気がつきました。そのため、あまり良い結果にはならないことがほとんどです。
招待状はオズから来たのでしょうか? もしかしたら他の方法があるかもしれませんので、聞いてみなければなりませんね。ループ自体はなくてもすぐに動くので、今のところ必要ありません。
可能であれば、あらゆるところでベクトル化することで、すべてが高速になります。
Z.I.の明らかな欠点 - loglossやクロスエントロピで教えることはできない、少なくとも精度の指標をねじ込まなければならない。今頃になって気がついたのですがこのため、結果はあまりよくない、ということがほとんどです。
他の方法があるかもしれないので、聞いてみないとわからない。numpyの配列はpythonのリストよりも計算に時間がかかることが時々あります。また、コードを関数にラップすると高速化されることにも気づきました。
まだ到着していないので、次にNSを訪れるのはいつになるかわからない。
Pythonのリストよりもnumpyの配列の方が評価時間が長いと感じることがあります。また、コードを関数にラップすると高速化されることにも気づきました。
まだ手をつけていないんだ、ちょっと急いでないんだ、次のNSの走行がいつになるかわからないから。
というのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。
ナンパイはプラスが飛ぶように、小さなオーバーヘッドでというのは変ですね。おそらく、ベクトル単位ではなく、要素単位でカウントしているのでしょう。
プラスのようなナンパイは、少しオーバーキル気味に飛ばすといい。
そう、ループでやるならね。
ヌンバは500回とか数えたけど、正確じゃないな。このコードを関数に入れ、そこに@njitを入れる必要があります。ベクタライズは@njitの速度で動くので、gpuをあてにする場合のみ、いじる意味がない。しかし、GPUはさらに厄介で、関数内で配列を宣言できないし、ループのないコードでないと非常に長くなってしまいます。そして、同じデータでcatbustを学習させた結果がこれです(5秒)。
52: learn: 0.7964708test: 0.7848837 best: 0.7860866 (27) total: 604ms remaining: 5.09s
ソースデータセット
学習済みモデル(トレード後半はテストサンプル)。
もちろん、サンプリング(しかもランダム、つまりオーバーサンプリングが必要)によっては、必ずしもそうなるとは限りません。時にはこんな風に。
34: learn: 0.5985972test: 0.5915832 best: 0.5927856 (9) total: 437ms remaining: 5.81s