記事についてのディスカッション - ページ 4

 
Valeriy Yastremskiy:

重複していても、かなり複雑なトピックであることに変わりはないので、異なるトピックの説明は的を射ているだろう))))。

そして、質問はほとんどない。ここでも、マキシムが部分的な記憶喪失でトリックを見せたときでさえも :))

 
Rorschach:

おかしいな、こんなに期待値が低いなら、テスター用のグレイルだと思ったんだけど。セイバーのカスタムシンボルで動かしてみたけど、ほとんど同じ結果だった。

17年もチェックしましたが、同じようなアップトレンドがあり、消耗しています。

そんなラッキーな歴史があるのか、過去何年分もそんな絵が描けるのか。テストでは負けてるけど、あそこは全然違う相場だった。

4つのスコをチェックした。面白いのは、シャープが3以上って見たことないんだけど、そんなのあるの?

質問の意味がよくわからない。トレーニングの成果なのか?

新しいデータに対する一般化が問題なんだ。

セイバーのデータについて - 私が理解する限り、すべての通貨ペアが適しているわけではなく、彼は最適化を行う、つまりモデルを見直す。

純粋に理論的には...ランダムにサンプリングし、長い時間再トレーニングすれば、良いモデルを見つけることができる。実際には、X2 oos +-を得た。つまり、新しいデータでは、時間的にtrainevalidと同じくらい働いた。時にはもう少し。

それはクラウドのどこかでそれを行うことが望ましいですが、ラップトップはそれを許可していません

 
Maxim Dmitrievsky:

質問の意味がよくわからない。それは良いトレーニングなのでしょうか? いずれについても。

それは問題ない。問題なのは新しいデータに対する一般化だ。

セイバーのデータについて - 私が理解する限り、すべての通貨ペアが適しているわけではなく、彼は最適化を行っている。

純粋に理論的には...ランダムにサンプリングし、長い時間再トレーニングすれば、良いモデルを見つけることができる。実際には、X2 oos +-を得た。つまり、新しいデータでは、時間的にはtrainevalidと同じくらい働いた。時にはもう少し。

それはクラウドのどこかでそれを行うことが望ましいですが、ラップトップはそれを許可していません

用語がよくわからないが、TCのパラメーターを ランダム化し、実行し、TCの結果に対して最適なパラメーターセットの領域を見つけようとする。それが最適化だ。そこにモデルはない。NSにはMOを使ったモデルがある。

 
Valeriy Yastremskiy:

私が理解できないのは、TCのパラメーターを ランダムに設定し、実行し、TCの結果に対して最適なパラメーターセットの領域を見つけようとすることだ。それが最適化だ。モデルはない。NSにはMOを使ったモデルがある。

パラメーターのセットを持つTSはモデルである。

 
Aleksey Vyazmikin:

マキシムが部分的な記憶喪失のトリックを見せたときもそうだった。)

どんな記憶喪失ですか?

 
elibrarius:

その記憶喪失は何なんだ?

ここでは、ラベルバインディングで過去の動きの記憶を作成する:

最後のステップは、look_back depthによってオフセットされた行を持つ追加の列を作成することである。これは、モデルに追加の(遅延された、遅れた)特徴を追加することを意味する。

さらに混合を行う:

Разобьём данные на два датасета равной длины, предварительно случайно перемешав обучающие примеры.

ミキシングが均一で あると仮定すると、これはトレーニングにおいてサンプルの半分について過去と現在の帰国者に関する列情報を得たことを意味する。この方法でボラティリティをフィットさせることが可能な比較的小さな期間では、市場に関する知識があるためうまくいきますが、市場が大きく変化するとすぐに - モデルは機能しなくなります。ここでは、一般的なパターンを特定したというよりも、単なる記憶効果に過ぎないと私には思えた。マキシム、もし違う認識をしているなら、訂正してほしい。

 
Aleksey Vyazmikin:

ここでは、タグにバインドすることで、過去の動きを記憶している:

さらにミキシング:

ミキシングが一様であると仮定すると、トレーニングではサンプルの半分の列で過去と現在のリターンに関する情報を得たことになる。この方法でボラティリティを当てはめることが可能な比較的小さな期間では、市場に関する知識があるためうまくいくが、市場が大きく変化するとすぐに - モデルは機能しなくなる。ここでは、一般的なパターンを特定したというよりも、単なる記憶効果に過ぎないと私には思えた。マキシム、もし違う見方をしているなら、訂正してくれ。

符号そのものを見れば系列相関(自己相関)があり、ラベルを見れば同じことだ。系列相関は誤ったモデル推定、誤ったトレーニングにつながる。粗雑な例としては(そうでないかもしれないが)、ボラティリティのオーバートレーニングがある。シャッフルは直列性を少し崩す原始的な方法であり、訓練とテストをシャッフルすることは、両セットのデータのバランスを少しとることになる。この問題は、このような原始的な方法ではなく、もっと真剣に取り組む必要がある。これは別の、かなり大きなトピックなので。
 
Maxim Dmitrievsky:
特徴量そのものを見れば系列相関(自己相関)があり、ラベルを見れば同じことが言える。系列相関は誤ったモデル推定、誤ったトレーニングにつながる。粗雑な例としては(そうでないかもしれないが)、ボラティリティのオーバートレーニングがある。シャッフルは直列性を少し崩す原始的な方法であり、訓練とテストをシャッフルすることは、両セットのデータのバランスを少しとることである。この問題は、このような原始的な方法ではなく、もっと真剣に扱う必要がある。これは別の、かなり大きなトピックなので。

サンプルの類似性に基づいてサンプルを混合することが可能かどうかという疑問が解決されれば、興味深い記事になるだろう。

私の理解では、サンプルが似ていれば可能だが、大きく異なれば不可能だ。我々の場合、変化するマーケットを相手にしているので、そうなると混合可能かどうかは時間間隔によって決まってくるわけですが......。2つのサンプルの混合可否の理論の検証を伴う、2つのサンプルの類似性を評価する具体的な数値基準を示してほしい。反省のための情報 です。

 
Aleksey Vyazmikin:

ここでは、タグにバインドすることで、過去の動きを記憶している:

さらにミキシング:

ミキシングが一様であると仮定すると、トレーニングではサンプルの半分の列で過去と現在のリターンに関する情報を得たことになる。この方法でボラティリティを当てはめることが可能な比較的小さな期間では、市場に関する知識があるためうまくいくが、市場が大きく変化するとすぐにモデルは機能しなくなる。ここでは、一般的なパターンを特定したというよりも、単なる記憶効果に過ぎないと私には思えた。マキシム、もし違う認識をしているなら、訂正してほしい。

スライディング・ウィンドウの内側でN刻みするだけです。
Maxim Dmitrievsky:
符号そのものを見れば、系列相関(自己相関)があり、ラベルを見れば同じことが言える。系列相関はモデルの誤った推定、誤ったトレーニングにつながります。粗雑な例として(あるいはそうでないかもしれないが)、ボラティリティのオーバートレーニングがある。シャッフルは 直列性を少し崩す原始的な方法であり、訓練とテストをシャッフルすることは、両セットのデータのバランスを少しとることになる。この問題は、このような原始的な方法ではなく、もっと真剣に扱う必要がある。これは別の、かなり大きなトピックだからだ。
列車セットを混合しても、ツリー・モデルには何の変化もない。ツリーは各列をソートする。混合したデータと混合していないデータをソートした結果は同じである.
上に書いたように,訓練とテストを混合する必要はないと私は思う.
 
elibrarius:
これは単にスライディング・ウィンドウの中のN個の増分である。列車セットをシャッフルしても、ツリーには何の変化もない
分かっている。