トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3287

 
Forester #:


そして、列車区間のサイズに強く依存している。例えば、20000行では前方に何かが見つかりますが、5000行や100000行ではランダムです。

もし "何か "が見つかったとして、通常トレーニング以外でのその寿命はどのくらいなのでしょうか?

 
Maxim Dmitrievsky #:
😀

四角の意味もわからない。おそらくリンゴの人が書いていることだろう :)

 
Aleksey Vyazmikin #:

もし "何か "が見つかったとしたら、その寿命は通常指導以外ではどのくらいなのだろうか?

週に一度、モデルを再トレーニングしているだけです。もっと長生きするかもしれない。しかし、それ以下かもしれないし、サンサニッチのように小節ごとに再トレーニングする必要があるかもしれない(もしH1なら、原理的には可能だ)。
私の場合、スピード的には週1回が許容範囲-260回の再トレーニングで約5年経過。
 
Aleksey Vyazmikin #:

我々は、トレーニングの成功はサンプルサイズに依存するという暫定的な結論を下すことができる。しかし、"-1p1-2 "サンプルの結果は"-1p2-3 "サンプルと同等であり、いくつかの基準ではより良いものである一方、"0p1-2 "サンプルの結果は、与えられた基準を満たすモデルの数という点で、2倍悪いということに注意してください。

今、私は年代を反転させたサンプルを実行しました。trainサンプルは最初のexamination+test+train_p3サンプルで構成され、testサンプルはtrain_p2、examinationはtrain_p1 です。 目標は、10年前ならうまくいったであろうモデルを、より最近のデータでうまく構築できるかどうかを確認することである。

結果はどうなると思いますか?

結果は表の最後の列にあります。

偏らないようにコメントしよう。一方では、サンプルの年代を変えることによって、主要な基準である適切なモデルの数による結果が大幅に悪化したと言えますが、他方では、そのようなモデルが見つかったという事実そのものが、データに何らかの安定したパターンがあることを示しています。それともランダムなのだろうか?そう、もちろん、他のサンプルを取って同様の研究を行う必要がある。そうして初めて、より確信を持って結論を出すことができる。今のところ、これは熟考するための情報に過ぎない。

客観的に見れば、データはたくさんある。私は通常、時系列コースに匹敵するとはいえ、トレーニングには小さいサンプルの倍数を使う。どの実験でもRecall率が悲しいほど高い。私は、誰もこのことに注目していないことに驚いている。一般的に、固定テイクアウトとストップが使用されていない場合、標準的な指標は、財務結果を示すのに不十分であると繰り返し言うことができます。

もし他に何かアイデアや希望があれば、ここ(サンプル・プロット)を何かと組み合わせてみてください。

 
Forester #:
週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)。私の場合、スピード的には週1回が許容範囲であり、260回の再トレーニングで約5年が経過する。

このような再トレーニングの集計結果は?

 
Aleksey Vyazmikin #:

このような再教育の総体としての結果はどうだろうか?

私が昨年示したグラフはすべてこの方法で得られたものだ。ヴァルキングフォワードによるOOSのみ。
 
Andrey Dik #:

マックス、なぜ僕をからかうのか理解できないよ。

仮定がないのなら何も言うな。仮定があるのなら、"結果は最悪になる "とか言ってくれ。

面白ければ笑えばいいし、悲しければ泣けばいい。

アレクセイ・ヴャズミキンがここで議論していることは、提案を引き起こすことはできないし、「クソだ-クソじゃない」という評価は不可能だ。

例えば、ある男が現れて言う:

- 月に鉄を送ろう。

私たちは驚いた顔をする。

そして男は言う:

- 鉄の温度を変えて、水の量を変えてみましょう。

仮定がなければ黙って、仮定があれば「クソみたいな結果になるだろう」と声を 上げる。

レクゼイ・ヴャズミキンがやって いることは、MoDの問題とは何の関係 もない。彼はあるオペラを引き合いに出し、別のオペラから答えを引き出そうとしている。頭の中が混乱している男の空虚なおしゃべりだ。

 
Forester #:
私が昨年示したグラフはすべてこの方法で得られたものだ。Valking ForwardによるOOSのみ。

写真から判断すると、Recallも低い。つまり、このモデルは何に対してもほとんど自信を持っておらず、予測には非常に慎重である。

 
Forester #:
週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)
私の場合、週1回ならスピード的には許容範囲だ。

私はここで1つの根本的な問題を発見した。それは次のような形で現れます:1つの大きなファイルから断片を取り出し、それを教え、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行すると、結果は根本的に異なり、通常は壊滅的なものとなる。

すべてのステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題はなくなります。

そして、もしすべてのステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか?

 
СанСаныч Фоменко #:

、ークでークではークではークではークではークではークではークではークではークスタッフのークスのークスのークスのークスタッフのークスタッフそれは次のような形で現れる。1つの大きなファイルの断片を取り出し、それを研究し、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行するやいなや、結果は根本的に異なり、通常は壊滅的なものとなる。

各ステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題は解消される。

そして、もし各ステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか?

あなたが持っているこのピークはどこにありますか?

I read it a couple of times and didn't see the logic behind the words.

彼らは問題を発明し、そしてそれを英雄的に解決する。

理由: