トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3287 1...328032813282328332843285328632873288328932903291329232933294...3399 新しいコメント Aleksey Vyazmikin 2023.10.06 13:47 #32861 Forester #: そして、列車区間のサイズに強く依存している。例えば、20000行では前方に何かが見つかりますが、5000行や100000行ではランダムです。 もし "何か "が見つかったとして、通常トレーニング以外でのその寿命はどのくらいなのでしょうか? Aleksey Vyazmikin 2023.10.06 13:47 #32862 Maxim Dmitrievsky #: 😀 四角の意味もわからない。おそらくリンゴの人が書いていることだろう :) Forester 2023.10.06 14:28 #32863 Aleksey Vyazmikin #:もし "何か "が見つかったとしたら、その寿命は通常指導以外ではどのくらいなのだろうか? 週に一度、モデルを再トレーニングしているだけです。もっと長生きするかもしれない。しかし、それ以下かもしれないし、サンサニッチのように小節ごとに再トレーニングする必要があるかもしれない(もしH1なら、原理的には可能だ)。 私の場合、スピード的には週1回が許容範囲-260回の再トレーニングで約5年経過。 Aleksey Vyazmikin 2023.10.06 14:30 #32864 Aleksey Vyazmikin #:我々は、トレーニングの成功はサンプルサイズに依存するという暫定的な結論を下すことができる。しかし、"-1p1-2 "サンプルの結果は"-1p2-3 "サンプルと同等であり、いくつかの基準ではより良いものである一方、"0p1-2 "サンプルの結果は、与えられた基準を満たすモデルの数という点で、2倍悪いということに注意してください。今、私は年代を反転させたサンプルを実行しました。trainサンプルは最初のexamination+test+train_p3サンプルで構成され、testサンプルはtrain_p2、examinationはtrain_p1 です。 目標は、10年前ならうまくいったであろうモデルを、より最近のデータでうまく構築できるかどうかを確認することである。結果はどうなると思いますか? 結果は表の最後の列にあります。 偏らないようにコメントしよう。一方では、サンプルの年代を変えることによって、主要な基準である適切なモデルの数による結果が大幅に悪化したと言えますが、他方では、そのようなモデルが見つかったという事実そのものが、データに何らかの安定したパターンがあることを示しています。それともランダムなのだろうか?そう、もちろん、他のサンプルを取って同様の研究を行う必要がある。そうして初めて、より確信を持って結論を出すことができる。今のところ、これは熟考するための情報に過ぎない。 客観的に見れば、データはたくさんある。私は通常、時系列コースに匹敵するとはいえ、トレーニングには小さいサンプルの倍数を使う。どの実験でもRecall率が悲しいほど高い。私は、誰もこのことに注目していないことに驚いている。一般的に、固定テイクアウトとストップが使用されていない場合、標準的な指標は、財務結果を示すのに不十分であると繰り返し言うことができます。 もし他に何かアイデアや希望があれば、ここ(サンプル・プロット)を何かと組み合わせてみてください。 Aleksey Vyazmikin 2023.10.06 14:31 #32865 Forester #: 週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)。私の場合、スピード的には週1回が許容範囲であり、260回の再トレーニングで約5年が経過する。 このような再トレーニングの集計結果は? Forester 2023.10.06 14:34 #32866 Aleksey Vyazmikin #:このような再教育の総体としての結果はどうだろうか? 私が昨年示したグラフはすべてこの方法で得られたものだ。ヴァルキングフォワードによるOOSのみ。 СанСаныч Фоменко 2023.10.06 14:40 #32867 Andrey Dik #:マックス、なぜ僕をからかうのか理解できないよ。仮定がないのなら何も言うな。仮定があるのなら、"結果は最悪になる "とか言ってくれ。 面白ければ笑えばいいし、悲しければ泣けばいい。 アレクセイ・ヴャズミキンがここで議論していることは、提案を引き起こすことはできないし、「クソだ-クソじゃない」という評価は不可能だ。 例えば、ある男が現れて言う: - 月に鉄を送ろう。 私たちは驚いた顔をする。 そして男は言う: - 鉄の温度を変えて、水の量を変えてみましょう。 仮定がなければ黙って、仮定があれば「クソみたいな結果になるだろう」と声を 上げる。 レクゼイ・ヴャズミキンがやって いることは、MoDの問題とは何の関係 もない。彼はあるオペラを引き合いに出し、別のオペラから答えを引き出そうとしている。頭の中が混乱している男の空虚なおしゃべりだ。 Aleksey Vyazmikin 2023.10.06 14:47 #32868 Forester #: 私が昨年示したグラフはすべてこの方法で得られたものだ。Valking ForwardによるOOSのみ。 写真から判断すると、Recallも低い。つまり、このモデルは何に対してもほとんど自信を持っておらず、予測には非常に慎重である。 СанСаныч Фоменко 2023.10.06 14:50 #32869 Forester #: 週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)。 私の場合、週1回ならスピード的には許容範囲だ。 私はここで1つの根本的な問題を発見した。それは次のような形で現れます:1つの大きなファイルから断片を取り出し、それを教え、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行すると、結果は根本的に異なり、通常は壊滅的なものとなる。 すべてのステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題はなくなります。 そして、もしすべてのステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか? Aleksey Vyazmikin 2023.10.06 15:08 #32870 СанСаныч Фоменко #:、ークでークではークではークではークではークではークではークではークではークスタッフのークスのークスのークスのークスタッフのークスタッフそれは次のような形で現れる。1つの大きなファイルの断片を取り出し、それを研究し、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行するやいなや、結果は根本的に異なり、通常は壊滅的なものとなる。各ステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題は解消される。そして、もし各ステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか? あなたが持っているこのピークはどこにありますか? I read it a couple of times and didn't see the logic behind the words. 彼らは問題を発明し、そしてそれを英雄的に解決する。 1...328032813282328332843285328632873288328932903291329232933294...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そして、列車区間のサイズに強く依存している。例えば、20000行では前方に何かが見つかりますが、5000行や100000行ではランダムです。
もし "何か "が見つかったとして、通常トレーニング以外でのその寿命はどのくらいなのでしょうか?
😀
四角の意味もわからない。おそらくリンゴの人が書いていることだろう :)
もし "何か "が見つかったとしたら、その寿命は通常指導以外ではどのくらいなのだろうか?
私の場合、スピード的には週1回が許容範囲-260回の再トレーニングで約5年経過。
我々は、トレーニングの成功はサンプルサイズに依存するという暫定的な結論を下すことができる。しかし、"-1p1-2 "サンプルの結果は"-1p2-3 "サンプルと同等であり、いくつかの基準ではより良いものである一方、"0p1-2 "サンプルの結果は、与えられた基準を満たすモデルの数という点で、2倍悪いということに注意してください。
今、私は年代を反転させたサンプルを実行しました。trainサンプルは最初のexamination+test+train_p3サンプルで構成され、testサンプルはtrain_p2、examinationはtrain_p1 です。 目標は、10年前ならうまくいったであろうモデルを、より最近のデータでうまく構築できるかどうかを確認することである。
結果はどうなると思いますか?
結果は表の最後の列にあります。
偏らないようにコメントしよう。一方では、サンプルの年代を変えることによって、主要な基準である適切なモデルの数による結果が大幅に悪化したと言えますが、他方では、そのようなモデルが見つかったという事実そのものが、データに何らかの安定したパターンがあることを示しています。それともランダムなのだろうか?そう、もちろん、他のサンプルを取って同様の研究を行う必要がある。そうして初めて、より確信を持って結論を出すことができる。今のところ、これは熟考するための情報に過ぎない。
客観的に見れば、データはたくさんある。私は通常、時系列コースに匹敵するとはいえ、トレーニングには小さいサンプルの倍数を使う。どの実験でもRecall率が悲しいほど高い。私は、誰もこのことに注目していないことに驚いている。一般的に、固定テイクアウトとストップが使用されていない場合、標準的な指標は、財務結果を示すのに不十分であると繰り返し言うことができます。
もし他に何かアイデアや希望があれば、ここ(サンプル・プロット)を何かと組み合わせてみてください。
週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)。私の場合、スピード的には週1回が許容範囲であり、260回の再トレーニングで約5年が経過する。
このような再トレーニングの集計結果は?
このような再教育の総体としての結果はどうだろうか?
マックス、なぜ僕をからかうのか理解できないよ。
仮定がないのなら何も言うな。仮定があるのなら、"結果は最悪になる "とか言ってくれ。
面白ければ笑えばいいし、悲しければ泣けばいい。
アレクセイ・ヴャズミキンがここで議論していることは、提案を引き起こすことはできないし、「クソだ-クソじゃない」という評価は不可能だ。
例えば、ある男が現れて言う:
- 月に鉄を送ろう。
私たちは驚いた顔をする。
そして男は言う:
- 鉄の温度を変えて、水の量を変えてみましょう。
仮定がなければ黙って、仮定があれば「クソみたいな結果になるだろう」と声を 上げる。
レクゼイ・ヴャズミキンがやって いることは、MoDの問題とは何の関係 もない。彼はあるオペラを引き合いに出し、別のオペラから答えを引き出そうとしている。頭の中が混乱している男の空虚なおしゃべりだ。
私が昨年示したグラフはすべてこの方法で得られたものだ。Valking ForwardによるOOSのみ。
写真から判断すると、Recallも低い。つまり、このモデルは何に対してもほとんど自信を持っておらず、予測には非常に慎重である。
週に一度、モデルを再トレーニングしているだけだ。もっと長生きするかもしれない。H1なら原理的には可能)。
私の場合、週1回ならスピード的には許容範囲だ。
私はここで1つの根本的な問題を発見した。それは次のような形で現れます:1つの大きなファイルから断片を取り出し、それを教え、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行すると、結果は根本的に異なり、通常は壊滅的なものとなる。
すべてのステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題はなくなります。
そして、もしすべてのステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか?
、ークでークではークではークではークではークではークではークではークではークスタッフのークスのークスのークスのークスタッフのークスタッフそれは次のような形で現れる。1つの大きなファイルの断片を取り出し、それを研究し、テストし、チェックする。しかし、1つの大きなファイルの一部であるこれら3つのファイルの外側を実行するやいなや、結果は根本的に異なり、通常は壊滅的なものとなる。
各ステップで再トレーニングを行えば、予測はトレーニングと同じ予測値で行われるため、「先読み」の問題は解消される。
そして、もし各ステップでティーチングしなければ、トレーニングセクションを含むすべての予測変数が、ある値でティーチングされ、その値で予測されることになります。そして、ここで問題です:予測変数の新しい値は、学習プロットでの予測変数の値と一致するかどうか?
あなたが持っているこのピークはどこにありますか?
I read it a couple of times and didn't see the logic behind the words.
彼らは問題を発明し、そしてそれを英雄的に解決する。