簡単だ。私は何十ものデータセットをアンジェネレートできる。今ちょうどTP=50とSL=500を探っているところだ。先生のマークアップには平均10%の誤差がある。If there is 20%, it will be a plum model. So it is not the classification error that is the point, but the result of adding up all the profits and losses.
I hoped that the volumes with CME would bring additional information/ regularities that would improve learning.しかし、ご覧のように、チャートは非常によく似ているにもかかわらず、ボリュームのないモデルの方が少し優れています。 これはCMEへの2回目のアプローチだったが(3年前に試した)、またしても失敗した。
、、ー残念な、、、ー誰もー誰もー、ー誰もー)
ーそうです。、ーたとえー、ーたとえー1ー本でもー、ー本がー本、ー本、ー本がー本、ー本がー本がー、ー本がー本 そのー本、ー本
簡単だ。私は何十ものデータセットをアンジェネレートできる。今ちょうどTP=50とSL=500を探っているところだ。先生のマークアップには平均10%の誤差がある。If there is 20%, it will be a plum model.
So it is not the classification error that is the point, but the result of adding up all the profits and losses.
ご覧のように、トップモデルの誤差は9.1%で、誤差8.3%でもそこそこ稼げます。
チャートはOOSのみを示しています。Walking Forwardで週に1回再トレーニングを行い、5年間で合計264回の再トレーニングを行いました。
興味深いのは、分類誤差9.1%のモデルが0で機能し、50/500=0.1、つまり10%があるはずだということです。ー 1%はー スプレッドをー(ー棒あたり最小値、ー実際のー実際のー)。
ー100本のー累積出来高、ーデルタ、ー乖離ー収束ー。
モデル設定を一切変更せずに、CMEデータ(価格デルタとジグザグは残った)の405列を削除し、合計115列としたところ、少し良い結果が得られた。ーつまりー出来高がー分割でー選択されることもーOOSのー出来高のーOOSのーノイズーーーー
比較のー 比較のー
I hoped that the volumes with CME would bring additional information/ regularities that would improve learning.しかし、ご覧のように、チャートは非常によく似ているにもかかわらず、ボリュームのないモデルの方が少し優れています。
これはCMEへの2回目のアプローチだったが(3年前に試した)、またしても失敗した。
ボリュームをトレーニングに追加してみた人はいますか?結果は同じですか?それとも改善されましたか?
このテストは、EURUSDのCMEからの実際のボリュームを使用した:累積ボリューム、デルタ、100バーによるダイバージェンスとコンバージェンス。
モデル設定を一切変更せずに、CMEデータ(価格デルタとジグザグは残った)の405列を削除し、合計115列としたところ、少し良い結果が得られた。つまり、出来高はスプリットで選択されることもあるが、OOSではノイズになることがわかった。そしてトレーニングは3.5倍遅くなった。
比較のために、上に出来高のあるチャート、下に出来高のないチャートを残しておいた。
CMEを含むボリュームが、学習を向上させる追加情報や規則性をもたらすことを期待した。しかし、ご覧のように、チャートは非常に似ているにもかかわらず、ボリュームなしのモデルの方が少し優れています。
これはCMEへの2回目のアプローチだったが(3年前に試した)、またしても失敗した。
他にボリュームをトレーニングに追加してみた人はいますか?結果は同じですか?それとも、改善を与えてもらっているのでしょうか?
あなたは私たちの市場を試してみましたか、それは効率が悪いようだ?
または穀物先物、そこにはいくつかの季節的なサイクルがあるかもしれません。
我々のマーケットを試したことがあるかい?
SMEがある巻には、学習曲線を改善する追加情報/法的事項が掲載されることが期待された。しかし、お分かりのように、ボリュームのないモデルの方が若干良い...。
どのモデルが手に入る?
このテストは、EURUSDのCMEからの実際のボリュームを使用した:累積ボリューム、デルタ、100バーによるダイバージェンスとコンバージェンス。
モデル設定を一切変更せずに、CMEデータ(価格デルタとジグザグは残った)の405列を削除し、合計115列としたところ、少し良い結果が得られた。つまり、出来高はスプリットで選択されることもあるが、OOSではノイズになることがわかった。そしてトレーニングは3.5倍遅くなった。
比較のために、上に出来高のあるチャート、下に出来高のないチャートを残しておいた。
CMEを含むボリュームが、学習を向上させる追加情報や規則性をもたらすことを期待した。しかし、ご覧のように、チャートは非常に似ているにもかかわらず、ボリュームなしのモデルの方が少し優れています。
これはCMEへの2回目のアプローチだったが(3年前に試した)、またしても失敗した。
他にボリュームをトレーニングに追加してみた人はいますか?結果は同じですか?それとも、改善を与えてもらっているのでしょうか?
あなたは私の投稿を完全に誤解しています。「希望」などというものは存在せず、形質的体力の数値的推定があるか、ないかのどちらかです。そして、将来における形質のフィットネスの数値的な推定値がある。
教師とは、あなたが書いたようなものではなく、特徴やラベルの集合です :) というか、一般的な人間、あるいはそのデータを生成するアルゴリズム です😀
あなたは私の方に唾を吐きたいという抑えがたい欲求があるようだが、唾液は取っておく必要があるのか、それともマークするだけでいいのか?
まず、その模型の内部がゴミだらけであることに気づかなければならない......。
訓練された木製のモデルを、中にあるルールとそのルールの統計に分解すると。
のようなものだ:
そして、ルールの 誤りの サンプル中の出現頻度への依存性を分析する。
が得られる。
では、この領域に興味がある
ルールは非常にうまく機能するが、10-30個のオブザベーションは統計ではないので、統計の信憑性を疑う意味があるほどまれである。
私にとっては、それがフィットする方法です。モデルの中でルールを洗練させることは、モデルが「見た」ものを洗練させることなのです。
私の方に唾を吐きたいという抑えがたい欲求があるようだが、唾は取っておくべきか、それともマーキングするべきか?
ナンセンスに反応するのは普通のことで、国防省の基本だ。
ってな具合に、平然と。