トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3352

 

任意のラグを持つ通常のインクリメント。対数やゼロバーはない。質問は符号についてだった。そこでの主な問題は、シグナル/ノイズ比が低いことだ。しかし、これらにはすべての情報が含まれている。

聾唖電話は進化している :)

最近の記事は全く読まないんだ、特に多作な水の著者は、水のサイクル全体が書かれている :)
 
Maxim Dmitrievsky #:

任意の ラグを持つ通常のインクリメント。対数やゼロバーはない。質問は符号についてだった。そこでの主な問題は、シグナル/ノイズ比が低いことだ。しかし、これらにはすべての情報が含まれて いる。

明らかに、すべての 情報が含まれている。しかし、隣り合うバー間の増分を使っている場合、過去100バーのトレンドがあったことを理解するには、モデルは100バーをすべて加算し、0バーからの増分を取得する必要があります。
おそらく、ニューラルネットワークは100本すべての増分値を考慮し、トレンドを見つけることができますが、木製のモデルはあり得ません。あなた自身(そして私も同じ結果を持っている)、モデルはいくつかの特徴(10まで)で最もうまく機能すると言っており、100の完全なトレンドは10からは形成されないでしょう。

だからこそ、私のインクリメントに対する任意の ラグが常に0小節からであり、モデルがトレンドを見ることができるのです。隣り合うバー間の増分は、私はノイズと考えているので、まったく使用されません。例えば、120バーと121バーの間、つまり2時間前の0.00010ptの増分は、現在の状況にどのような影響を与えるでしょうか?- ありません。

 
Forester #:

すべて であることは明らかです。しかし、隣り合うバー間の増分を使用する場合、過去100バーのトレンドがあったことを理解するには、モデルは100バーすべてを合計し、0バーからの増分を取得しなければなりません。
おそらくニューラルネットワークは、100本すべての増分値を考慮し、トレンドを見つけることができますが、木製のモデルは可能性が低いです。あなた自身(そして私も同じ結果を持っている)、モデルはいくつかの特徴(10まで)で最もうまく機能すると言っており、100の完全なトレンドは10からは形成されないでしょう。

だからこそ、私のインクリメントに対する任意の ラグが常に0小節からであり、モデルがトレンドを見ることができるのです。隣り合うバー間の増分は、私はノイズと考えているので、まったく使用されません。例えば、120バーと121バーの間、つまり2時間前の0.00010ptの増分は、現在の状況にどのような影響を与えるでしょうか?- ありません。

トレンドとは平均増分におけるシフトです。ですから、それは増分チャートにもあります。複数の属性の問題は、交絡因子の観点から説明されます。つまり、各属性の影響を他のすべての属性から分離することが難しくなります。結局のところ,それぞれが最終的な推定にさらなる誤差をもたらす.因果推論はより複雑になり、不確実性が加わる。明らかに、前景モデルの複雑さには限界があり、それは信号対雑音比に依存する。

インクリメントのラグは、予測される取引の継続時間に直接関係します。たとえば、取引期間が 1 bar の場合、ラグが小さく、ウィンドウの深さが小さいインクリメントを使用する方がよい。取引期間が長くなると、増分のラグも当然大きくなります。もちろんスプレッドも影響します。
 

ティックごとのデータを記録してcsvファイルを作成するExpert Advisorを 書き、その隣でこのファイルを分析するニューラルネットワークを走らせ、トレーニングを行い、最初のファイルの最後の行に基づいて、価格がどこに、何ポイント動くかの予測を出力する。、ーpythonでーでーでーでー今までの経験では、「始値」、「最大値」、「最小値」、「終値」、「出来高」に基づいています。

私は画面を挿入する方法がわからない

 
Андрей Expert Advisorを 書き、その隣で、このファイルを分析し、学習を行い、最初のファイルの最後の行に基づいて、価格がどこに何ポイント進むかの予測を出力するニューラルネットワークを開始しました。pythonで書いた。どなたか同じようなことをすでにやっていて、どのようなデータを学習すれば全体像をカバーできるでしょうか。 現在、「始値」、「最大値」、「最小値」、「終値」、「出来高」に基づいています。

画面を挿入する方法がわかりません。

すべての通貨ペアと金属のティックを記録し、分析する。

時間帯、曜日を追加

予想されるニュースの分類

ニュースの数秒前

過去のニュースの分類

ニュースの数秒後

===

一般的には、自分自身とpythonを忙しくさせるものです :-)

 
まだすべてのMOを消化したわけではないので、ヒントを与えることはできないが......)
 
Maxim Dmitrievsky #:
まだすべてのIOをマスターしているわけではないので、すぐにお伝えすることはできませんが......)

なぜすべてのMOをマスターするのですか?モデルだけでも数百はありますから...。そしてモデルは明らかに問題の半分以下だ。

いくつかのモデルをマスターして、OOVとOOSでほぼ同じ分類誤差20%未満を一貫して達成する方法を学べばいいのでは?過度の学習がないことを証明し、先を見据えて、そして最も重要なことだが、その結果生じる分類誤差を将来にわたって証明することを基本にしながら?

 
СанСаныч Фоменко #:

なぜすべてのMoDをマスターするのか?モデルだけでも数百はあるのに・・・。それにモデルは明らかに問題の半分以下だ。

いくつかのモデルをマスターし、OOVとOOSでほぼ同じ分類誤差20%未満を一貫して達成できるように学習するのはどうだろう?過学習がないことの証明をベースにしながら、先を見据えて、そして最も重要なことだが、その結果、将来における分類誤差の証明をするのはどうだろう?

すべてのIOの下には、共通のアプローチと実践がある。例えば、2値分類のクラス確率を得ることができますか?もし可能なら、どのような方法で?
 
Maxim Dmitrievsky #:
すべての MOE の下には、共通のアプローチと実践がある。例えば、二値分類のクラス確率を求めることができるか?もしそうなら、どのような方法で?

クラス確率を生成しないパッケージはすぐに思いつかない。だから、これが標準的なのだと思っていた。

 
СанСаныч Фоменко #:

クラスの確率を発行しないパッケージはすぐに思いつかない。だから、これが標準だと思った。

バッチ式思考この確率は尤度推定のために適用されたloess phsのためにそう呼ばれているのです。

本当のクラス確率はどうやって求めるのですか?
理由: