トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1001

 
アレクセイ・ニコラエフ

RLは強化学習?

市場に直結したゲームモデルも面白いかもしれませんね。例えば、トレーダーの偏ったポジションをブローカーがヘッジする過程をシミュレートしてみることもできる。もしかしたら、(歪みの蓄積とそのヘッジに避けられないタイムラグによる)価格行動の持続的なパターンがあるのかもしれません。とはいえ、すべてはずっと前から計算されていたことなのでしょう。

英語の記事には、なぜかマンデルブロが全く出てきません。入れてもよい)

そうですね、どこかで情報を得られるのであれば、せめてオアンダからの情緒の歴史だけでも得てみてはいかがでしょうか。コンバイナーが持っていた。なぜブノワを入れなかったのか、明らかにフラクタルのことだし、彼はクリエイターなのに......)
 
マキシム・ドミトリエフスキー
もし、この情報をどこかで得ることができるのであれば、少なくともoandaからの情緒の履歴を得ることができるはずです。コンビネーターにはそれがあった。なぜブノワにエントリーしていないのか、私には分かりませんが、そこには明らかにフラクタルがあり、彼はその創造者なのです。)

これはCombinator: https://www.mql5.com/ru/users/thexpert と考えていいのでしょうか?

数学者が書いた記事と思われ、少し嫌われているようです)

 
アレクセイ・ニコラエフ

これはCombinator: https://www.mql5.com/ru/users/thexpert と考えていいのでしょうか?

数学者が書いた記事と思われ、少し嫌われているようです)

はい、そうです。もしかしたら、反体制派と言われるような存在だったのかもしれない
 
マキシム・ドミトリエフスキー
はい、そうです。もしかしたら、彼は反体制派として考えられていたのかもしれない。

ありがとうございます。

正確にはわかりません。例えば、マンデルブロー集合を開く際の優先順位については、賛否両論がありました。

 
mytarmailS:
古参の方に質問ですが、どなたかmoでレベル検索を試した方、試した場合はどうされたのでしょうか?

何でもそうですが、レベルを計算するアルゴリズムを即興で作って、それをターゲットにし、ターゲットに何らかの影響を与えるものを選んで、自分好みに機能をカスタマイズしていきます。一般に、「レベル」は次のバーの色よりも複雑であり、次のバーの色がランダムより1-2%の精度で予測されることを考えると、言い換えれば何もないことになります。

 
グレイル

次のバーの色がランダムより1~2%高い精度で予測されることを考えると、次のバーの色を予測しない、つまり、簡単に言えば、全く予測しないことを希望します。

というのも、予測因子から始まり、対象システムそのものに至るまで、「すべて」が非定常であるため、「VP」としての相場は予測できない(と思う)という結論に至ったからです。しかし、どのように情報を正しく変換するのか、私には見当もつきません。もちろん、予測因子として最後の極値(ラ水準)をいくつか加えることはできますが、あまりにも原始的で、実際には同じ「BP」になるでしょう。私は、「MO」は過去に現在の 価格で何が起きたか、百均の形でも覚えておくべきだと考えたいのですが...。

 
mytarmailS:

そうでないことを祈ります)、「MO」の実験を重ねた結果、「VP」としてのマーケットは予測できない(と思う)、なぜなら予測因子から始まってターゲットセット自体で終わる「すべて」の非定常性、すべてはレベルに応じてより厳密に、より曖昧になる、という結論に達したからです。もちろん、最後の極値(レベル)をいくつか予測変数として加えることはできますが、それはあまりにも原始的で、実際には同じ「BP」になるでしょう。私は、現在の 価格で過去に何が起こったかを記憶する「MO」とは何か、さらに統計的な形で考えたいと思います

まあ、主な開発はMOではなく、「レベル」のアルゴリズムにあるんですけどね。実際には、単純なBBではなく、過去の極値やそのクラスタリングを考慮した、ある種のチャンネルになるはずなのですが...。

そもそも、市場に「水準」が存在するという事実そのものを確認する必要がある。市場には "レベル "が存在する。過去の極値が何らかの形で未来に影響を与え、クラスタリングがあるはずで、クラスタリングがあるのなら次に進むべきだということです。

 
mytarmailS:

そうでないことを祈ります)、「MO」の実験を重ねた結果、「VP」としてのマーケットは予測できない(と思う)、なぜなら予測因子から始まってターゲットセット自体で終わる「すべて」の非定常性、すべてはレベルに応じてより厳密に、より曖昧になる、という結論に達したからです。もちろん、最後の極値(レベル)を予測因子として設定することもできますが、それでは原始的すぎますし、実際、同じ「BP」になります。

市場はすべてを記憶している、ただあなたはまだそれを見ていないだけだ。この謎は、自然の意志や執念によって解き明かされる。ちなみに...一方が他方を防ぐわけではありません。

 
ウラジミール・イゼルスキー

市場はすべてを記憶している、ただ、あなたはまだそれを見ていないだけだ。この謎は、自然の意志や忍耐力によって解き明かされる。ちなみに...一方が他方を防ぐわけではありません。

嬉しいお言葉をありがとうございます...

 

この分野を復活させたいという強い思いと、予測は静止したVR上でしか行えないということを考慮し、この分野を復活させました。

(1. Kolmogorov A. N. Interpolation andExtrapolationof stationaryrandomsequences.

2.ウィーナー N. 静止時 系列の外挿・補間・平滑化(Wien N.Extrapolation, interpolation and smoothing of stationary time series)

の質問をします。

実際には、CLOSE[i]-OPEN[i]の値は、インクリメントの合計にほかならない。

このような値の連続は、極限的には正規分布になるはずである。

さて、帰国者のシーケンス(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])は定常系列であるという意見があるようですが、どうでしょうか?

NSの入力でそのようなことを試された方はいらっしゃいますか、そしてその結果はどうでしたか?


追伸:マックス、ドク、ミシャニャ、ワーロック、アリョーシャ...。誰に向かってこのスレを投げているんだ?А?

理由: