トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3020

 
Maxim Dmitrievsky #:
精度はバランスの取れたクラスで問題なく機能している。すべての標準的な指標を試したが、結果にほとんど違いはなかった。利益の最大化は、最大限の利益を生む取引をマークアップすることで実現されます。)


1) 取引コストは分類では考慮されない。クラス・マークは売却の必要性を示すかもしれないが、買い続ける方が経済的に有益かもしれない、

利益最大化はこれを考慮する。


2) ボラティリティも同様である。


3) 買う、売る、何もしないという3つの状態をどのように実行するのかが明確でない。


4) 分類によるMOでストップ/ティークを管理する方法が明確でない。

.....

..

..

 
Maxim Dmitrievsky #:
精度はバランスの取れたクラスで問題なく機能している。標準的な指標をすべて試してみたが、結果にほとんど違いはなかった。

それでも、これらは異なる値です。単純化のために、利食い=損切り=1、スプレッド=0と仮定してみましょう。各取引で、エントリーするかしないかを決めます - 簡単のため、システムは購入のみです(販売には別のモデルを使用します)。

精度 = (真陽性 + 真陰性)/ (真陽性 + 真陰性 + 偽陽性 + 偽陰性)

利益合計 = 真陽性 - 偽陽性

精度はツリーの分割法の要件に合っているようだが、利益は合っていないようだ。

MaximDmitrievsky#:
利益の最大化は、最大限の利益を生む取引をマークアップすることで実現される。)

簡単にするために、すべての取引は同じ利益または損失(1または-1)を与える。

 
mytarmailS #:


1) 貿易コストは、分類によって考慮されない。クラス・マークは、延長する必要があることを示すかもしれないが、買い続ける方が経済的に有益であることを示すかもしれない、

利益の最大化はこれを考慮に入れる。


2) ボラティリティについても同様である。


3) 買う、売る、何もしない、という3つの状態をどのように実現するのかが明確でない。


4) MOによる分類を通じたストップ/ティークの管理方法が明確でない。

.....

..

..

マークアップにコストをかける、それだけだ。利益の最大化とは、獲得点数からコストを引いたものを最大化することだ。一回でマークアップされる :)

3.前回の記事で実装しました。
ストップ、テイクアウト-これは通常、オプティマイザーでTSを微調整した後だ。

...
..,
主なことは始めることだ :)
 
Aleksey Nikolayev #:

それでも、これらは異なる値である。簡単のため、常に利食い=損切り=1、スプレッド=0と仮定してみましょう。各取引では、エントリーするかしないかのどちらかです - 簡単のため、システムは購入のためだけです(販売の場合は別のモデルにしましょう)。

精度 = (真陽性 + 真陰性)/ (真陽性 + 真陰性 + 偽陽性 + 偽陰性)

利益合計 = 真陽性 - 偽陽性

精度はツリーの分割法の要件に合っているようだが、利益は合っていないようだ。

簡単にするために、すべての取引は同じ利益または損失(1または-1)を与える。

微妙すぎて、理解できない😁 教師を持つアルゴリズムは、どのような停止基準の下でも、訓練データセットで教えられたことを近似しようとしている。これらの指標はすべて、純粋に補助的なものです。それを基準にしているんだ。私には、これらのメトリクスの違いはほとんどないと思える。だから、先生にとっては二の次なんだ。
 
Aleksey Vyazmikin #:

この方法を 試しましたか?(ページの半分くらい下にあるモデル解釈のセクションを探してください)

 
ー最小のーステップでー変動に応じてーに応じてーに応じてー。ーー最小ステップでーでー変動に応じてーに応じてー最小ステップのー最小ステップのー最小ステップ度以上であればければ度がければ乖離してがががが乖離が乖離の乖離乖離乖離乖離

チャート上の1つのパスで、カール。
 
Maxim Dmitrievsky #:
このようなマークアップの順序は、おおよそ次のとおりです。変動に応じて、さまざまな方向に、最小ステップで収益性の高い取引を行います。一方向の取引を1つにまとめ、コストを考慮してピップ数を数えます。それが2つ以上であれば、それらを1つにまとめ、そうでなければ短いものを残します。

チャート上の1つのパスで、カール。

1) うまくいったとしても、それぞれのタスクについて、既製のターゲットとして実装するためのアルゴリズムを発明する必要があることがわかりますか?

FFを書いて、AMOが良い/悪いと言うだけで、どんなタスクにも良い、普遍的な解決策になる...という方が簡単ではないですか?


2)良いターゲット!

ターゲットは良いかもしれないが、アルゴリズムはそのために訓練されることはない。

私がFFについて話していたとき、あなたはこのことに気づいていましたが、もう忘れてしまったようですね。

 
mytarmailS #:

1) うまくいったとしても、各タスクのために、それを準備の整ったターゲットとして実装するためのアルゴリズムを発明する必要があることが判明した?

FFを書いて、AMO-良い/悪いと言うだけで、どんなタスクにも良い、普遍的な解決策になるのでは?


2)良いターゲット!

ターゲットは良いかもしれないが、アルゴリズムはそのターゲットに対して訓練できないので、評価されるべきはターゲットではなく、訓練されたAMOである。

私がFFについて話していた時、あなたはこのことに気づいていましたが、忘れてしまったようですね。

あなたはFFがデータセットに組み込まれていることを理解していない。あなたはウォームとソフトを混同していて、不必要な作業をしている。

FFはまるで赤ん坊のようにすべてを学習し、すべての行を記憶する。

他の目標を設定することもできる。例えば、どの取引を重視するかなどだ。もちろん、これはすべてマークアップの段階で行う。

FFではいろいろなことができないから、3階建ての数式になる。

まるでMOのスーザンのようだ。
僕はだいたい、帰り道や買い物に行くときに、じっとしていることが多いんだ。なぜ店に来たのか忘れることもあるが、それはコストだ。
 
Maxim Dmitrievsky #:
あなたはFFがデータセットに含まれていることに気づいていない。ウォームとソフトを混同している。余計な仕事をしている。

彼は何でも赤ん坊のように学習し、全ての行を暗記する。

いろいろな目標を設定できる。例えば、どのトレードに重きを置くか。もちろん、これはすべてマークアップの段階で行われる。

FFで多くのことができるわけではなく、3階建ての数式になります。

MoDのスサニンみたいだな😀いつも沼に引きずり込まれる。

すべてがあなたの言う通りなら、RLは存在しないのですが...。


そして一般的に、みんなが自分のやり方でやるのはいいことだ。

私はもうその段階は過ぎたから、あまりやらないけど...。

 
mytarmailS #:

あなたの言う通りなら、そもそもRLは存在しない。

どこにもない、紙の上だけだ。
RLは未知の環境と対話し、それを探索するためのものだ。こっちへ行ったらどうなるか、あっちへ行ったらどうなるか。目の前にグラフがある。
理由: