トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2749

 
elibrarius #:

ウラジミールの記事も 10~20%程度の誤差はあるが、バランスラインは心もとない。

これもトレーニングの解釈「a-post」次第かもしれないが......。

 
Maxim Dmitrievsky #:

前の投稿に追加

#299

誰かが、私がビデオを投稿した私の投稿を削除した...どうしてそんなことが起こるのかわからない。

 
mytarmailS #:

誰かが僕がビデオを投稿した記事を削除したんだ...どうしてそんなことが起こるのかわからないよ。

まあまあ、ずいぶん目立ちたがり屋さんだね。

ウッドモデリングについてはこちら。

#4469

#4467

キャットバスターズ検索について?😄スレを立てた人

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

おやおや、ずいぶん目立ちたがり屋なんだね。

これがウッドモデリングだ

#4469

#4467

キャットバスターズ検索について?スレッドを立てた人

いいか、木材は全く議論にならない...MoDのチュートリアルの95パーセントは木材から始まる、それは初心者が最初に知ることだ、あなたはそれを担当していない。

 
mytarmailS #:

いいか、木材はまったく論外だ......。MoDのチュートリアルの95%は木材から始まる。

ここでは以前からNSがほとんどだった。テストをしてみたら、木も悪くないことがわかった。ここでそのような情報を見たのは初めてで、そうでなければこの質問をしなかっただろう。

それからboustingに切り替えて、katbust libを見つけて、ここで再現し始めたんだ。

 
Maxim Dmitrievsky #:

以前、ここで議論されたのはほとんどがNSだった。テストをしてみたところ、樹木の方が悪くないことがわかった。ここでこのような情報を見たのは初めてで、そうでなければこの質問をしなかっただろう。

ところで、ツリーは、クラスタリングとFSに代わる「2 in one」としての価値があります。

Maxim Dmitrievsky#�

その後、boustingに切り替えて、katbust libを見つけ、ここでそれを再現し始めました。

アルゴリズムについて: 数学的には2次導関数がもう1つ得られます(あるいは残差の平均化 - 統計的に) -- しかし、個人的にはトレーニングでどのように役立ち、どのような場合に役立つのでしょうか?というのも、点の精度が常に重要なわけではなく、モデルの生成能力の方が重要な場合もあるからです。
 
JeeyCi #:

ところで、ツリーは、クラスタリングやFSに代わる価値あるものとして機能する。

アルゴリズムについて:数学的にもう1つの2階微分を与える(あるいは残差の平均化 - 統計的に) --しかし、それはトレーニングにどのように役立ち、どのような場合に役立つのだろうか?というのも、どこでも点の精度が重要なわけではなく、モデルの生成能力の方が重要な場合もあるからだ。

因果推論の ための木製のモデルもある。

Boustingはバイアスと分散を減らしますが、Forestは分散だけだと思います。ググってみてください。また、ライブラリ自体も開発されているので、便利に使える。

生成的なものについてはよくわからない。でも、NSの生成的なものは、合成データを生成するという話であれば、FXではうまく機能しません。

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

合成データの生成について話しているのであれば。

いいえ、一般化することです。はい、間違っています。すみません。

リスクオンとリスクオフの環境を区別することだと思います。すべて私自身の考えです(たまたまこのフォーラムで)。

お返事ありがとうございました!

 
JeeyCi #:

いいえ、一般化することです......。はい、間違っています。すみません

リスクオンとリスクオフの環境を区別するためだと思うのですが......この区分をどう一般化するか、まだ考えています......。すべて私自身の考えです(たまたまフォーラムで)...

お返事ありがとうございました!

catbustaには様々な機能があり、私は気に入っています。

検証サンプルのエラーに基づく早期停止、事前学習があります。汎化はNSより悪くない。

学習も早く、何時間も待つ必要がない。

 
ランダムフォレストは データの文字列から最大値を見つける ことができますか?

MOがJAの原始的な関数をシミュレートできるかどうかが気になります。

行列があり、行列の各行が訓練例です。

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

各行の最大値を求める必要があり、サンプルサイズは20k行です。


回帰による問題の解決

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

明瞭さのために丸みを帯びた

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

かなり良い。50行の改行のうち、テストでのエラーはわずかだった。


しかし、行列Xのデータは非常に単純で、1から5までの5つのユニークな値と5つの列だけですが、すでにエラーが発生しています。

分類をすればエラーはなくなると思うが。

まあ、そうなんですが、データの最大値を探すのであれば、値の散らばりが大きくなる可能性があるので、分類は適していません。

それでは回帰に戻って、データを複雑にしましょう。

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

このような結果が得られる。

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

原理的には悪くはないが、通常の関数mach()の方がうまくいくし、このモデルをすべて置き換えることができる。

ところで、他のモデルはどのように動作するのだろうか、 エラーなしで mach()関数を 作成できるのだろうか?

理由: