トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3385

 
Maxim Dmitrievsky #:
ルールに関する記事を書きたくなかったのか、それとも気が変わったのか?テスト関数の最小化よりも興味深いトピックだろう。それとも、OOSでの検証に問題があるのですか?あるいは、問題はないが、書くのが面倒なだけなのか。
どうだろう、書くことがない。
木製のモデルをルールに分解する方法を書きますが、それが何か?
実際、私の投稿はすでにすべてを示している。

それとも、私の古い投稿のことを言っているのですか?もしそうなら、私は超治癒特性を発見した分割では、モデルを与えることができないプラスがあります。

1.モデルの次元を大幅に減らすことができます。



2.各規則の統計を知ることができる(これは本当に重要です)。

例えば、100のルールからなる木製のモデルがあったとして、各ルールが100のルールの中で1回だけ働いたのか(パターンがない)、10個のルールが50回働いたのか(パターンがある)、全くわからない。
模型を壊さなければわからないし、どちらの模型も私たちにとっては同じである。

 
mytarmailS #:
どうだろう、本当に書くことがない。
木製の模型をどうやってルールに落とし込むかは書くよ。
基本的に、私の投稿がすでにすべてを示している。

それとも、私の古い記事のことですか?もしそうなら、私は超治癒特性を発見した分割で、モデルを与えることができないプラスがあります。

1.モデルの次元を大幅に減らすことができる。



2.各規則の統計を知ることができる(これは本当に重要です)。

例えば、100のルールからなる木製のモデルがあったとして、各ルールが100のルールの中で1回だけ働いたのか(パターンがない)、10個のルールが50回働いたのか(パターンがある)、全くわからない。
もしモデルを壊さなければ、私たちはそれを知ることができず、どちらのモデルも私たちにとっては同じである。

さて、ツリーでは通常、各特徴の各観測の影響力、モデルへの貢献度を、シャップ値などで計算することができる。もし有用なものだけを残し、それだけで何かを訓練すれば、ルール探索の近似的なアナログが得られるだろう。ちなみにニューロンでも可能だ。

ルールだけが唯一の有用なものになるのは理解しがたい。、、、、、巨巨人ではののの巨人のののののののののののののののののののののののさんのさんのさんのさんのさんのさんのさんのさんのさんのさんのさんのさんのーでしょう。シャップ値も解釈しやすいが。
 
Maxim Dmitrievsky #:
ツリーでは通常、各形質の各観測の影響力、モデルへの貢献度を、例えばシャップ値を通して計算することができます。有用なものだけを残し、それだけで何かを訓練すれば、ルール探索の近似的なアナログが得られる。ちなみにニューロンでも可能だ。

ルールだけが唯一の有用なものになるのは理解しがたい。結果の解釈性のためかもしれない。シャップ値も解釈可能性は高いが。
各特徴の影響力、各観測の影響力、各ルールの影響力はすべて異なる
 
mytarmailS #:
各特徴のインパクト、各観測のインパクト、各ルールのインパクトはすべて異なる
ルールは特徴とラベルを結びつけるモデルの要素である。ただ、ニューラルネットワークには不連続性がないが、人工的に作ることはできる。

私が言いたいのは、ルール(パイプを意味ありげに吸うこと)にあまり意味を見出せないということだ。
 
Maxim Dmitrievsky #:
ルールとは、属性とラベルを結びつけるモデルの要素である。ただひとつ、ニューラルネットワークには不連続性がないが、人工的に作ることはできる。

私が言いたいのは、ルールにはあまり意味がないということだ。

ハバロフスクから試してみる。


どんなモデルも、あるパターンの総体であり、大げさに言えば、あるパターンをTSとしてラベル付けすることができる。


あるモデルが100のTCから構成されているとしよう。


モデルその1では、100人のTSが1つの取引をした。

パターン#2では、1人のTSが100回の取引を行い、他の99人は1回も取引を行わなかったということもあり得る。


各TSの統計量を計算 するには ?

モデルがルール・モデルであれば、簡単で明快である。

モデルがニューラル・モデルの場合は?

 
mytarmailS #:

ハバロフスクの近くからやってみるよ。

モデルがニューロンなら?

/\
!
!

あなたとサンシュは同じスタジオで働いているのでは?
あなたはNSがよく予測できる例を選ぶ。そのNSにだけ別のNSをトレーニングする。それを何度か繰り返す。何回か繰り返せば、最高の「ルール」を持つNSが出来上がる。

これも簡単で、理解不能とは言わない。
 
Maxim Dmitrievsky #:

NSがうまく予測できる例を選ぶ。その例だけで別のNSを訓練する。これを好みに応じて何度か繰り返す。何回か繰り返した後、最も良い「ルール」を持つNSが得られる。
さて、neuronkaがよく予測するサブサンプルができたが、このサブサンプルのパターンが1つなのか、2つなのか、20個なのか、どうやってわかるのだろうか?本当に違いがわからないのか?

 
mytarmailS #:
では、ニューロニューロミクスがうまく予測できるサブサンプルがあったとして、そのサブサンプルのパターンが1つなのか、2つなのか、それとも20なのか、どうしてわかるんですか?本当に違いがわからないのか?

残っている例の数でわかる。パターンの数だけ例がある。これはおおよそのルールであって、厳密なルールと同じだとは言っていない。でも、サンプルをさらに分割して、パターンごとに完全に分割することまではできる。
 
Maxim Dmitrievsky #:
残された例の数だけ。パターンの数だけ例がある。
200の例があっても、パターンは5つしかない。
例はパターンではなく、例は1つの観察である。
 
mytarmailS #:
200の例があっても、パターンは5つしかない。
例はパターンではなく、例は1つの観察である。
もし誤差がすでに小さくなっているか、ゼロに等しいなら、残りの例を近さの尺度によってパターンに分けることができる。)例えばクラスタリング。そして、いくつ残っているかを数える。そして、各パターン/クラスターについて平均化された条件(クラスターの中心を取る)を書いても、出力規則が得られる。
理由: