トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3

 

同じ入力を投げ出すという路線もありでしょう。それぞれの列について、互いの平均偏差を計算する。こうすることで、最も似ている2つの列を見つけ、そのうちの1つを捨てることができる。どちらが、全列の平均偏差でカウントできるのか、など。

 
Dr.トレーダー

目視では、すべてのウェイトが2つのグループに分かれています。意義があるかないかで分けるなら、5、11、7、1、3、9が明らかに目立つので、このセットで十分だと思います。

それは正しい判断です!

NSにそんなことができるなんて。それは、私にとっての天啓です。

NSでは、相互作用のシミュレーションができることがわかりました。

賞品の恩返しです。ありがとうございました。

 

たしかにNSではパターンの種類はわからない。つまり、モデルの解釈可能性に問題があるのです。

データセットを作成するロジックは後ほど掲載し、依存関係の種類についてもお話しします。

 
Dr.トレーダー

目視では、すべてのウェイトが2つのグループに分かれています。意義の有無で分けるなら、5,11,7,1,3,9が明らかに目立つので、このセットで十分だと思います。

もし興味があれば、データセットから有意な予測因子を削除し、NSを再トレーニングし、重みをつけて画像を出力してみてください。サプライズがあると思います。

これはもう、課題から外れています。話題を育てるために。

 
Alexey Burnakov:

もし興味があれば、データセットから何か一つでも有意な予測因子を取り除き、NSを再トレーニングして重みの画像を表示させてみてください。サプライズがあると思います。

これはもう論外ですね。話題を育てるために。

コンロは、そうでないところから常に踊らされるという意味で、インテリアの中でも非常に重要なパーツです。

Dr.トレーダー

NSの例では、NSはあなたが挙げた予測因子をより好み、他のものを好まなかったというだけのことです。そのようなことをするアルゴリズムは、いくらでもある。

このような選択が、ターゲット変数に関連し、予測力、予測能力を持つ予測変数の間でなされるなら、すべて問題ないでしょう。

私の実務では、任意の予測変数の集合の中に、対象変数と関係のない(あるいは非常に弱い)予測変数が常に存在します。つまり、このようなノイズ予測因子の数やその値のランダムな選択があると、NSを含むほとんどのアルゴリズムでは、ノイズ予測因子の中から有益な予測因子を区別することができないという落とし穴がある。

そこで、「縦割り」とは、まず、絶望的でノイズの多い予測変数の初期セットをクリアにし、次に...という行動と定義する。

PS.

NSは扱ったことがないのですが、ランダムフォレストは、ある程度のノイズ予測変数があると、内蔵されたアルゴリズムに従って、情報量の多い予測変数を破棄する傾向があるそうです。その結果、ノイズに対して誤差5%以下という驚異的な性能を発揮します。

SARP

ノイズ予測因子が存在すると、必然的にモデルの再トレーニングが必要となり、それが実世界に与える影響も大きくなる

 
サンサニッチ・フォメンコ

ストーブは、常にその周りを踊るという意味で、インテリアの中でも非常に重要な存在です。

Dr.トレーダー

NSの例では、NSはあなたが挙げた予測因子をより好み、他のものを好まなかったというだけのことです。そのようなことをするアルゴリズムは、いくらでもある。

このような選択が、ターゲット変数に関連し、予測力、予測能力を持つ予測変数の間でなされるなら、すべて問題ないでしょう。

私の実務では、任意の予測変数の集合の中に、対象変数と関係のない(あるいは非常に弱い)予測変数が常に存在します。つまり、このようなノイズ予測因子の数やその値のランダムな選択があると、NSを含むほとんどのアルゴリズムでは、ノイズ予測因子の中から有益な予測因子を区別することができないという落とし穴がある。

そこで、「縦割り」とは、まず、絶望的でノイズの多い予測変数の初期セットをクリアにし、次に...という行動と定義する。

PS.

NSは扱ったことがないのですが、ランダムフォレストは、ある程度のノイズ予測変数があると、内蔵されたアルゴリズムに従って、情報量の多い予測変数を破棄する傾向があるそうです。その結果、ノイズに対して誤差5%以下という驚異的な性能を発揮します。

SARP

ノイズ予測因子が存在すると、必然的にモデルの再トレーニングが必要となり、その結果、現実の

NSは非常によくやった。

ランダムフォレストは、変数の集合の相互作用でそのようなタスクを処理することができませんでした。そして、各予測変数の個別有意性は意図的にゼロとした。

 

うまくいってよかったです :)賞品をありがとうございました。

input_5やinput_9を削除すると、他のものは動作しません。同じ構成のneuronicsは50%以下の誤差で学習することさえできず、より大きなケースで0か1のどちらかを出力するようになります。

input_20を削除すると、すべてがうまくいき、結果も正しくなります。しかし、input_15については、おかしなことに、それを削除すると、ニューロンは正しく学習することさえできません。それ以上のテストはしていない。

ニューロンを学習させるためのRコードも添付します。基本的にはラトルさんのログを少し修正しただけのコードです。

ファイル:
r_nnet.zip  3 kb
 
Dr.トレーダー

うまくいってよかったです :)賞品をありがとうございました。

input_5やinput_9を削除すると、他のものは動作しません。同じ構成のneuronicsは50%以下の誤差で学習することさえできず、より大きなケースで0か1のどちらかを出力し始めます。

input_20を削除すると、すべてがうまくいき、結果も正しくなります。しかし、input_15については、おかしなことに、それを削除すると、ニューロンは正しく学習することさえできません。それ以上のテストはしていない。

ニューロンを学習させるためのRコードも添付します。基本的にはラトルさんのログを少し修正しただけのコードです。

カード番号または電子財布番号をテキストで送信してください。
 

一般に、神経細胞は利用可能なデータを何らかの論理に当てはめようとするだけで、入力の一部が新しい情報をもたらさない場合は、その影響を最小限に抑え、害を及ぼさないようにします。複雑な入力の相互関係を見つけるのは難しいでしょう。

また、Rのnnetパッケージは、正確には従来のニューラルネットワークではありません。説明からすると、2次学習を使っているはずです。通常、ニューロンでは導関数に応じて重みが変化するが、ここでは導関数の導関数に応じて変化する。そして、学習時には、すべての学習例に対するすべての重みに関する重要なデータを一度に格納する「ヘシアン」行列のようなものが構築される。https://ru.wikipedia.org/wiki/Алгоритм_Бройдена_-_Флетчера_-_Гольдфарба_-_Шанно - 私には理解できませんが、誰かが数学者であるならば、それを理解することです。

Алгоритм Бройдена — Флетчера — Гольдфарба — Шанно — Википедия
  • ru.wikipedia.org
Алгоритм Бройдена — Флетчера — Гольдфарба — Шанно (BFGS) (англ. Broyden — Fletcher — Goldfarb — Shanno algorithm) — итерационный метод численной оптимизации, предназначенный для нахождения локального максимума/минимума нелинейного функционала без ограничений. BFGS — один из наиболее широко применяемых квазиньютоновских методов. В...
 
不思議な結果について。
重要な予測因子を取り除くと、何も機能しなくなる。これがインタラクションです。

各予測器は、出力の状態について何も語らない。だから、個々の有意性を考慮したアルゴリズムはうまくいきません。また、決定木やランダムフォレストも、予測因子を個別に見ているため、ほぼ間違いなく機能しないでしょう。しかし、何万本もの木からなる巨大な森では、重要な予測因子を誤って一つの枝に合体させてしまい、すべてがうまくいってしまうことがあります。しかし、それはありえないことです。

なぜダメなのか?

相互作用は、多くの予測因子から一緒に出力に流れる情報である。依存性アルゴリズムは、有意な予測変数の合計が50/50の偶数または奇数になるようなものである。それが偶数なら出力は1であり,そうでなければ0である.だから,少なくとも1つの有意な予測変数を除去すると,依存性が壊れる.また、余分な予測因子を加えるとノイズが多くなり、統計的検定で有意差が出ないこともあります。

従来のNSがそのような関係を見抜けたことに、本当に驚いています。今、私はMLPが意味のある入力を検出する能力を信じ始めています。イエーイ。

すべてにおいて、その場にぴったりと合っていますね。ランダムフォレストを学習させようとすると、ほぼ間違いなくうまくいきません。

ロジスティック 回帰が失敗するのも確かです。

要するに、この問題に適したフィットネス関数を持つ予測因子の異なるサブセットを確率的に列挙する必要があるのです。またはNS )))

後日、私の方法を掲載します。

もしかしたら、他の人が別の方法で予測変数の選択を試して、その結果を比較できるようになるかもしれませんね。

理由: