トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 363

 
マキシム・ドミトリエフスキー

なぜそんなに狭く考えるのか、ここのみんなはニンジンより甘いものを見たことがないかのように書いている ))予測因子なんてクソくらえ、同じ予測因子を見つけるためにニューロンを教え、ニューロンを教えるためにニューロンを教え、実験する :) 当然、ただ指標を取ってジグザグに入力と出力に与えるのは非常に愚かで、なぜ皆がそれを議論しているのか分からない :)

そうしたいけど...

例えば、畳み込みニューラルネットワークは、部分的にそのような「スキル」を持っており、前処理(フィルタリング)を自ら学習することができるが、非常に狭い範囲に特化しており、まるでネオコグニトロン・フォーカスの子孫のように、網膜眼の「アナログ」として設計されて、バックプロップスによって学習する。CNN 実際に写真用も些細なことではないのか。残念ながら、エンジニアリングの観点からは、彼らが自分たちですべてを行うための奇跡のシステムを開発することは、素朴なユートピアであり、特定のタスクのための特別なソリューションを作る方がはるかに簡単で、いずれにしても何年ものチームワークが必要です。

 
アリョーシャ

そうしたいけど...

例えば、畳み込みニューラルネットワークは、部分的にそのような「スキル」を持っており、前処理(フィルタリング)を自ら学習することができるが、非常に狭い範囲に特化しており、まるでネオコグニトロン・フォーカスの子孫のように、網膜眼の「アナログ」として設計されて、バックプロップスによって学習する。CNN 実際に写真用も些細なことではないのか。設定には、魔法の数字とシャーマンのアーキテクチャがたくさんあり、左へのステップ、右へのステップとすべてが壊れ、すなわち、それはタスクの非常に細かい調整ですが、 すべてとすべてのための普遍的なソリューションではありません。 残念ながら、エンジニアリングの観点から、彼らはすべて自分自身を行うだろうと奇跡のシステムを開発するには - ナイーブユートピア、それはとにかくチームワークの年を取ることができ、個々のソリューションを作るためにはるかに簡単で、FTIが何か哲学的、人道に近いです。


しかし、私は、常に完璧に動作するわけではないが、時々は動作する、優れた自己最適化ツールを作ることは可能だと信じている。

しかし、標準的なインジケータとジグザグ出力では明らかに動作しません :)私には子供の遊びにさえ聞こえます。あくまで例としてですが。

 
マキシム・ドミトリエフスキー

相関がないのではなく、サンプルが増えるにつれて矛盾が生じます。つまり、>0.5なら売り、<0.5なら買いということです。正しい(と思う)予測値と正しい答えを設定します。つまり、psiが売られすぎで次のnバーで相場が伸びたら0を出力し、psiが買われすぎで相場が下がったら0を出力するのです。しかし、逆に鈍感になったり、信号が混ざったり、トランス状態になるケースも多いでしょう。その結果、出力は常に0.5前後になり、一方向へのずれは非常に小さくなります...これはすべてのオシレーターに言えることで、彼らは予測因子ではなく、価格から派生しているだけだからです)
0.8以上なら買い、0.2未満なら売りです。そうすれば、レンジの中間に位置するノイズ、つまり約0.5
 
エリブラリウス
0.8以上なら買い、0.2未満なら売りとする必要がある。そうすることで、レンジの中間に位置するノイズ、つまり0.5付近のノイズを除去することができます。

分かってないな)
 
ニューラルネットワークは人工知能であり、どんな思考システムも無駄には動かない...馬鹿じゃないんだ...トレーニングの前にお金を提供したり、売り上げの何パーセントかを約束すれば、本当のパターンを見つけて収入をもたらすようになる...」。
 
NSの話題で盛り上がった方に質問です。
ALGLIBとRでのニューラルネットワーク - 重みは-1から1まで拾えるのか?
 
エリブラリウス

複雑なんです...。上記のK-correlationのように)アルゴリズムを理解して書くよりも時間がかかると思います。すべての入力を試し、相関を計算し、相関の高いものを選別する機能は、2〜3時間かかると思います。

予測因子を選別するための他のソリューションで、同じように簡単になることを期待します)

では、不要な予測因子を見つけるための他の解決策はあるのでしょうか?

こちらも ご覧ください。

予測変数の重要度を推定する際には、それが情報量基準のみによって決定されるのではなく、複雑な値であることを覚えておくことが重要である。記事ではRandomUniformForestを 使った予測変数の選択の例を挙げ、様々な側面から予測変数の重要性を示しました。この目的のために最も成功したパッケージだと私は思っています。

特にニューラルネットワークの場合、予測変数の重要度は第1層の重みで決定することができる。この手法はH2Oで使われています。時間があれば、例を挙げたいと思います。

予測値の重要性に加えて、ノイズ例(文字列)も定義する必要がある。そして、それらを別のクラスに入れるか、トレーニングセットから削除します。NoiseFilterRを 参照

グッドラック

 
エリブラリウス
NSの話題で盛り上がった方に質問です。
ALGLIBとRでのニューラルネットワーク - 重みは-1から1まで拾えるのか?
ウェイトの初期初期化のことですか、それとも?
 

ウラジミール・ペレヴェンコ
私の 記事では、RandomUniformForestを 用いた予測変数の選択の例を挙げ、様々な局面での予測変数の重要性を示しました。

この関数で重要度を計算するアルゴリズムを知り、MQLで類似のものを作ると面白いかもしれませんね。

ウラジミール・ペレヴェンコ

特にニューラルネットワークの場合、予測変数の重要度は第1層での重みで決定される。この手法はH2Oで使われています。時間があれば、例を挙げたいと思います。

私も考えてみました、実装は難しくないですね。

ウラジミール・ペレヴェンコ

予測値の重要性に加えて、ノイズのサンプル(文字列)も定義する必要がある。それらのために別のクラスを作成するか、トレーニングセットからそれらを削除する必要があります。NoiseFilterRを 参照

これは私にとって新しいものです、アイデアをありがとう、考えなければなりません)。


ウラジミール・ペレヴェンコ
スケールの初期初期化のことですか、それとも?
つまり、-1から1までの全範囲でマッチングさせるということです。
Initialはランダムに選ばれるのでしょう(オプションで途中まで)。
 
elibrarius:

この関数の重要度計算のアルゴリズムが分かれば、MQLで類似のものを作ることができ、興味深いです。

私も考えてみました、実装は難しくないですね。

これは私にとって新しいことです、アイデアをありがとう、考えてみます)。



開始点はランダムに選ばれると仮定します(あるいは、範囲の真ん中)。

ニューラルネットワークは、重みの初期化に対して非常に敏感である。これは決して些細な問題ではありません。初期化の方法はいくつかありますが、そのうちの1つ、プリトレーニング(ディープニューラルネットワークで 使用)は最も有望だと思います(IMHO)。

学習中のニューロンの重みは、-infから+infまでの広い範囲の値をとることができる。これらの偏りを防ぐために正則化などの安定化技術が用いられ、重みの範囲が限定される。

グッドラック

理由: