市場のエチケット、あるいは地雷原でのマナー - ページ 10

 

こんにちは、paralocusさん、ここから始めても大丈夫だと思います。

ところで、興味のある皆さんへ:「損失を確定して利益を伸ばす」または「利益を確定して損失を伸ばす」戦略(市場がトレンドか横ばいか、選択した取引期間によって異なる)は、資本を再投資する際には最適ではありません。この場合、再投資で各ステップに固定する方が得策ですすなわち、10回連続して利益を得る取引があれば、1つのポジションをずっと維持してスプレッドを節約するよりも、証券会社に手数料を支払って再投資する方が得策である。

これはパラドックスであり、そこから取引のバーヌル化、そしてその後、パラメータ化の問題なしに(ヴィンスとは異なり)分析的な形での取引の基本方程式の有効活用に至ることはそう遠いことではない。

 
Neutron >> :

こんにちは、paralocusさん、そこから始めても大丈夫だと思います。


ありがとうございました。

第1層である入力にパーセプトロン(今のところ3つ)をかけています。層の構成は以下の通りです。

RSIに1つ、CCIに1つ、ストキャスティックに1つのパーセプトロンがあります。すべての入力と出力は正規化(-1 ; +1)されている。パーセプトロンは、遺伝学者によって、最も単純なスキームである分割で学習されます。

ここで、2つのパーセプトロンからなる2層目を追加したいと思います。1つは「買い」だけ、もう1つは「売り」だけについて学習させたものです。質問です。

第2層のパーセプトロンは、第1層の同じデータを使いながら、いわばそれぞれの得意分野で学習させるだけでいいのか、それとも

第1層のパーセプトロンも、買い用と売り用を別々に学習させる必要があるのですね。

 
paralocus писал(а)>>

ありがとうございました。

そんなことないですよー。

パラローカス、NSは要するに万能加算器であり、出力層のニューロンを売りか買いか個別にシャープにしようが、ハイパータンジェント活性化で単一のニューロンから第3層を構築し、その出力極性が売りか買いかを指し、振幅が成功確率(中のネットワークの確からしさ)になるという違いは数学的にはないのですね。この観点から、第1層のニューロンを無理に特化する必要はなく、学習の過程で決定されること、2層から3層アーキテクチャに移行してもNSの演算能力は(一部の特殊なケースを除いて)増加しないこと、学習サンプルの長さはネットワークの全重みの2乗に比例すること(市場イベントへの運用上の対応から、できればサンプルも最小限にすべき)、またオッカムのカミソリ原則(不必要に大きくなる必要はない)などを考慮し、第2層は、第2層のニューロンを特化することとしました。

追伸:そう、NSの入力信号の確率密度が期待値ゼロで、区間±1に等しく分布していることが重要です(棚)。これにより、ネットワークの学習とパフォーマンスが著しく向上します。

 
Neutron >> :

まだだ!

パラロカス 君、NSは要するに万能加算器であって、数学的には出力層のニューロンを売りか買いか個別にシャープにしても、第3層を超接線活性化の単一ニューロンから作っても、その極性の出力が売りか買いかを指し、振幅が成功確率(ネットワークの信頼度)になるという違いはないのだよ。この観点から、第1層のニューロンは無理に特化する必要はなく、学習の過程で決定される。また、2層から3層アーキテクチャに移行してもNSの演算能力は(一部の特殊なケースを除いて)増加しないこと、学習サンプルの長さはネットワークの全重みの2乗に比例すること(市場イベントへの運用対応上、できればサンプルは最小限にすべき)、さらにオッカムのカミソリ原則(不必要に大きく太る必要はない)を考慮に入れて、第1層のニューロンは、2層のネットワークから、3層のネットワークのネットワークに変更することもできる。

追伸:そう、NSの入力信号の確率密度が期待値ゼロで、区間±1に等しく分布していることが重要です(棚)。これにより、ネットワークの学習とパフォーマンスが著しく向上します。

えー!明確なものもありますが、新しいものが多いですねー。見落としがないように、順次聞いていきますので...。

1.NSは実は万能加算器であり、出力層のニューロンを売りか買いか個別に鋭くしても、ハイパータンジェント活性化で1つのニューロンから第3層を構築しても、数学的にはほとんど違いはなく、その出力極性は買いか売りを指し、振幅は成功確率(それに対するネットワークの確信)になります。

加算器については理解できましたが、ハイパータンジェント活性化を持つニューロンについては、どのような獣なのでしょうか?入出力をシグモイドで正規化し、入出力の信号が正しいかどうか(-1 << 最大値、最小値 < +1)確認するために、ペルセプトロンインジケータを少し作り直しました。つまり、3つの入力ニューロンを取り、その出力を4番目のニューロン(超接線活性化)に与える。その出力は、指定された方向(活性極性に向かって)の取引の成功結果の確率的推定値として絶対に透明であることができる...。だろう?


2.この点から、第1層のニューロンを無理に特化させる必要はなく、学習の過程で自ら決定していきます

つまり、入力層のニューロンは、単純に入力データを「右」と「左」に分けるように学習させればよいのである。 トレーニングの過程で決定 される」というのが少しわかりにくいのですが、出力ニューロンのハイパータンジェントのトレーニングということでしょうか、それとも出力ニューロンと入力ニューロンのすべてを一度にトレーニングするのでしょうか?一度に全部を最適化すると、遺伝学者が8個以上のパラメータを同時に最適化することを許さない。一方、このようなグリッドには少なくとも12個のパラメータがある(・・・七面鳥のパラメータは除く) - どうすればいいのだろう?まず入力パラメータをそれぞれ別々に学習し、次に出力パラメータだけを別々に学習すると(今やっています)、間違いはないのでしょうか?


3.学習サンプルの長さは、ネットの全重みの2乗に比例すること(また、市場イベントに迅速に対応するために、可能であればサンプルは最小でなければならない)。

どうですか?ネットワークのすべての重みを2乗して、その2乗を合計すると、学習サンプルの長さは何に比例するのでしょうか?

ロングサンプルの有用性については、すでに知っていることですが、私はいわば「科学的試行錯誤」でやってきたのです。2008.12.02という日付も見つけたのですが、この日付から始まるデータは、実際の市場力学と相関がなく、グリッドには全く役に立ちません。


4.最適な選択肢は、隠れ層と出力ニューロンが1つずつある2層NSと思われます。

ここで、ちょっとわからないことが......。ニューロンの入力層、ニューロンの出力層、ニューロンの隠れ層があれば、それはもう3つです。では、なぜ2層のネットワークがあるのでしょうか?


5.そうですね、NSの入力確率密度が期待値ゼロで、±1区間に一様に分布していることが重要です(棚)。これにより、ネットワークの学習効率と性能が大幅に向上します。

私自身、入力信号の正規化の必要性は(直感的に)理解しているので、出力が同じ形になるように入力信号を変換していますが、その範囲は-/+1です。しかし、正規化されたRSIの確率密度はどのように分布しているのでしょうか?例えば、私のRSIニューロンの入力信号は次のようなものです。


これでいいのか、それとも他に何か必要なものがあるのか?

P/S カミソリでもいいんです、要は何を切ればいいのかがわかればいいんです...:-)

 
paralocus писал(а)>>

1.加算器やハイパータンジェント活性化ニューロンについては理解できたが、それはどういうものなのか?入出力をシグモイドで正規化し、入出力の信号が正しい(-1<最大、最小<+1)ことを確認するために、ペルセプトロンのインジケータを少し書き直しました。つまり、3つの入力ニューロンを取り、その出力を4番目のニューロン(超接線活性化)に与える。その出力は、指定された方向(活性極性に向かって)の取引の成功結果の確率的推定値として絶対に透明であることができる ...。だろう?

これはニューロンで、その活性化関数(FA)は双曲線正接(値の範囲は±1)です - これは売買取引の決定をするのに便利で、|FA|<const|なら市場から退出します。

NSニューロンはすべて非線形FAでなければならない(いくつかの例外を除いて-最後の1つを除いて)。学習速度以外、FAの具体的な種類に依存するものはない。

2.この点から、第1層のニューロンを無理に特殊化する必要はなく、訓練の過程で自ら決定していくことになる。

つまり、入力層のニューロンは、単純に入力データを「右」と「左」に分けるように学習させればよいのである。トレーニングの過程で決定 される」というのが少しわかりにくいのですが、出力ニューロンのハイパータンジェントのトレーニングということでしょうか、それとも出力・入力ニューロンすべてのトレーニングということでしょうか?一度に全部を最適化すると、遺伝学者が8個以上のパラメータを同時に最適化することを許さない。一方、このようなグリッドには少なくとも12個のパラメータがある(・・・七面鳥のパラメータは除く) - どうすればいいのだろう?まず、入力パラメータをそれぞれ別々に学習し、その後、出力パラメータだけを学習する(今やっていることです)と、間違いになるのでしょうか?

もちろん、一度に全部を鍛えなければ、木っ端微塵になってしまうという問題もあります。遺伝子を扱ったことがないので、どうしようもない。

3.学習サンプルの長さがネットの全重みの二乗に比例すること(市場イベントへの迅速な対応のため、可能であればサンプルは最小であるべき)。

どうですか?ネットワークの重みをすべて二乗し、その二乗を足してトレーニングセットの長さを求める?

近似誤差と汎化誤差の和が最小となる最適な学習セット Pの 長さが存在する。この最適値は、ネットワークのシナプス数wと 入力の次元d(ネットワークの入力数)によって一意に決定される。

Popt=k*w*w/d、 ここでkは 1次の無次元定数で、市場の変動という事実を考慮したものである。

最適化の基準は,テストデータと学習データの誤差が一致することである.すなわち,通常学習したネットが55%正しく推測できれば,新しいデータに対するテストでもほぼ同じ結果を示すだろう.さらに、このようなNSでは、ORO法における反復回数の増加に伴う再トレーニングの問題がないこと、誤差の局所最小値がないこと、関数が瞬間的で漸近的に定数になることなどが挙げられる。

4.最適な変形は、1つの隠れ層と1つの出力ニューロンを持つ2層NSに見える。

ここで私はついていけません...。ニューロンの入力層、ニューロンの出力層、ニューロンの隠れ層があれば、それはもう3つです。では、なぜネットワークが2層構造になっているのでしょうか。

用語の問題である。入力層を特別視しているわけではありません。したがって、入力層(別名、隠れ層)と出力層(単一ニューロンで構成)の2層しかないNSのことを指していました。

しかし、正規化RSIの確率密度はどのように分布しているのでしょうか?これでいいのか、それとも他に何か必要なものがあるのか。

どうだろう。RSIの最初の差分系列の確率密度分布をプロットし、グラフを見る必要があります - 最大振幅±1の棚があるはずです。

 
Neutron писал(а)>>

私は、入力層を特別視しているわけではありません。ですから、入力層(隠れ層でもある)と出力層(1つのニューロンで構成)の2層しかないNSのことを指していました。

ネットワークは、第1層に複数の並列パーセプトロン、出力層に1つのパーセプトロンからなり、出力パーセプトロンの入力数は、第1層のパーセプトロンの数と同じということですね。

 
Neutron >> :

もちろん、全員を一度に訓練しなければ、「森の中と森の外」という問題が発生します。私は遺伝学者と取引したことがないので、そこはどうしようもないのですが。


ほらね!そして、後日、セルフトレーニング用のメッシュに「改良」したいと思っていたのですが...。

得られた答えを消化する...>> 理解したことを絵にする

 
FION писал(а)>>

ネットワークは、第1層に複数の並列パーセプトロン、出力層に1つのパーセプトロンで構成され、出力パーセプトロンの入力数は第1層のパーセプトロンの数と同じということですね。

そうなんです。

しかし、各パーセプトロンの入力には、一定の+1オフセットが別途追加入力されています。これにより、学習のスピードアップとネットワークのパワーアップを実現しています。

 
Neutron писал(а)>>

そうなんです。

しかし、各パーセプトロンの入力には、一定の+1オフセットの入力が別に追加されている。これにより、学習のスピードアップとネットワークのパワーアップを実現しています。

なるほど。定数オフセットは、ハイパータンジェントカーブ上の活性化点をわずかにずらすだけです。

 

Neutron さんが書き込みました>>。


ここでわかったことがある。

ハイパータンジェントが整理される。今まではシグモイドを使っていて、結果から1を引いていたのですが、thではそれが必要ありません。私が理解した限りでは、この図は、市場に対するNSの最適なアーキテクチャを示しています。入力の数は12、シナプスの数は4であるから、Popt=k*w*w/dの 式で144/4=36となる...。これは36本ですか?またはBuy/Sellに近い36の状況?うまくいったかな?