FR H-Volatility - ページ 10

 

特に早い段階で、恣意性の芽生えをどう捉えたらいいのか分からない。

ネットワークの入力は、WPのN番目のセグメント、出力はWPの最後のセグメントでなければならない。そして、適切なネットワーク構成、適切な活性化関数の選択、そして成功した学習により、N個の最後のセグメントだけが入力に与えられると、ネットワークはこれらのN個と次の(つまり次の)セグメントを同様に回復するようになるのです。その方向性をいじることはなく、そのままクリアーなのですが、サイズ ...

そこから何か生まれるかもしれない。

 
Yurixx:

特に早い段階で、恣意性の芽生えをどう捉えたらいいのか分からない。

ネットワークの入力は、WPのN番目のセグメント、出力はWPの最後のセグメントでなければならない。そして、適切なネットワーク構成、適切な活性化関数の選択、そして成功した学習により、N個の最後のセグメントだけが入力に与えられると、ネットワークはこれらのN個と次の(つまり次の)セグメントを同様に回復するようになるのです。その方向性をいじることはなく、そのままクリアーなのですが、サイズ ...

そこから何か生まれるかもしれない。


また、ジグザグは絶対と相対、どちらの形が良いのでしょうか? そして、正規化が必要でしょうか? コウホネン層とグロスバーグの星が欲しいと思っています。間違っているかもしれませんが。
 
Vinin:
...コホネンレイヤーとグロスバーグの星が欲しいところですね。

そして名誉勲章)
Vinin、 グロスバーグの星って何?

Yurixx、この場合のNSブロック図を提案してください。 考えてみたいと思います。

 
Neutron:
ヴィン
...コホネン層とグロスバーグの星が求めているのだと思います。

そして、名誉勲章:-)
ヴィン、 これはどんな星なんだ?

Yurixx, この場合のNSブロック図を任意で提案してください。 考えたいと思います。


ここら辺が目安ですhttp://ann.hotmail.ru/vs03.htm

でも、繰り返しますが(もう私ではありませんが)、引用だけです。

カウンタープロパゲーションネットワークの学習において、入力ベクトルは対応する出力ベクトルと関連付けられる。 これらのベクトルは2値または連続である。学習後、入力信号に対応した出力信号を生成する。 ネットワークの一般性により、入力ベクトルが不完全であったり歪んでいたりしても、正しい出力を得ることが可能である。
学習モードでは、入力信号をネットワークに与え、ネットワークが所望の出力信号を生成するように重みを補正する。
コウホネン層は、「勝者総取り」の法則で機能する。与えられた入力ベクトルに対して、この層の1つのニューロンだけが論理的な1を生成し、他のすべては0を生成する。各コホネンニューロンの出力は、入力信号の重み付け要素の和に過ぎない。
また、グロスバーグ層のニューロンの出力は、コホネン層のニューロンの出力の加重和となる。しかし、グロスバーグ層の各ニューロンは、このニューロンと出力が0でない唯一のコホネンニューロンとを接続する重みを生成する。
前処理段階において、入力信号は入力ベクトルに対して正規化される。
学習段階では、コホネン層が入力ベクトルを類似のグループに分類する。これは、類似の入力ベクトルが層の同じニューロンを活性化するように、コホネン層の重みを調整することで行われる。コホーネン層は教師なしで学習するため、特定の入力信号でどのニューロン|が活性化されるかを事前に予測することは困難である。
そして、グロスバーグ層のタスクは、目的の出力を生成することである。グロスバーグ層の学習は教師支援学習である。 ニューロンの出力は通常の動作と同様に計算され、各重みは出力が0でないコホネンニューロンに接続されている場合のみ修正される。重み補正の量は、重みとグロスバーグニューロンの所望の出力との差に比例する。
ネットワーク動作モードでは、入力信号が提示され、出力信号が生成されます。
フルカウンタープロパゲーションネットワークモデルでは、入力信号から出力信号を生成することも、その逆も可能である。この2つの動作は、信号の前方伝播と後方伝播に対応します。

 
Vinin:
また、ジグザグは絶対と相対、どちらの形で送り込むのが良いのでしょうか? そして、正規化は必要でしょうか?コウホネン層とグロスベルグ星を呼んでいるのだと思います。間違っているかもしれませんが。

ニュートロン

Yurixx, この場合のNSブロック図を任意に提案してください。 考えたいと思います。


フローチャートを提示できない。この思想の歴史は次のようなものである。

当初は、NSはコホーネンとグロスバーグの2層構造であるべきだと考えていました。問題は、加賀の場合、各セグメントが1〜50の任意のサイズになることである。そうすると、Kohonen層(クラスタリング前)の最大ニューロン数は50^Nとなる。多いですね。だから、Renkoを考えていたんです。H=10では、ZZのアナログセグメントの大きさは1から5まで変化する。これは、わずか5^Nニューロンであり、Nの小さな値ではすでに許容範囲内です。また、5Hより大きいセグメントはすべて5Hでクリップすることができます。

次に、コホーネン層がパターンを認識し、対応するニューロンを励起する。ZZの最後のセグメント(このNには含まれない)は、グロスバーグ層に供給される。グロスバーグ層には、例えば100個のニューロンがあり、それぞれが最後のZZセグメントの1〜100のサイズに対応する。こうしてグロスバーグ層の神経細胞が励起される。学習中、励起されたコホーネンニューロンからグロスバーグ層の励起ニューロンへの接続の重みが1増加するため、カウンタープロパゲーションネットワークではありません。でも、それが私の「計画」だったのです :-))

そして、WPを入力する訓練をした後、グロスバーグレイヤーは、将来のWPセグメントの分布関数を出力で示すだけだということに気づきました。基本的にはそれを目指していました。しかし、ここで2つの「でも」があります。

1.このようなディストリビューションをNSなしでもっと速く構築することができます。

2.約2年間のミニュチュアの歴史は、約630000本のバーを含んでいます。パラメータH=10のKagi ZZの履歴は約17400セグメントである。そして、N=6のコホネン層のニューロン数は15625となり、つまり、すべてのパターンに対して平均1.1個の実験値が存在することになる。どのような配信なのでしょうか?:-)

このように、連子分割への移行に伴うクラスタリングは悲惨なほど不十分なのです。コウホネン層を利用してFPをクラスタリングするか、あるいは(より可能性の高い)より建設的なアイデアに移行する必要があります。

追記

世間知らずの私を厳しく批判しないでください。私のネットワークに関する経験は、1.5冊の本を読んで実装なしです。

 

まずは一番簡単なものから始めてみてはいかがでしょうか。ZZを1つの頂点からなる初歩的な構成に分割してみよう。この場合、17400個の構造があり、「アスペクト比」に基づいて、(ステップH=10で)50/2H*10=25のグループに分けられる(約)。つまり、1つのグループには数百のパターンがあり、すでに統計となっているのです。

あとは、これをNSに書き込んで、予測移動長(緑ベクトルからHを引いた値)のFRが、左マージンの値によってどう変わるかを調べるだけである。ただし、同僚たち、NSはこの問題にはあまり必要ないんだ。それとも、何か見落としているのでしょうか?

追伸:右の図は、ある頂点におけるZZのアスペクト比のPDを示したものです。EURUSD(ティック)のH=5,10,15,20pipsの構図です。正規化という考え方は正しいようで、入力データの次元を顕著に減らすことができます。

 
Neutron:

あとはこれをNSに突っ込んで、予測される運動長(緑のベクトルからHを引いた値)のFRが、左側のエッジの値によってどう変わるかを考えるだけです。ただし、同僚たち、NSはこの問題にはあまり必要ないんだ。それとも、何か見落としているのでしょうか?

追伸:右の図は、ZZ側比率のPDを1つの頂点で示したものです。正規化という考え方は正しいようで、入力データの次元を顕著に減らすことができます。


その際にもNSは必要ないと思います。また、正規化オプションは有効なようですね、私には思いつきませんでした。
 

ニュートロン

何を作ったのかがわからない。FR(分布関数)は少し違って見えるはずですhttps://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9

もしかしてSP(確率密度関数)?もしそうなら、もう少し詳しく、右のグラフの内容(X軸とY軸に何があるか)を繰り返して教えてください。

 

to Prival

n回の計算(ジグザグの右辺の長さを左辺の長さの単位で表す)を行い、ある値の集合x1,...,xi,...,xnを得ました。これがいわゆるサンプルです。横軸にxの値xiをプロットする。x軸を等間隔dxに区切り、x値が区間xk+-1/2dx(ここでxkはx軸上の区間の中心の座標)になる計算の回数nkを数える。各区間に、高さnk、幅dxの長方形を作成する。こうして得られた図をヒストグラムと呼びます。計算結果の分布の密度をX軸に沿って表示したものです。

計算回数が多い場合は、区間幅を小さくする(各区間のサンプル数を多くする)ことが可能です。そうすると、ヒストグラムの代わりに、各区間に入るnk/n個のサンプルの割合に比例した値が縦軸にプロットされたグラフが得られます。このグラフは分布曲線または分布関数と呼ばれ、関数自体は確率密度関数と 呼ばれます。

追伸:PDFは正規化してもよく、その場合、全範囲の積分は同一に1になります。

 

ニュートロン

ありがとうございます。今、わかりました。PDFには3つの性質があるため、PDF(分布関数)ではなく、確率密度関数(PDF)を作成したに過ぎません。1.(PDF)は非減少性である。2.xが無限大になる場合、PDFは1になる。すべてが正常化されれば当然。SPとPDFは積分の関係にある(PDFはSPの積分である)。

このグラフを分布曲線または分布関数といい、関数そのものを確率密度関数という。" は、ちょっと違いますね。

理由: