もう一度、理論(一般的な文献ではなく、科学的な理論)をよく読んでみてください。もしかしたら、あなたが見落としている、あるいは考慮していないことが見つかるかもしれません。NeuroShell Day Traderのようなプログラムを使うのに、理論を知る必要はないと考えるのであれば、やるべきことはただ一つ、ニューラルネットワークを 放置することです。
slava1: 1x5x1のネットワークでは、きっと結果は出ないと思います。ネットワークは少なくとも2つの隠れ層を持っていなければならない。ニューラルネットワークの入力には、読み取り値を20の指標に正規化したものを使用しました。そこで、さまざまなトポロジーを試してみました。20х140х140х4で止めました。ネットワークは面倒かもしれませんが、よく解釈されたシグナルを出します。もちろん、規模を拡大することも可能です。将来的には、遺伝的アルゴリズムを使ってトポロジーを選択する予定です。ネットワークの作成と学習の全プロセスはJAVANNSで実行され、学習したネットワークはCコードに変換され、このコードはMetaTraderで使用可能なdllの受信関数の作成に使用されています。以上、大まかな流れを説明しました。だから、1年間続けてきたんです。とても大きな仕事量です。自分でネットワークを作って自分のやり方でやればいいのに、NeuroShell Day Traderのようなツールを使うのは馬鹿らしいと思います。私が話したかったのは、このことではありません。トレーニングサンプルの作成という問題に対するアプローチに興味があります。
とても長い間、何を食べさせたらいいのかがわかっていました。いわば、可能性のあるモデルについて議論したかったのです。共同作業でうまくいくのが普通です。私自身は、1年前からロボットを作っています。結果は出ているが、あまり安定していない。
まあ、1年では足りませんけどね :)
よし、やってみよう!でも、一方通行で自分のものにはならないだろうね。
Atache は x = 4 * (x-1) * (1 - (x-1)) で形成される擬似乱数系列で、x0=0.2 である
何か思い出すことはありますか?第一近似的に、この系列は市場のデータストリームに似ている。
t+1値を予測する。ネットワークアーキテクチャ、MLP1-5-1、入力と出力ニューロンのシナプス結合が追加されている。
二次誤差(10e-3)、学習サンプル1000要素で60-70tエポック程度を達成。学習はantigradient法により行われる。
トポロジーに依存しない配列があれば、誤差は減らないことを、異なるアーキテクチャをモデル化して証明することは非常に簡単です。
は、追加された層数を含むネットワークの複雑さに大きく影響されます。人工的な例や熱の方法を使用してみましょう、結果 - 学習の速度が2.5倍増加し、すなわち、許容誤差が達成される
30~40tのエポック領域で。
ここでは最初の例として、結果を見るために回転させることができます ...
以前から何を塗ればいいのか分かっていました。いわば、可能性のあるモデルについて議論したかったのです。一緒にやれば、たいていうまくいくんです。私自身は、1年前からロボットを作っています。結果は出ているが、あまり安定していない。
また、モデルについては、すでに述べたように、レシェトフの実装の説明のほうを見てください。そう、そして聖杯を探すな、それは存在しないのだ;)
以前から、何をどこに食べさせたらいいのか、わかっていたんです。いわば、可能性のあるモデルについて議論したかったのです。普段は一緒に仕事をした方がいいんです。私自身は、1年前からロボットを作っています。結果は出ているが、あまり安定していない。
もう一度、理論(一般的な文献ではなく、科学的な理論)をよく読んでみてください。もしかしたら、あなたが見落としている、あるいは考慮していないことが見つかるかもしれません。NeuroShell Day Traderのようなプログラムを使うのに、理論を知る必要はないと考えるのであれば、やるべきことはただ一つ、ニューラルネットワークを 放置することです。
では、失礼します。
1x5x1のネットワークでは、きっと結果は出ないと思います。ネットワークは少なくとも2つの隠れ層を持っていなければならない。ニューラルネットワークの入力には、読み取り値を20の指標に正規化したものを使用しました。そこで、さまざまなトポロジーを試してみました。20х140х140х4で止めました。ネットワークは面倒かもしれませんが、よく解釈されたシグナルを出します。もちろん、規模を拡大することも可能です。将来的には、遺伝的アルゴリズムを使ってトポロジーを選択する予定です。ネットワークの作成と学習の全プロセスはJAVANNSで実行され、学習したネットワークはCコードに変換され、このコードはMetaTraderで使用可能なdllの受信関数の作成に使用されています。以上、大まかな流れを説明しました。だから、1年間続けてきたんです。とても大きな仕事量です。自分でネットワークを作って自分のやり方でやればいいのに、NeuroShell Day Traderのようなツールを使うのは馬鹿らしいと思います。私が話したかったのは、このことではありません。トレーニングサンプルの作成という問題に対するアプローチに興味があります。
学習用サンプルは、入力に投入するものです。この場合、20個のインジケータを供給していることになります。指標とは何かというと、最初の時系列 である価格系列{H,L,O,C}を加工したものである。TAで使われる指標を数学的な観点から考えると、MAが最もシンプルな周波数フィルタであるなど、数学的手法の一群を区別することができますが、古典的なTA手法で作成したデータがニューラルネットワークに最適であると誰が言ったのでしょう。逆に言えば、実質的に不向きとさえ言えるでしょう。無駄に擬似ランダムなf-ziを外挿するために構築された浅いネットワークの例を出したわけではありません。
もう少し調べると、非常に興味深い性質がいくつも見つかり、学習用サンプルの準備も少し違った見方ができるようになるはずです。引用の流れは、複雑な法則を持つ擬似乱数f-ciと考えることもできる。ニューラルネットワークは数学的な手法ですが、その技術はむしろ芸術です。
そうそう、ところで、ネットワークの規模が問題解決能力に影響すると思ったら大間違いです。
繰り返しになりますが、あなたがアートと呼ぶものは、おそらく予測可能なものです。そういうことなんです。入力ニューロンの数が大きな役割を果たす。入力数が多いほど、正しい予測の確率は高くなる。それは当然です。
私はそうは思いません。例に挙げた1-5-1ネットワークは、擬似乱数列を高い精度で予測することができます。
メカニズムをよく理解されていない印象があるので、少し理論を読み直すことをお勧めします。
教えてください、ニューラルネットワークとは 何だと思いますか?
まあ、誰が何を理解しているのか、あるいは理解していないのか、これについては長い間議論することができます。データ作成について議論した。ここでは誰もこの問題を議論したがらないのは理解しています。残念
拝啓、ご相談は可能です。しかし、TAにおける指標とは何か、NSのデータの前処理にどう適しているかというテーマに言及したら、何を議論する必要があるのでしょうか、議論したくないというか、テーマを見逃しているような気がします :)
NSトレーニングのためのデータ準備のレクチャーを読みたいのであれば、このフォーラムでやるのはやめた方がいいと思います、ここで興味を持つ人は少ないでしょうから。