"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 97

 
Реter Konow:
オッケーです。実用的な例えを探す必要があります。この図から、各層は異なるニューロン数を持っていることがわかります。この図を逆さまにすると、ピラミッドになります。そのため、出力はいくつかの処理段階を経ることになる。層内のニューロンの数が多ければ多いほど、この層が受け取って処理するデータの量は多くなる。次の層の出力が前の層より少ないということは、層ごとにデータが汎化されているということでしょうか?

そう、一般化されているのです。入力が例えば100本なら、出力は買いか売りの2つのコマンドになるはずです。

ニューラルネットワークに多くのデータを持たせるのではなく、学習させるデータ量に合わせることが課題です。ネットワークが大きすぎてデータが足りないと、学習はしやすいのですが、他のデータへの汎化ができなくなります。だから、ニューロンの数はできるだけ少なくする必要があります。3層以上は、ちょっと不要ですね。最初の層のニューロン数は入力データのパターンのサイズに対応し、最後の層は結果の変形の数に対応する。そして、中間のものでは、できるだけ小さく、しかし出力時よりも小さくならないようにします。

 
Igor Makanu:

コードは簡単なのですが、入力データがなかなかうまくいきません。

Wikiエントロピー: 「...現実のプロセスが理想的なプロセスからどの程度逸脱しているかを測定する。数学的には、エントロピーは系の状態の関数として、任意の定数に定義されます。"

и?

金融VRの理想的な市場とは?- 完璧な市場=正弦波である、というのが第一の前提です。

入力として、high, low, clowesの少なくとも3つの価格がありますが、どれを使えばいいのでしょうか?- よし、2つ目の前提である中央値で勝負だ!

何から何まで測るのか?- 一日の始まりか、一週間か、満期日か、取引セッションか?- よし、今日のスタート、3つ目の想定としよう...。

この問題は組み合わせ論に帰結する:何回正しい初期仮説を導き出せるか、何回さらなる探求が正しい市場評価につながるか...。歴史上 )))


エントロピーは良い音が、私は情報エントロピーの観点から数年前にこのテーマを掘り、結論は1です - パターンが形成または歴史上のローソク足の組み合わせの最も近い繰り返しを開始した場合 - それは動作しません、誰にでも明白であることは市場で動作しないため、パターンや相関と同じこと、彼らは明らかになったら - 彼らは登場しなくなる )))、私は通常このような場合には自分に言う - あなたは賢明ではありません、そのような賢い人は離れてモニターからの世界の半分住んでいます)))))。

いや、ほら、このエントロピーはBPの情報量を推定しているんですよ。エントロピーが低いほど、情報量が多い(サイクルが顕在化している)。つまり、尺度は相対的なものであり、例えば他の国家との関係で使用することです。どこが低いかは、どこで取引するか - 大まかな例

ハーストとの類似性、sk.Windowでの測定。
 
Andrey Dik:

前の層よりもニューロンの数が少ない場合は情報が圧縮され、前の層よりもニューロンの数が多い場合は「非圧縮」となる。

OKです。ありがとうございます。とりあえず頂いた情報から推定してみます。後日、ここでまた専門家に聞いてみようと思います。))
 

エントロピーについて。

https://habr.com/ru/post/305794/

Введение в понятие энтропии и ее многоликость
Введение в понятие энтропии и ее многоликость
  • habr.com
Как может показаться, анализ сигналов и данных — тема достаточно хорошо изученная и уже сотни раз проговоренная. Но есть в ней и некоторые провалы. В последние годы словом «энтропия» бросаются все кому не лень, толком и не понимая, о чем говорят. Хаос — да, беспорядок — да, в термодинамике используется — вроде тоже да, применительно к сигналам...
 
Dmitry Fedoseev:

そう、一般化されているのです。入力が例えば100本なら、出力は買いか売りの2つのコマンドになるはずです。

ニューラルネットワークに多くのデータを持たせるのではなく、学習させるデータ量に合わせることが課題です。ネットワークが大きすぎてデータが足りないと、学習はしやすいが、他のデータへの汎化ができなくなる。だから、ニューロンの数はできるだけ少なくする必要があります。3層以上は、ちょっと不要ですね。最初の層のニューロン数は入力データのパターンのサイズに対応し、最後の層は結果の変形の数に対応する。そして、中間のものには、出力されるものよりも少なくなるように、できる限り少なくする。

オッケーです。考えないといけない。後日、お知らせします。
 
Dmitry Fedoseev:

....3層以上は、ある意味不要です。最初の層では、ニューロンの数は入力データパターンのサイズに対応し、最後の層では、結果のバリアントの数に対応する。そして中間層では、できるだけ小さく、しかし出力層より小さくならないようにします。

内層が1層のネットワークは任意の連続関数を近似でき、2層のネットワークはギャップのある関数も近似できることが数学的に証明されている(何かの本で見た)。 したがって、この証明から、2層以上の層数は実用上意味がなく、再トレーニングにしかつながらないことがわかる。

つまり、内部レイヤーは最大2層必要です(多くの場合、1層で十分です)。
 
Maxim Dmitrievsky:

いや、ほら、このエントロピーはBPの情報量を評価するものだから。エントロピーが低いほど情報量が多い(より多くのサイクルが顕在化する)。つまり、尺度は相対的なものであり、例えば他の国家との関係で使用することです。低くなるところは、そこがトレードの対象になる--というのが大まかな例です。

とハーストとの類似性、sk.ウィンドウでの測定。

マキシム......その通りだが、理論的には

ここにグラフがありますが、何をもって情報量としましょうか。1気圧?- 例えば、ある一定期間のバーのグループをとって、RSI、ストキャスティクス、あるいはノミのチャートを使って現在の市場の状況を評価するよりも、我々のアプローチの方がどういいのでしょうか。- どう考えても同じ


TSのアプリケーションは、市場のコンテキストに基づいている必要があります - はい、しかし、コンテキストはほとんど正式にはできません、一部の人々は、コンテキストとして、現在のフラットを取るとフラットトレードしようと、他の人がトレンドラインを 描き、突破を待っている....と、どちらが正しいのか?

 
Igor Makanu:

マキシム その通りですが、理論上は。

これはグラフですが、何をもって情報量とするか?1気圧?- 真剣に、バーのグループを取る - 我々は、特定の期間を持って、どのように我々のアプローチは、RSI、ストキャスティック、ノミを使用して、市場の現在の状態を評価するよりも優れているのでしょうか?- どう考えても同じ


TSのアプリケーションは、市場のコンテキストに基づいている必要があります - はい、しかし、コンテキストはほとんど正式にはできません、一部の人々は、コンテキストとして、現在のフラットを取るとフラットトレードしようと、他の人がトレンドラインを 描き、突破を待っている....どっちつかず

なるほど、ウィンドウを最適化し、エントロピーの変化を調べ、異なるウィンドウでモデルを訓練し、結論を導き出すのですね。過去を示すことは明らかですが、予測地平を絞り込み、その間を埋めるようにMOSを用いれば、情報を得ることができます

そういうことなんです。

周期的なサイクルがあるかどうかはわからないが、エントロピーがあるかどうかはわかる。うまくいくとは言っていない、データマイニングをしろと言っているのです。

 
Maxim Dmitrievsky:

なるほど、ウィンドウを最適化し、エントロピーの変化を調べ、異なるウィンドウでモデルを訓練し、結論を導き出すのですね。過去を示すことは明らかですが、予測地平を下げて、この間を埋めるようにMOSを用いれば、情報を得ることができます

そういうことなんです。

周期的なサイクルがあるかどうかはわからないが、エントロピーがあるかどうかはわかる。うまくいくとは言っていません、データマイニングが必要だと言っているのです。

全部は聞かないけど、もう読み飽きた...。スライディングウィンドウでNSを教えると、どれくらいの精度になるのでしょうか?

- 周期的な情報を探しているのであれば、そうですね。NSは隠れたループを見つけ出し、自身の重み付け係数を調整することになります

- NSに認識を教えるなら、そう、それは学ぶべきNSである。

- 相場には周期的なサイクルはありません。どこかでREのトップの形成時期を描いたREがありましたが、REのどの設定でも、周期的な繰り返しはありません。次のREのブレークは、5,11,7,3・・・といったバーで起こるということはないのです。- いろいろな組み合わせはあっても、繰り返しはないでしょう。


NSを非周期的な情報のスライディングウィンドウで学習させた場合、そこでの重みはどうなるのでしょうか?- 私の記憶では、euでは単層のネットワークを訓練することもできず、多層のネットワークしかできません。


ZS: データマイニング - はい、あなたが情報を運ぶデータをフィルタリングするために管理する場合 - その後、聖杯は あなたのものです;)

 
Igor Makanu:

全部は聞けないし、読むのも疲れるし...。NSをスライディングウィンドウで学習させるのは、どの程度正しいのでしょうか?

- 周期的な情報を探しているのであれば、その通りです。NSは隠れた周期を見つけ出し、自身の重み付け係数を調整します

- NSに認識を教えるなら、そう、それは学ぶべきNSである。

- 相場には周期的なサイクルはありません。どこかでREのトップの形成時期を描いたREがありましたが、REのどの設定でも、周期的な繰り返しはありません。次のREのブレークは、5、11、7、3・・・のようなバーで来るということはないのです。- いろいろな組み合わせはあっても、繰り返しはないでしょう。


NSを非周期的な情報のスライディングウィンドウで学習させた場合、そこでの重みはどうなるのでしょうか?- 私の記憶では、euでは単層のネットワークを訓練することもできず、多層のネットワークしかできません。


ZS: データマイニング - そう、もしあなたが情報を運ぶデータをフィルターにかけることができれば、あなたは聖杯を手に入れたも同然です ;)

厳密に周期的である必要はないが、ノイズである必要はない。写真は確率的なもので、厳密なものではありません。スライディングウィンドウは、学習用の特徴量の数だけでなく、エントロピーの指標となるもので、それらを選ぶことができる。

サンプルに一貫性がないと何も得られないから、5050のエラーが多いんです。そして、ループは矛盾することはありえず、どんな形であれ、存在するかしないか、どちらかです。いろいろなループを付けても、矛盾しないんです。

サイクル/ノンサイクルはエントロピックメトリックの中の相対的な概念である