記事"第三世代ニューラルネットワーク:深層ネットワーク"についてのディスカッション - ページ 14

 
Rashid Umarov:
コードを 正しく挿入して ください。修正しました。
ありがとう。何のボタンかすぐには気づきませんでした。
 
Vladimir Perervenko:

こんにちは。

何の台本について話しているのですか?

スクリプトの中身をもう少し詳しく教えてください。

テスターのRプロセスでスクリプトを実行されたそうですね?

もしそうなら、それは興味深いですね。

できるだけ詳しく説明してください。Rプロセスはクライアント・サーバー・バンドルで実行されるのですか、それとも単一のRtermで実行されるのですか?

はい、クライアント・サーバ・バインドで実行されます。

できるだけ簡単に説明するには?

OnTimer() 関数のコードをOnTick()とOnTimer()の共通関数にしました。追加したのは、カスタム・モード・スイッチとティック・カウンターだけです。

それ以外の起動手順はすべて同じままだ。もう少ししたら、フォーラムに添付したスクリプトにこの関数を実装して投稿します。

追記:MQL4のドキュメントによると、OnTimer()関数はテスターでは単純に動作しないそうです。

 
kimkarus:

はい、クライアント・サーバーです。

できるだけ簡単に説明するには?

OnTimer()関数の コードをOnTick()とOnTimer()の共通関数にしました。追加したのは、カスタム・モード・スイッチとティック・カウンターだけです。

それ以外の起動手順はすべて同じままだ。もう少ししたら、フォーラムに添付したスクリプトにこの関数を実装して投稿します。

追記:MQL4のドキュメントによると、OnTimer()関数はテスターでは単純に動作しないとのことです。

OnTimer()は理解しています。

クライアントとサーバーの接続について何か追加で動きましたか?

まだうまくいっていません。英語圏のスレッドの書き込みから判断すると、私だけではありません。

幸運を祈る。

 

約束通り、ストラテジーテスターで動作するようにMQL4にローカルSAEを添付しました。

i_SAE

e_SAE

オリジナルを置き換え、*.ex.を再コンパイルします。

テスターを起動し、e_SAEを選択し、Enable timer = false、Count ticks = 120に設定します(私には最適でした)。スタート。

スピードを追加し、左側のマジックメッセージ「OPP = CLOSE...」を待ち、スピードを落とす。その後、i_SAEをSend to server = trueでグラフに追加する。スピードを少し上げる。結果が確定するのを待つ。

私のRのバージョンは3.2.2でした。必ず両方のファイルでバージョンを比較してください!

実験の成功を祈る!

e_SAE

 
こんにちは、サーバーソケットの問題を解決する方法は見つかりましたか?
 

こんにちは、記事に添付されている、更新された専門家。

記事に添付されている、 更新された 専門家。

そこから出て行け

そこから出て行け。

ウラジミール

 

こんにちは。

それはいいものですね。ありがとう。

では、テスターでどのように機能するかを確認し、今後のRを使った例ではこの機能を含めることにしましょう。

新しいDNRBMの記事には、このDNSAE EAの再設計版(自己学習機能付き、ただしサーバーなし)が添付されています。

テストしてみてください。

幸運を祈る。

 
私はMt4でいくつかのインジケーターを持っていますが、それらはオシレーターではありません。

Stacked RBM (DN_SRBM) https://www.mql5.com/ja/articles/1628

Deep neural network with Stacked RBM. Self-training, self-control
Deep neural network with Stacked RBM. Self-training, self-control
  • 2016.04.26
  • Vladimir Perervenko
  • www.mql5.com
This article is a continuation of previous articles on deep neural network and predictor selection. Here we will cover features of a neural network initiated by Stacked RBM, and its implementation in the "darch" package.
 
興味深いのは、人間があるタスクに没頭すれば、そのタスクは改善されるということだ。
一方、機械が同じことをすれば、局所最適に固執するかもしれない。

アルゴリズムの没頭は、「研究」パラダイムから「実行」パラダイムへと進化するかもしれない。

素晴らしい記事だ。
 
Vladimir Perervenko:


今回も、モデルが悪化するまでの約5週間は黒字の局面がある。

これは普通のことだ。 モデルは 定期的に 再学習が 可能 であり、そう すべきである

テストデータとトレーニングデータに分ける必要はないと思います。

できる いくつかの 重要なポイントを覚えて おく ことが重要である�
1. トレーニング セットと テスト セットを交差させてはいけない�
2. トレーニングセットは 混合さ れるべきである

3. もし クラスの 比率が釣り合わない 場合は、調整すること。

Rを使っている 仲間がいてうれしいです

よろしく

ウラジミール

こんにちは、

ニューラルネットワーク(NN)に関する私の否定的な先入観を明らかにするのを手伝ってください。

  1. まずNNに投入する指標を最適化するというのは正しいのでしょうか?
  2. それからNNのパラメータを 最適化するのですか?
  3. それとも、NNのパラメータと指標を同時に最適化するのでしょうか?
  4. 最適化する変数が多ければ多いほど、過剰適応の危険性が高まるというのは本当でしょうか?
  5. もし1.と2.のデータセットが同じであれば、データセットに過剰に適応することにならないか?
  6. "モデルが悪化するまでの約5週間は、またしても儲かる局面がある"というのは、まさにそれを示しているのではないだろうか?
  7. a) テスターによって最適化されたインジケーターの束があると仮定して、
    b) 最適化されたインジケーターのうち、どのインジケーターが必要かをチェックするためだけに、テスターによる2回目の最適化を実行します(*)
    c) 最適化されたインジケーターの束がより少なくなるように
    d) 何のためにNNが必要なのでしょうか?
  8. 入力、レイヤー、パーセプトロンの数から、NNのためにどれくらいのデータセットが必要なのか推測できますか?


(*) 残念ながら、mt4' optimizer を遺伝モードで実行し、OnInit() から"INIT_PARAMETERS_INCORRECT" を 返すことで、特定のパラメータセット (例えば、"indicator-A" が 'on' であるかどうかをテストしない) をバイパスしようとした場合、遺伝的アルゴリズムはこれを有効なパスとしてカウントします。