ニューラルネットワークをどのように扱うのですか? - ページ 7

 
Swetten:

NSとGAは全く別のものであり、何の関係もない、という原点を思い出してほしい。

一方が他方に変化することは一切ない。


ORO <-> GA ;)でいいじゃないですか。

頑張ってください。

削除済み  

VladislavVG:

ORO <-> GA ;)でいいじゃないですか。

ORO - GAを削除すると、それなしで動作しますか?

具体的にどのようなGAになるのでしょうか?

そうですね。それは大変な授業ですね。

頑張ってください。:)

 
LeoV:

ダイナミクスの問題ではありません。学習期間中にネットワークが発見したパターンが将来にわたって機能する限り、ダイナミクスは何でもよい。それが問題だ ......)))

同じペアをネットに入れさえすれば、ダイナミカということです。他の規則性については、同感です。)
 
Swetten:

また、OROを外せば、GAがなくても動くということでしょうか?

おやおや、これはこれは。向こうでは厳しく指導してくれる。

頑張ってください。:)

OROが削除された」「OROがなくてもGAが動作する」というのはどういうことか、具体的に説明してください。

もし、OROの学習アルゴリズムをGAで置き換える/拡張するという意味であれば、そうなりますし、そうでなければ、私が誤解していたことになります。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。

また、「厳しく教えられた」ことについては、同じことが言えます:あなたはひどく低学歴のようです ;) 。

頑張ってください。

ZZY GAを使った学習アルゴリズムの修正に関する記事はありますか?ロシア語のものもありますよ(笑)。

削除済み  
VladislavVG:

OROを削除した」「OROがなくてもGAは動作する」というのはどういうことか、具体的に説明してください。

それが何かは、あなたが聞くべきことです。そしてレシェトフ。また、「では、なぜ、GRO <-> GAなのか」をどう理解すればいいのでしょうか?

個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化。GAを使えば、ブルートフォース最適化から解放されます。

ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。

ですから、GAはNSではありませんし、今後もありえません。

削除済み  

VladislavVG:

OROの学習アルゴリズムをGAで置き換える/拡張するということであれば、私が言ったように、そうなりますし、それ以外のことであれば、私が誤解していたのでしょう。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。

そして、「厳しく指導された」ことに関しても、「あなたは厳しく低学歴であるようだ」と答えることができます;)。

最初の文章を理解するために頭を悩ませています。

挙げられたオプションから判断すると、このような構成になるのではないでしょうか。「OROの学習アルゴリズムをGAに置き換えるということであれば、そうなりますね」。

何をするんだ?NSの代わりに仕事?

 
Swetten:

何なのか、あなたが聞くべきなのです。あるいは、「では、なぜ:ORO <-> GA」をどう理解するか?

個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化する。GAを使えば、ブルートフォース最適化から解放されます。

ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。

したがって、GAはNSではないし、これからもNSになることはないだろう。

最適化とはどういうことですか?亜種の検索だけなら、ちょっと違うんですけどね。混乱させているのはMTです。

さて、GAについてですが、これは探索手法であり、ネットワークを学習 させる場合、最低限の機能を求めています。しばしばミスが発生する。ネットワークの学習過程では、OROもGAも、勾配やアニーリング(GAに似た手法がある)も、極限を探そうとする。どの方法がより効果的かは、機能そのものと品質基準(つまり、最適なバリエーションを選択する基準)によります。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。

GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。

頑張ってください。

 
Swetten:

何をするんだ?NSの代わりに仕事?

トレーニング方法が「代わりに効く」ことはない。結局のところ、EROは「NSの代わりに」働いているわけではない。上記で詳しくお答えしています。

頑張ってください。

削除済み  
VladislavVG:

最適化とは何ですか? オプションを通すだけなら、それはそれでアリなんです。混乱させているのはMTの方です。

さて、GAについてですが、これは探索手法であり、ネットワークを学習する場合、ある機能の最小値を求めることになります。しばしばエラーが発生する。OROであれGAであれ、勾配法であれアニーリング法であれ(そういう手法もある-GAに似ている)、ネットワークの学習過程では、極限を探そうとするものである。どの方法がより効果的であるかは、機能および品質基準(すなわち、最適なバリエーションを選択する基準)に依存します。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。

GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。

頑張ってください。

うっ!完全に混乱していますね!

このスレを読み直すといい。

ファームウェアのパッケージでニューラルネットワークの代わりに遺伝的アルゴリズムが使わ れ、さらに回帰や他の外挿法が使われる可能性もある。

https://www.mql5.com/ru/forum/108709/page4

それが何なのか、調べたいんです。そしてOROはそれをGRNNと勘違いした。

削除済み  

VladislavVG:

学習方法は「代わりに動く」ことはありません。結局、EDCは「NSの代わりに」機能しない。

それが、私が伝えようとしていることです。:)

そして、もう一人。

ただ、最初のメッセージは間違っていましたね。