ニューラルネットワークをどのように扱うのですか? - ページ 7 12345678 新しいコメント Vladyslav Goshkov 2010.07.16 06:47 #61 Swetten: NSとGAは全く別のものであり、何の関係もない、という原点を思い出してほしい。 一方が他方に変化することは一切ない。 ORO <-> GA ;)でいいじゃないですか。 頑張ってください。 削除済み 2010.07.16 07:47 #62 VladislavVG: ORO <-> GA ;)でいいじゃないですか。 ORO - GAを削除すると、それなしで動作しますか? 具体的にどのようなGAになるのでしょうか? そうですね。それは大変な授業ですね。 頑張ってください。:) Vizard 2010.07.16 08:14 #63 LeoV: ダイナミクスの問題ではありません。学習期間中にネットワークが発見したパターンが将来にわたって機能する限り、ダイナミクスは何でもよい。それが問題だ ......))) 同じペアをネットに入れさえすれば、ダイナミカということです。他の規則性については、同感です。) Vladyslav Goshkov 2010.07.16 08:14 #64 Swetten: また、OROを外せば、GAがなくても動くということでしょうか? おやおや、これはこれは。向こうでは厳しく指導してくれる。 頑張ってください。:) OROが削除された」「OROがなくてもGAが動作する」というのはどういうことか、具体的に説明してください。 もし、OROの学習アルゴリズムをGAで置き換える/拡張するという意味であれば、そうなりますし、そうでなければ、私が誤解していたことになります。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。 また、「厳しく教えられた」ことについては、同じことが言えます:あなたはひどく低学歴のようです ;) 。 頑張ってください。 ZZY GAを使った学習アルゴリズムの修正に関する記事はありますか?ロシア語のものもありますよ(笑)。 削除済み 2010.07.16 08:19 #65 VladislavVG: OROを削除した」「OROがなくてもGAは動作する」というのはどういうことか、具体的に説明してください。 それが何かは、あなたが聞くべきことです。そしてレシェトフ。また、「では、なぜ、GRO <-> GAなのか」をどう理解すればいいのでしょうか? 個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化。GAを使えば、ブルートフォース最適化から解放されます。 ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。 ですから、GAはNSではありませんし、今後もありえません。 削除済み 2010.07.16 08:25 #66 VladislavVG: OROの学習アルゴリズムをGAで置き換える/拡張するということであれば、私が言ったように、そうなりますし、それ以外のことであれば、私が誤解していたのでしょう。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。 そして、「厳しく指導された」ことに関しても、「あなたは厳しく低学歴であるようだ」と答えることができます;)。 最初の文章を理解するために頭を悩ませています。 挙げられたオプションから判断すると、このような構成になるのではないでしょうか。「OROの学習アルゴリズムをGAに置き換えるということであれば、そうなりますね」。 何をするんだ?NSの代わりに仕事? Vladyslav Goshkov 2010.07.16 08:32 #67 Swetten:何なのか、あなたが聞くべきなのです。あるいは、「では、なぜ:ORO <-> GA」をどう理解するか?個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化する。GAを使えば、ブルートフォース最適化から解放されます。ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。したがって、GAはNSではないし、これからもNSになることはないだろう。最適化とはどういうことですか?亜種の検索だけなら、ちょっと違うんですけどね。混乱させているのはMTです。 さて、GAについてですが、これは探索手法であり、ネットワークを学習 させる場合、最低限の機能を求めています。しばしばミスが発生する。ネットワークの学習過程では、OROもGAも、勾配やアニーリング(GAに似た手法がある)も、極限を探そうとする。どの方法がより効果的かは、機能そのものと品質基準(つまり、最適なバリエーションを選択する基準)によります。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。 GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。 頑張ってください。 Vladyslav Goshkov 2010.07.16 08:34 #68 Swetten: 何をするんだ?NSの代わりに仕事? トレーニング方法が「代わりに効く」ことはない。結局のところ、EROは「NSの代わりに」働いているわけではない。上記で詳しくお答えしています。 頑張ってください。 削除済み 2010.07.16 08:41 #69 VladislavVG: 最適化とは何ですか? オプションを通すだけなら、それはそれでアリなんです。混乱させているのはMTの方です。 さて、GAについてですが、これは探索手法であり、ネットワークを学習する場合、ある機能の最小値を求めることになります。しばしばエラーが発生する。OROであれGAであれ、勾配法であれアニーリング法であれ(そういう手法もある-GAに似ている)、ネットワークの学習過程では、極限を探そうとするものである。どの方法がより効果的であるかは、機能および品質基準(すなわち、最適なバリエーションを選択する基準)に依存します。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。 GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。 頑張ってください。 うっ!完全に混乱していますね! このスレを読み直すといい。 ファームウェアのパッケージでニューラルネットワークの代わりに遺伝的アルゴリズムが使わ れ、さらに回帰や他の外挿法が使われる可能性もある。 https://www.mql5.com/ru/forum/108709/page4 それが何なのか、調べたいんです。そしてOROはそれをGRNNと勘違いした。 削除済み 2010.07.16 08:42 #70 VladislavVG: 学習方法は「代わりに動く」ことはありません。結局、EDCは「NSの代わりに」機能しない。 それが、私が伝えようとしていることです。:) そして、もう一人。 ただ、最初のメッセージは間違っていましたね。 12345678 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
NSとGAは全く別のものであり、何の関係もない、という原点を思い出してほしい。
一方が他方に変化することは一切ない。
ORO <-> GA ;)でいいじゃないですか。
頑張ってください。
VladislavVG:
ORO <-> GA ;)でいいじゃないですか。
ORO - GAを削除すると、それなしで動作しますか?
具体的にどのようなGAになるのでしょうか?
そうですね。それは大変な授業ですね。
頑張ってください。:)
ダイナミクスの問題ではありません。学習期間中にネットワークが発見したパターンが将来にわたって機能する限り、ダイナミクスは何でもよい。それが問題だ ......)))
同じペアをネットに入れさえすれば、ダイナミカということです。他の規則性については、同感です。)
また、OROを外せば、GAがなくても動くということでしょうか?
おやおや、これはこれは。向こうでは厳しく指導してくれる。
頑張ってください。:)
OROが削除された」「OROがなくてもGAが動作する」というのはどういうことか、具体的に説明してください。
もし、OROの学習アルゴリズムをGAで置き換える/拡張するという意味であれば、そうなりますし、そうでなければ、私が誤解していたことになります。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。
また、「厳しく教えられた」ことについては、同じことが言えます:あなたはひどく低学歴のようです ;) 。
頑張ってください。
ZZY GAを使った学習アルゴリズムの修正に関する記事はありますか?ロシア語のものもありますよ(笑)。
OROを削除した」「OROがなくてもGAは動作する」というのはどういうことか、具体的に説明してください。
それが何かは、あなたが聞くべきことです。そしてレシェトフ。また、「では、なぜ、GRO <-> GAなのか」をどう理解すればいいのでしょうか?
個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化。GAを使えば、ブルートフォース最適化から解放されます。
ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。
ですから、GAはNSではありませんし、今後もありえません。
VladislavVG:
OROの学習アルゴリズムをGAで置き換える/拡張するということであれば、私が言ったように、そうなりますし、それ以外のことであれば、私が誤解していたのでしょう。多くの場合、共役勾配法も有効で、OROよりもはるかに効率的です。すべては、最小化する機能次第です。
そして、「厳しく指導された」ことに関しても、「あなたは厳しく低学歴であるようだ」と答えることができます;)。
最初の文章を理解するために頭を悩ませています。
挙げられたオプションから判断すると、このような構成になるのではないでしょうか。「OROの学習アルゴリズムをGAに置き換えるということであれば、そうなりますね」。
何をするんだ?NSの代わりに仕事?
何なのか、あなたが聞くべきなのです。あるいは、「では、なぜ:ORO <-> GA」をどう理解するか?
個人的に理解しているのは、GAは単なる最適化メカニズムだということです。何でも最適化する。GAを使えば、ブルートフォース最適化から解放されます。
ニューラルネットワークとは関係ない。実は、最適な重みを探索する仕組みとしてだけ、あるのです。
したがって、GAはNSではないし、これからもNSになることはないだろう。
最適化とはどういうことですか?亜種の検索だけなら、ちょっと違うんですけどね。混乱させているのはMTです。
さて、GAについてですが、これは探索手法であり、ネットワークを学習 させる場合、最低限の機能を求めています。しばしばミスが発生する。ネットワークの学習過程では、OROもGAも、勾配やアニーリング(GAに似た手法がある)も、極限を探そうとする。どの方法がより効果的かは、機能そのものと品質基準(つまり、最適なバリエーションを選択する基準)によります。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。
GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。
頑張ってください。
何をするんだ?NSの代わりに仕事?
トレーニング方法が「代わりに効く」ことはない。結局のところ、EROは「NSの代わりに」働いているわけではない。上記で詳しくお答えしています。
頑張ってください。
最適化とは何ですか? オプションを通すだけなら、それはそれでアリなんです。混乱させているのはMTの方です。
さて、GAについてですが、これは探索手法であり、ネットワークを学習する場合、ある機能の最小値を求めることになります。しばしばエラーが発生する。OROであれGAであれ、勾配法であれアニーリング法であれ(そういう手法もある-GAに似ている)、ネットワークの学習過程では、極限を探そうとするものである。どの方法がより効果的であるかは、機能および品質基準(すなわち、最適なバリエーションを選択する基準)に依存します。GA は、あらゆる手法の中で最も普遍的なものです。いずれも、グローバルエクストリームを見つけることを保証するものではありません。
GAを使用することで、例えば、ネットワークアーキテクチャを同時に選択することができます。つまり、最適化されたパラメータと品質基準(GAでいうところのフィットネス関数)にネットワークアーキテクチャを含めることが可能です。もっといろいろな可能性があります。また、必要であればGAと一緒にOROを使うこともできます。
頑張ってください。
うっ!完全に混乱していますね!
このスレを読み直すといい。
ファームウェアのパッケージでニューラルネットワークの代わりに遺伝的アルゴリズムが使わ れ、さらに回帰や他の外挿法が使われる可能性もある。
https://www.mql5.com/ru/forum/108709/page4
それが何なのか、調べたいんです。そしてOROはそれをGRNNと勘違いした。
VladislavVG:
学習方法は「代わりに動く」ことはありません。結局、EDCは「NSの代わりに」機能しない。
それが、私が伝えようとしていることです。:)
そして、もう一人。
ただ、最初のメッセージは間違っていましたね。