"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 80 1...737475767778798081828384858687...100 新しいコメント Serj 2012.08.03 17:17 #791 ウラン です。スパース性については(上に書きましたが)、マスクに基づいて各ニューロンにインデックス配列を 作成し、カウント後に出力を配置 する場所を指示することができます。どこからインプットして、誰がアウトプットするのか、その方が理にかなっているように思います。 Konstantin Grebenshikov 2012.08.03 17:55 #792 はい!!この話題はとても興味深いです。今回は、自然界のアルゴリズムを用いたニューラルネットワークの最適化について、蜂群や粒子群などを例に取り上げてみたいと思います。この方法についての記事を読んだとき、私はそれがどのように見えるか考えていた、それはOpenCLのようなものではありませんが、直接neuroncに適用されるので、例えば、追加のグラフィカルDDL OpenGLでそれを実装しようとしない、特にテスターが許すように。もし興味があれば、興味深い記事へのリンクを提供できますし、ソースコードへのリンクもあります。 Vladimir 2012.08.03 18:06 #793 MetaDriver。 しかし、このアプローチには、トポロジーを遺伝的に交配さ せようとする芽すらありません。 そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか? Vladimir Gomonov 2012.08.03 18:10 #794 gpwr そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか? ロバや馬よりも、ラバや馬のほうが適している活動もあります。 あくまで思いつきです。 アイデアはまだ途中です。 TheXpert 2012.08.03 18:11 #795 gpwr そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか? そうなるんです。例えば、ペルセプトロンを搭載したコクーンなど。 Mykola Demko 2012.08.03 18:13 #796 彼女.人間:どこからインプットして、誰がアウトプットするのか、その方が理にかなっていると思います。そういうやり方もありますが、モデルの本質が変わるわけではありません。どちらのオプションが速いかは確認が必要ですが。gpwr 層が必要なのは、あるネットワークでは層によって入力の処理が異なり、層内のニューロン同士の接続も異なるからです。 実は、ユニバーサルネットワークを構築するという目標が現実的かどうか、私にはよくわからないのです。ネットワークには、そのニュアンス(各層のニューロンの機能、接続、重みの学習など)が異なるものが多く存在します。それらを1つのモデルで表現することは、私には不可能、あるいは非効率に思えます。さまざまなネットワークのライブラリーを作ってみてはいかがでしょうか。各ニューロンは独自のタイプで定義でき(レイヤーは言うまでもない)、それは基本クラスCProcessingの子孫の拡張可能な機能によって設定される。ちなみに、構想はしていますが、実装は自分でやっています。議論した上で、すでに考え抜かれたものを実行に移したいと思いました。CProcessingにはTreningという関数があるはずで、ニューロンの種類ごとに、微分や神のみぞ知るによって異なるかもしれないことは明らかだろうと思ったのです。そして、トレニングの前方伝播と後方伝播の両方が存在する可能性があります。普遍的なトポロジーとともに、普遍的な学習スキームが得られます。学習するためにニューロンに対して何が必要かはニューロン自体に記述され、学習処理はメッシュを通して単一の標準的な進行で行われます。例えばMLPでは放射状にニューロンが埋め込まれており、すべて正常に学習できた、というようなことをどこかで見たことはないでしょうか?ここで実現可能なのです。 Vladimir Gomonov 2012.08.03 18:29 #797 普遍的な記述(トポロジーの網羅的な記述を含む)というアイデアは、少なくとも、まさに「グリッドタイプ」-理解すればかなり人工的な概念-から抽象化することが(ついに!)可能になるので、期待できるものです。 私は、ある特定のトポロジーに特定の名前をつけることに反対しているわけではありません(純粋に便宜上の理由です)。しかし、その名前が催眠術をかけ始め、本質の知覚の障壁を作り出し、お互いの考えの交わりを妨げない限りにおいて、です。 そしてそれは、人生活動のあらゆる領域において、あらゆる段階で観察されます。 Konstantin Grebenshikov 2012.08.03 18:37 #798 トピックに関するコメントを読んで、結論に至りました - 私はそれがされるとき、ベータプロジェクトを 見たいと思います? と詳細な説明の記事。 Andrey Dik 2012.08.03 18:44 #799 ウラン です。... つまり、どこかでフィードバックループが起きているのでは? Mykola Demko 2012.08.03 18:45 #800 GKS です。このトピックに関する皆さんのコメントを読んで、私は結論に達しました - プロジェクトのベータ版はいつになるのか、詳細な説明のある記事を見たいと思います。ワーキングディスカッション中、時間が解決してくれるでしょう。MetaDriver。 普遍的な記述(トポロジーの包括的な記述を含む)というアイデアは、少なくとも、まさに「グリッドのタイプ」-理解すればかなり人工的な概念-から抽象化することが(ついに!)可能になるので、期待できるものだと思います。 私は、ある特定のトポロジーに特定の名前をつけることに反対しているわけではありません(純粋に便宜上の理由です)。しかし、それらの名前が催眠術をかけ始め、本質の知覚に障壁を作り、お互いの考えを交わらせることを妨げない限りにおいてです。 そして、このことは人生のあらゆる分野において、あらゆる段階で観察されることなのです。例えば,「MLP」テンプレートでは,「perseptrons」によって全ニューロンのタイプを綴るなど,名前によるブートストラップテンプレートを作ることが可能でしょう. 1...737475767778798081828384858687...100 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
スパース性については(上に書きましたが)、マスクに基づいて各ニューロンにインデックス配列を 作成し、カウント後に出力を配置 する場所を指示することができます。
はい!!この話題はとても興味深いです。今回は、自然界のアルゴリズムを用いたニューラルネットワークの最適化について、蜂群や粒子群などを例に取り上げてみたいと思います。この方法についての記事を読んだとき、私はそれがどのように見えるか考えていた、それはOpenCLのようなものではありませんが、直接neuroncに適用されるので、例えば、追加のグラフィカルDDL OpenGLでそれを実装しようとしない、特にテスターが許すように。もし興味があれば、興味深い記事へのリンクを提供できますし、ソースコードへのリンクもあります。
しかし、このアプローチには、トポロジーを遺伝的に交配さ せようとする芽すらありません。
そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか?
そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか?
そんな話は聞いたことがない。異なるトポロジーを掛け合わせることで、同じトポロジーの進化よりも良いものが生まれるのでしょうか?
どこからインプットして、誰がアウトプットするのか、その方が理にかなっていると思います。
そういうやり方もありますが、モデルの本質が変わるわけではありません。どちらのオプションが速いかは確認が必要ですが。
層が必要なのは、あるネットワークでは層によって入力の処理が異なり、層内のニューロン同士の接続も異なるからです。 実は、ユニバーサルネットワークを構築するという目標が現実的かどうか、私にはよくわからないのです。ネットワークには、そのニュアンス(各層のニューロンの機能、接続、重みの学習など)が異なるものが多く存在します。それらを1つのモデルで表現することは、私には不可能、あるいは非効率に思えます。さまざまなネットワークのライブラリーを作ってみてはいかがでしょうか。
各ニューロンは独自のタイプで定義でき(レイヤーは言うまでもない)、それは基本クラスCProcessingの子孫の拡張可能な機能によって設定される。ちなみに、構想はしていますが、実装は自分でやっています。議論した上で、すでに考え抜かれたものを実行に移したいと思いました。CProcessingにはTreningという関数があるはずで、ニューロンの種類ごとに、微分や神のみぞ知るによって異なるかもしれないことは明らかだろうと思ったのです。そして、トレニングの前方伝播と後方伝播の両方が存在する可能性があります。
普遍的なトポロジーとともに、普遍的な学習スキームが得られます。学習するためにニューロンに対して何が必要かはニューロン自体に記述され、学習処理はメッシュを通して単一の標準的な進行で行われます。
例えばMLPでは放射状にニューロンが埋め込まれており、すべて正常に学習できた、というようなことをどこかで見たことはないでしょうか?ここで実現可能なのです。
普遍的な記述(トポロジーの網羅的な記述を含む)というアイデアは、少なくとも、まさに「グリッドタイプ」-理解すればかなり人工的な概念-から抽象化することが(ついに!)可能になるので、期待できるものです。
私は、ある特定のトポロジーに特定の名前をつけることに反対しているわけではありません(純粋に便宜上の理由です)。しかし、その名前が催眠術をかけ始め、本質の知覚の障壁を作り出し、お互いの考えの交わりを妨げない限りにおいて、です。 そしてそれは、人生活動のあらゆる領域において、あらゆる段階で観察されます。
トピックに関するコメントを読んで、結論に至りました - 私はそれがされるとき、ベータプロジェクトを 見たいと思います? と詳細な説明の記事。
...
このトピックに関する皆さんのコメントを読んで、私は結論に達しました - プロジェクトのベータ版はいつになるのか、詳細な説明のある記事を見たいと思います。
ワーキングディスカッション中、時間が解決してくれるでしょう。
普遍的な記述(トポロジーの包括的な記述を含む)というアイデアは、少なくとも、まさに「グリッドのタイプ」-理解すればかなり人工的な概念-から抽象化することが(ついに!)可能になるので、期待できるものだと思います。
私は、ある特定のトポロジーに特定の名前をつけることに反対しているわけではありません(純粋に便宜上の理由です)。しかし、それらの名前が催眠術をかけ始め、本質の知覚に障壁を作り、お互いの考えを交わらせることを妨げない限りにおいてです。 そして、このことは人生のあらゆる分野において、あらゆる段階で観察されることなのです。
例えば,「MLP」テンプレートでは,「perseptrons」によって全ニューロンのタイプを綴るなど,名前によるブートストラップテンプレートを作ることが可能でしょう.