"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 75

 
彼女.人間:

重要なのは、どれかということではありません。ただ、こんな弱小ハードのGAが引っ張るかどうか?

jooアルゴリズムの軽量版。

まあ、だいたいの見当はつくでしょう。FFの履歴から一度だけ実行して時間を計測し、10000倍すればいいのです。トレーニングを実行すれば、かなり現実的な結果が得られるはずです。


そして、それは...何を明るくするんだ?:)

 
ジュ

まあ、だいたいの見当はつくでしょう。これを行うには、FFの履歴を1回実行し、時間を計測し、10000倍してください。トレーニングで走らせれば、かなり現実的なものが出てきます。


そして、それは...何を明るくするんだ?:)

まだ十分とは言えません。アルゴリズムの実行の純値を得るには、FFの合計時間を別途測定して差し引く必要があります。

であれば、パラメータの数だけ掛けることができます。

カツはフライと別々です。

 
ウラン です。
上に描いたような、6スケールの3ニューロン、XORタスクのような小さなグリッドをTester GAで学習させるテスターを書こうと思ったこともありますが、まだ手が出せません:)。
について話します。
ネットワーク 100x1000x1 - フルメッシュ
 
2) 例はいくつ?
という話なんです。
彼女.人間:

1)何を教えるか

2)何例目か。

3)エラーなど?

1) 実験のために、ある関数を近似してみる。

2)まあ、少なくとも1000はあると思います。

3) ZFF はテスト関数の表面との誤差が最小になるようにする。

 
joo:

そして、それは...何を明るくするんだ?:)

UGAは、多くの課題に対応するユニバーサルな製品です。ネットワークトレーニング 用に特別に研ぎ出し、軽量化することができます。
 
ジュ

3) ZFF はテスト関数の表面との誤差が最小になるようにする。

ZFF - 理解されていない。?
 
彼女.人間:
ZFF 「意味がわからない。?
FFの意味、つまり記事の用語に従えば、-VFFです。
 
ジュ
FFの値、または論文の用語に従うと-VFF。

一寸の狂いも許されない...。

もう、ここは私の出番が多すぎるので、失礼します。また何か質問があれば、ごちゃごちゃ言わないように、プライベートで質問します。その結果をお見せします。

Urain & yu-shaがアーキテクチャとネットワークの記述を考えてくれることを期待します。

 

標準的なテスターGAで解くXOR問題、14個の離散的なエラー100例に対して。

カスケードでは2つのニューロン、古典的なMLPでは3つのニューロンに対して、コード内に2つのメッシュが存在します。

コメントの一番上にあるピッチは、7つのパラメータのステップ 0.005について、9つの0.2-03の重みが0.2の入力で、独立した03です。

ということで、ゲームだけど可愛い

ZZZ私は愚か者だ、私は、例えば1の角の例で与えている、と真ん中0.と入力で2つのゼロのグリッドのねじれは1を与えることができないどんなに。

グリッド出力誤差は離散形式ではゼロに等しく、実数形式ではゼロになる傾向があることを確認しています。

というわけで、不思議なことに、出力を反転させても、1ビット上がって16になっても、エラーは残ったままです。)今、眠いのかもしれない。

ファイル:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

今日はニワトコの日 :)

完全な沈黙、誰もがインタビューに煙たがる。