ニューラルネットと入力 - ページ 10

 
Figar0:
NSは複雑です。

1)誰もが入力に「到達」する(グレーボールとなるまで通過する人もいる)。

2)出力を考え、ネットワークタスク、そのタイプ、アーキテクチャを選択する人もいる。

3)ネットワーク・トレーニングに真剣に取り組む人はごくわずかである。

NSにはマイナーなものがないため、結果が出ない。


  1. 相場や指数の増加、FFT変換、スペクトル成分の供給など、様々な入力を試してみました。訓練されたコウホネカードから 給餌を試みた。
  2. アーキテクチャは、ハイパーボリックタンジェント活性化関数を持つ多層ペセプトロンである。
  3. 単純なBack Propから、Hessianを厳密に計算 するLevenberg - Marquardt アルゴリズムまで 、様々なアルゴリズムを提供します。
 
TimeMaster:
  1. 単純なBack Propから、ヘシアンの厳密な計算を伴うLevenberg-Marquardt アルゴリズムまで 、様々なアルゴリズムを提供します。
学習アルゴリズムは、たとえゲン担ぎでも3回は気にしない)
 
TheXpert:
学習アルゴリズムは、たとえゲン担ぎのアルゴリズムであっても、3回は気にしない )


私もそう思います。違いは学習スピードだけです。MSEで小数点以下6~7桁を「獲る」ことに意味があるとは思えないので、3サンプルのシンプルなBack Propを使うことが多くなっています。トレーニング用サンプル、バリデート用サンプル、テスト用サンプル。有効なものを選択する方法は様々で,トレーニングの直後に時間差で有効なものを選択したり,トレーニングサンプルから例を削除しながら,それぞれランダムにトレーニングの例を「つかむ」こともあります。
 

遺伝子アルゴリズムについて...

シナプスが10000個以上あるような神経回路網に使って「役に立つ」とは到底思えません。10000*1000個程度の個体が必要であり、スピードの面では「良い」とは言えない。エポックについては黙認しています...。

 
<br/ translate="no">。

例えば、ネットワークを学習させたい場合。 2*2=4であって、5でも6でも7でもないこと。 .あとは野となれ山となれ を明確に理解する必要があります。 それをどう教えるか。2*2=4の時もあれば、5の時もあるように・・・。

一般的に問題文は重要です。私は何が欲しいのか?といった具合に。


市場が変化する中で、「2*2」が「4」になるとは限らないので、そこが問題なんです。市場が変われば、条件も変わる。学習用サンプルに矛盾したデータが含まれ始める。ネットワークは学習しない。現在の状態だけを「捉える」ためにサンプルを減らすと、サンプル自体のサイズが小さくなり、多かれ少なかれボリュームのあるニューラルネットワークを学習させることができなくなるという問題に直面することになります。オーバートレーニングが行われる。入力が小さいので、有用なデータを「詰め込む」ことが非常に難しいのです。
 
TimeMaster:

遺伝子アルゴリズムについて...

シナプスが10000個以上あるような神経回路網に使って「役に立つ」とは到底思えません。10000*1000個程度の個体が必要であり、スピードの面では「良い」とは言えない。エポックについて、私は沈黙している......。

去年は4でフクロウの中の遺伝的最適化を書きました。面白半分に、0...200の範囲で88個の入力パラメータを入力してみました。15分×2週間〜20分(P-4 3GHz、2GB)でトレーニングしました。プランマーを手に入れた - 戦略はない、ただの実験だ。興味があれば、教えてあげよう。

 
icas:

去年は4でフクロウの中の遺伝的最適化を書きました。面白半分に、0...200の範囲で88個の入力パラメータを入力してみました。15分×2週間〜20分(P-4 3GHz、2GB)でトレーニングしました。プランマーを手に入れた - 戦略はない、ただの実験だ。興味があれば教えてあげるよ。


また、入力パラメータが10000個あるとすると、BEST版の問題は10000/88倍となり、それぞれ〜20min*100=2000min ...と複雑になってしまう。

だいたい1日半くらいかな...。

遺伝子のルール、何十億年もあれば、鏡で自分を見ることができる。:-)

 
solar:
データ収集、データ作成、ノイズ除去、配給などの作業が必要なのです。これが市場の非定常性との戦いである。 (理論上 )))


データ収集はよく研究されている分野であり、比較的「良い」引用の履歴をダウンロードする方法や場所があるのです。

データ作成も、研究対象です。入力ベクトルの各次元に横並び変換を施しても、データの不整合という問題は解消されないと言えるでしょう。

分単位と週単位では当然「ノイズ」ですが、15分単位と時間単位では「掘り下げ」の問題です...。

ノーマライゼーションも些細な問題です。

 
TimeMaster:

遺伝子アルゴリズムについて... シナプスが10000個以上あるような神経回路網に使って「役に立つ」とは到底思えません。10000*1000個程度の個体が必要であり、スピードの面では「良い」とは言えない。エポックの話じゃないんだけど...。

10000シナプス?私は500-700程度が限界でした。これ以上は必要ないと思ったからです。ちなみに、私がNSを教えるのはGAです。 確かに遅いですが、私にはその方が便利ですし、メリットもあります。
タイムマスター

市場が変化する中で、「2*2」が「4」になるとは限りませんから、そこに問題があるのです。市場が変われば、条件も変わる。学習用サンプルは、データの整合性が取れなくなり始めます。ネットワークは学習しない。現在の状態だけを「捉える」ためにサンプルを減らすと、サンプリングサイズが小さくなり、多かれ少なかれボリュームのあるニューラルネットワークを学習させることができなくなります。

2*2が4とは限らない?例えば70%の例で2*2=4であれば十分で、残りの30%の例では2*2が4と等しくないというフィルタリングもしないんです。ネットだけで十分対応できる...。 2*2が4になるケースが50%なら、例えば入力など何かを変えてみるべき...。言いたいことは伝わったと思う)

アイカス

去年はowl on 4の中で遺伝的最適化を書きました。面白半分に、0...200の範囲で88個の入力パラメータを入力してみました。15分×2週間〜20分(P-4 3GHz、2GB)でトレーニングしました。プランマーを手に入れた - 戦略はない、ただの実験だ。興味があればお話しますよ。

教えてください、面白いに決まっています。
 
Figar0:
10000シナプス?私は、せいぜい500~700枚程度でした。これ以上は必要ないと思いました。ちなみに、私がNSを教えるのはGAです。 確かに遅いですが、私にとっては便利ですし、それなりのメリットもあります。

2*2は必ずしも4ではないのですか?例えば2*2=4の場合が70%あれば十分で、残りの30%の2*2が4と等しくない例はフィルタリングもしないんです。ネットだけで十分対応できる...。 2*2が4になるケースが50%なら、例えば入力など何かを変えてみるべき...。言いたいことは伝わったと思う)

教えてください、面白いに決まっています。

2*2が4と等しくない場合の例を教えてください。

よく文献で見かけるのですが、残念ながら実例がありません。

理由: