"New Neural "は、MetaTrader 5プラットフォーム用のオープンソース・ニューラルネットワークエンジンプロジェクトです。 - ページ 38

 
gpwr
教師なしで、ランダムに選んだ10000〜40000区間の歴史を提示し、フィルタを学習させる(反復回数は同じ)。学習はとても速いです。コンピュータにもよりますが、20000パッチの履歴に対して1万個のフィルタを学習させるのに、360GPUのCUDAプロセッサでは1〜2分、4Intelプロセッサでは16トラックで約1時間、1プロセッサ2トラックの私のノートパソコンでは3〜4時間かかります。ここでは時間は関係ないんですけどね。このようなフィルタートレーニングに1~2日必要だとしても、各クオート(EURUSD、USDJPYなど)に対して1回しか行われません。一度学習させたフィルタは変更せず、新しい価格のフィルタリングに使用する。フィルタリング自体は非常に高速で、価格とフィルタリング係数の積の合計を計算します。

私の記憶では、各セグメントを数回通過させないと、グリッドは学習したとみなされないと思います。

問題は、それぞれの事例を何回提出しなければならないかです。

 
ウラン です。

私の記憶では、グリッドが訓練されたとみなされるためには、各セクションを何度も通過する必要があります。

問題は、各例題を何回提出しなければならないかです。

歴史の同じ部分を何度も見る必要はないのです。それに、すべてのパートを一度は経験する必要はないのです。歴史の一部分を省略することができます。フィルタは、基本的にランダムなサンプルで引用の統計を取ります。ここではサンプルのランダム性が重要なポイントです。履歴全体を順次スキャンした場合、フィルターは履歴の最初のほうの統計に傾きます。
 
gpwr
同じところを何度も見る必要はないのです。それに、すべてのパートを一度は経験する必要はないのです。歴史の一部分を省略することができます。フィルタは、基本的にランダムなサンプルから引用統計を収集します。
いや、フィルターの話だろ、これは余談だと言っただろう、NSの学習アルゴリズムの話だ。
 
Urain:
いや、フィルターの話でしょう、質問が横着だと警告したんですよ、NS学習アルゴリズムの話です。
それなら、本当にわからない。私が提案するネットワークは、数層のフィルターを持つデータ変換モジュールと、分類モジュールの2つで構成されています。最初のモジュールのフィルターは、教師なしで全履歴を一度学習し、その後のネットワークのすべてのアプリケーションのために記憶される。つまり、最初のモジュールの入力には価格パターンが含まれ、2番目のモジュールの出力には既知のシグナルである買い(+1)、売り(-1)、ホールド(0)が含まれるのです。2番目のモジュールは,フィードフォワードネットワーク(FFNまたはMLP),サポートベクターマシン(SVM),ラジアルベーシス関数(RBF)など,我々が知っている任意のニューラルネットワークを使用することができます.このモジュールの学習曲線は、最初のフィルタリングモジュールがない場合と同じように長いです。先ほど説明したように、私の考えでは、2つ目のモジュールは1つ目のモジュールほど重要ではありません。引用符をネットワークに供給する前に、まず正しく変換(フィルター)する必要があります。最もシンプルなフィルタリング方式はМАです。他の指標を適用することも可能であり、ほとんどのニューラルネットワークのオペレータが既に行っていることである。私は、この「指標」(私のネットワークの最初のモジュール)の出力で、同じだが歪んだパターンが同じコードで記述されるような引用の変換のための生物学的フィルタに似たいくつかのフィルタ層から成る特別な「指標」を提案します。そして、これらのコードを周知の方法で第2モジュールに分類することが可能である。
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
ファイル:
Books.zip  14709 kb
 

gpwr

それじゃあ、本当にわからないよ。私が提案するネットワークは、数層のフィルターを持つデータ変換モジュールと、分類モジュールの2つで構成されています。最初のモジュールのフィルターは、教師なしで全履歴を一度学習し、その後のネットワークのすべてのアプリケーションのために記憶される。 フィルタの学習が完了したら、2番目のモジュールに教師として、すなわち入力に価格パターン、出力に既知の買い(+1)、売り(-1)、保持(0)シグナルを教示します。2番目のモジュールは,フィードフォワードネットワーク(FFNまたはMLP),サポートベクターマシン(SVM),ラジアルベーシス関数(RBF)など,我々が知っているあらゆるニューラルネットワークを使用することができます.このモジュールの学習曲線は、最初のフィルタリングモジュールがない場合と同じように長いです。先ほど説明したように、私の考えでは、2つ目のモジュールは1つ目のモジュールほど重要ではありません。引用符をネットワークに供給する前に、まず正しく変換(フィルター)する必要があります。最もシンプルなフィルタリング方式はМАです。他の指標を適用することも可能であり、ほとんどのニューラルネットワークのオペレータが既に行っていることである。私は、この「指標」(私のネットワークの最初のモジュール)の出力で、同じだが歪んだパターンが同じコードで記述されるような引用の変換のための生物学的フィルタに似たいくつかのフィルタ層からなる特別な「指標」を提案します。そして、これらのコードを周知の方法で第2モジュールに分類することが可能である。

私が正しく理解していれば、フィルターそのものとその学習は、前処理モジュールに帰着させることができます。
 
ウラン です。
私が正しく理解していれば、フィルターそのものとその学習は、前処理モジュールに帰着させることができます。
そう、最初のモジュール、一生に一度の自己学習。
 
ウラン です。
アレックスと、どうやって14Mを添付することができたのか、モデレーターの特権か、それとも上限が増えたのか?
16Mまでと書いてある。おそらく増えたと思います。
 
ほーら、第15講は冒頭で話したファジーロジック・ネットワークだ。
 

u- アクティベータ入力

y- 追加の力率。

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+