"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 38

 
gpwr:
I filtri sono addestrati senza un insegnante presentando 10000-40000 sezioni di storia scelte a caso (lo stesso numero di iterazioni). L'apprendimento è molto veloce. A seconda del computer, 10000 filtri sono addestrati su 20000 patch di storia da 1-2 minuti su 360 processori GPU CUDA, circa 1 ora su 4 processori Intel con 16 tracce, 3-4 ore sul mio portatile con un processore e due tracce. Qui però il tempo non ha molta importanza. Anche se ho bisogno di un giorno o due per l'addestramento di tale filtro, viene fatto solo una volta per ogni quotazione (EURUSD, USDJPY, ecc.). Una volta che i filtri sono addestrati, non cambiano e vengono utilizzati per filtrare i nuovi prezzi. Il filtraggio stesso è molto veloce - si calcola la somma dei prodotti del prezzo e dei coefficienti del filtro.

Per quanto mi ricordo, dobbiamo passare ogni segmento più volte perché la griglia sia considerata allenata,

la domanda è: quante volte dovrebbe essere presentato ogni esempio?

 
Urain:

Per quanto mi ricordo, affinché la griglia sia considerata formata, ogni sezione deve essere attraversata più volte,

la domanda è: quante volte deve essere presentato ogni esempio?

Non è necessario ripercorrere più volte la stessa sezione della storia. E non è necessario ripercorrere ogni parte della storia almeno una volta. Alcune sezioni della storia possono essere omesse. I filtri raccolgono essenzialmente statistiche di citazioni da campioni casuali. La casualità di un campione è la cosa principale qui. Se l'intera storia viene scandita in modo sequenziale, i filtri si orienteranno verso le statistiche all'inizio della storia.
 
gpwr:
Non è necessario ripercorrere più volte la stessa parte della storia. E non è necessario ripercorrere ogni parte della storia almeno una volta. Alcune sezioni della storia possono essere omesse. I filtri raccolgono essenzialmente statistiche di citazione da campioni casuali.
No, stai parlando di filtri, ti ho detto che la domanda è laterale, sto parlando di algoritmi di apprendimento NS.
 
Urain:
No, stai parlando di filtri, ti ho avvertito che la domanda è laterale, sto parlando di algoritmi di apprendimento NS.
Allora davvero non capisco. La rete che propongo è composta da due moduli: un modulo di conversione dei dati con diversi strati di filtri e un modulo di classificazione. I filtri nel primo modulo sono addestrati senza insegnante su tutta la storia una volta e sono ricordati per tutte le applicazioni successive della rete. Una volta che i filtri sono stati addestrati, insegniamo al secondo modulo con l'insegnante, cioè l'input del primo modulo contiene un modello di prezzo e l'output del secondo modulo contiene segnali noti Buy (+1), Sell (-1), Hold (0). Il secondo modulo può essere qualsiasi rete neurale che conosciamo, per esempio Feed-Forward Network (FFN o MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). La curva di apprendimento di questo modulo è altrettanto lunga che senza il primo modulo di filtraggio. Come ho spiegato prima, secondo me il secondo modulo non è così importante come il primo. Dovresti prima trasformare (filtrare) correttamente le citazioni prima di darle in pasto alla rete. Il metodo di filtraggio più semplice è МА. Si possono applicare anche altri indicatori, ciò che la maggior parte degli operatori di reti neurali già fanno. Suggerisco un "indicatore" speciale composto da diversi strati filtranti simili ai filtri biologici per tale trasformazione delle quotazioni che gli stessi modelli ma distorti sono descritti dallo stesso codice all'uscita di questo "indicatore" (il primo modulo della mia rete). Poi è possibile classificare questi codici nel secondo modulo utilizzando metodi ben noti.
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
File:
Books.zip  14709 kb
 

gpwr:

Allora davvero non capisco. La rete che propongo è composta da due moduli: un modulo di conversione dei dati con diversi strati di filtri e un modulo di classificazione. I filtri nel primo modulo sono addestrati senza insegnante su tutta la storia una volta e sono ricordati per tutte le applicazioni successive della rete. Una volta che i filtri sono stati addestrati, insegniamo il secondo modulo con l'insegnante, cioè il modello di prezzo all'ingresso e i segnali noti Buy (+1), Sell (-1), Hold (0) all'uscita. Il secondo modulo può essere qualsiasi rete neurale che conosciamo, per esempio Feed-Forward Network (FFN o MLP), Support Vector Machine (SVM), Radial Basis Function (RBF). La curva di apprendimento di questo modulo è lunga come senza il primo modulo di filtraggio. Come ho spiegato prima, secondo me il secondo modulo non è così importante come il primo. Dovresti prima trasformare (filtrare) correttamente le citazioni prima di darle in pasto alla rete. Il metodo di filtraggio più semplice è МА. Si possono applicare anche altri indicatori, ciò che la maggior parte degli operatori di reti neurali già fanno. Suggerisco un "indicatore" speciale composto da diversi strati filtranti simili ai filtri biologici per tale trasformazione delle quotazioni che gli stessi modelli ma distorti sono descritti dallo stesso codice all'uscita di questo "indicatore" (il primo modulo della mia rete). Poi è possibile classificare questi codici nel secondo modulo utilizzando metodi ben noti.

Se ho capito bene, i filtri stessi e il loro addestramento possono essere attribuiti al modulo di pre-elaborazione.
 
Urain:
Se ho capito bene, i filtri stessi e il loro addestramento possono essere attribuiti al modulo di pre-elaborazione.
Sì, il primo modulo, l'autoapprendimento una volta per tutta la vita.
 
Urain:
Alex e come sei riuscito a far attaccare 14M, privilegio del moderatore o hanno aumentato il limite?
Dice a 16M. Probabilmente è aumentato.
 
Urrà, la lezione 15 sono le reti logiche fuzzy di cui parlavo all'inizio.
 

u - ingresso attivatore

y - fattore di potenza supplementare.

//+------------------------------------------------------------------+
double sigma0(double u,double y=1.)// [0;1]
  {
   return(1./(1.+exp(-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1(double u,double y=1.)// [-1;1] сдвинутый сигмоид
  {
   return((2./(1.+exp(-y*u)))-1.);
  }
//+------------------------------------------------------------------+
double func1(double u,double y=1.)// [-1;1]
  {
   return(y*u/sqrt(1.+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2(double u,double y=1.)// [-1;1]
  {
   return(sin(M_PI_2*y*u));
  }
//+------------------------------------------------------------------+
double func3(double u,double y=1.)// [-1;1]
  {
   return(2./M_PI*atan(y*u));
  }
//+------------------------------------------------------------------+
double func4(double u,double y=1.)// [-1;1]
  {
   return(y*u-y*y*y/3.*u*u*u);
  }
//+------------------------------------------------------------------+
double line0(double u,double y=1.)// [0;1] линейный активатор
  {
   double v=y*u;
   return((v>1.?1.:v<0.?0.:v));
  }
//+------------------------------------------------------------------+
double line1(double u,double y=1.)// [-1;1]
  {
   double v=y*u;
   return((v>1.?1.:v<-1.?-1.:v));
  }
//+------------------------------------------------------------------+
double Mline(double v)// [DBL_MIN;DBL_MAX]
  {
   return((v>DBL_MAX?DBL_MAX:v<DBL_MIN?DBL_MIN:v));
  }
//+------------------------------------------------------------------+
Motivazione: