"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 38

 
gpwr :
Filtreler, geçmişin rastgele seçilmiş 10000-40000 bölümünü (aynı sayıda yineleme) temsil ederek denetimsiz olarak eğitilir. Öğrenme çok hızlı. Bilgisayara bağlı olarak, 10.000 filtre, 360 GPU CUDA işlemcilerde 1-2 dakika, 16 iş parçacıklı 4 Intel işlemcide yaklaşık 1 saat, dizüstü bilgisayarımda bir işlemci ve iki iş parçacığı ile 3-4 saat arasında 20.000 bölümde eğitiliyor. Burada zaman önemli olmasa da. Filtreleri bu şekilde eğitmek bir veya iki günümü alsa bile, her teklif için yalnızca bir kez yapılır (EURUSD, USDJPY, vb.). Filtreler eğitildikten sonra değişmeden kalırlar ve yeni fiyatları filtrelemek için kullanılırlar. Filtrelemenin kendisi çok hızlıdır - fiyat ürünlerinin toplamını filtrelerin katsayılarıyla hesaplarız.

Hatırladığım kadarıyla gridin eğitilmiş sayılabilmesi için her bölümün birkaç kez geçilmesi gerekiyor,

soru, her örneğin kaç kez sunulması gerektiğidir?

 
Ukrayna :

Hatırladığım kadarıyla gridin eğitilmiş sayılabilmesi için her bölümün birkaç kez geçilmesi gerekiyor,

soru, her örneğin kaç kez sunulması gerektiğidir?

Hikâyenin aynı kısmından birkaç kez geçmek gerekli değildir. Ve hikayenin her bölümünü en az bir kez geçmek gerekli değildir. Hikayenin bazı bölümleri atlanabilir. Filtreler esasen rastgele örneklerden alıntı istatistikleri toplar. Örneklemenin rastgeleliği burada anahtardır. Tüm geçmişi sırayla tararken, filtreler tarihin başlangıcındaki istatistiklere doğru eğilecektir.
 
gpwr :
Hikâyenin aynı kısmından birkaç kez geçmek gerekli değildir. Ve hikayenin her bölümünü en az bir kez geçmek gerekli değildir. Hikayenin bazı bölümleri atlanabilir. Filtreler esasen rastgele örneklerden alıntı istatistikleri toplar.
Hayır, filtrelerden bahsediyorsunuz, ancak sorunun bir kenara bırakıldığı konusunda uyardım, sinir ağı öğrenme algoritmalarından bahsediyorum.
 
Ukrayna :
Hayır, filtrelerden bahsediyorsunuz, ancak sorunun bir kenara bırakıldığı konusunda uyardım, sinir ağı öğrenme algoritmalarından bahsediyorum.
Sonra gerçekten anlamadım. Önerdiğim ağ iki modülden oluşuyor: birkaç filtre katmanına sahip bir veri dönüştürme modülü ve bir sınıflandırma modülü. İlk modüldeki filtreler, tarih boyunca bir kez denetimsiz olarak eğitilir ve ağın sonraki tüm uygulamaları için hatırlanır. Filtreler eğitildikten sonra ikinci modülü bir öğretmenle yani. ilk modülün girişinde bir fiyat örüntüsü var, ikinci modülün çıkışında zaten bilinen Alış (+1), Satış (-1), Tut (0) sinyalleri var. İkinci modül, İleri Besleme Ağı (FFN veya MLP), Destek Vektör Makinesi (SVM), Radyal Temel İşlev (RBF) gibi bildiğimiz herhangi bir sinir ağı olabilir. Bu modülün eğitimi, ilk filtre modülü olmadığı sürece geçerlidir. Daha önce de açıkladığım gibi, bence ikinci modül birincisi kadar önemli değil. Teklifleri ağa göndermeden önce önce doğru şekilde dönüştürmeniz (filtrelemeniz) gerekir. En basit filtreleme yöntemi örneğin MA'dır. Çoğu sinir ağının halihazırda yaptığı diğer göstergeler uygulanabilir. Alıntıların böyle bir dönüşümü için biyolojik olanlara benzer birkaç filtre katmanından oluşan özel bir "gösterge" öneriyorum, bu "göstergenin" (ağımın ilk modülü) çıkışında aynı ancak çarpık kalıplar aynı kodla açıklanıyor. ). O zaman bu kodları ikinci modülde iyi bilinen yöntemlerle sınıflandırmak zaten mümkün.
 
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
Нейрокомпьютерные системы | Учебный курс | НОУ ИНТУИТ
  • www.intuit.ru
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Dosyalar:
Books.zip  14709 kb
 

gpwr :

Sonra gerçekten anlamadım. Önerdiğim ağ iki modülden oluşuyor: birkaç filtre katmanına sahip bir veri dönüştürme modülü ve bir sınıflandırma modülü. İlk modüldeki filtreler, tarih boyunca bir kez denetimsiz olarak eğitilir ve ağın sonraki tüm uygulamaları için hatırlanır. Filtreler eğitildikten sonra ikinci modülü bir öğretmenle yani. girişte bir fiyat paterni var, çıkışta zaten bilinen Alış (+1), Satış (-1), Tut (0) sinyalleri var. İkinci modül, İleri Besleme Ağı (FFN veya MLP), Destek Vektör Makinesi (SVM), Radyal Temel İşlev (RBF) gibi bildiğimiz herhangi bir sinir ağı olabilir. Bu modülün eğitimi, ilk filtre modülü olmadığı sürece geçerlidir. Daha önce de açıkladığım gibi, bence ikinci modül birincisi kadar önemli değil. Teklifleri ağa göndermeden önce önce doğru şekilde dönüştürmeniz (filtrelemeniz) gerekir. En basit filtreleme yöntemi örneğin MA'dır. Çoğu sinir ağının zaten yaptığı diğer göstergeler uygulanabilir. Alıntıların böyle bir dönüşümü için biyolojik olanlara benzer birkaç filtre katmanından oluşan özel bir "gösterge" öneriyorum, bu "göstergenin" (ağımın ilk modülü) çıkışında aynı ancak çarpık kalıplar aynı kodla açıklanıyor. ). O zaman bu kodları ikinci modülde iyi bilinen yöntemlerle sınıflandırmak zaten mümkün.

Doğru anlarsam, filtrelerin kendileri ve eğitimleri ön işleme modülüne atfedilebilir.
 
Ukrayna :
Doğru anlarsam, filtrelerin kendileri ve eğitimleri ön işleme modülüne atfedilebilir.
Evet, ilk modül, ömür boyu bir kez kendi kendine öğrenme.
 
Ukrayna :
Alex, 14 metre, moderatör ayrıcalığı eklemeyi veya limiti artırmayı nasıl başardın?
16M'den önce yazılmıştır. Muhtemelen arttı.
 
İçinde! Yaşasın 15. ders en başta bahsettiğim bulanık mantık ağları.
 

u - aktivatör girişi

y ek bir güç faktörüdür.

 //+------------------------------------------------------------------+
double sigma0( double u, double y= 1 .) // [0;1]
  {
   return ( 1 ./( 1 .+ exp (-y*u)));
  }
//+------------------------------------------------------------------+
double sigma1( double u, double y= 1 .) // [-1;1] сдвинутый сигмоид
  {
   return (( 2 ./( 1 .+ exp (-y*u)))- 1 .);
  }
//+------------------------------------------------------------------+
double func1( double u, double y= 1 .) // [-1;1]
  {
   return (y*u/ sqrt ( 1 .+y*y*u*u));
  }
//+------------------------------------------------------------------+
double func2( double u, double y= 1 .) // [-1;1]
  {
   return ( sin ( M_PI_2 *y*u));
  }
//+------------------------------------------------------------------+
double func3( double u, double y= 1 .) // [-1;1]
  {
   return ( 2 ./ M_PI * atan (y*u));
  }
//+------------------------------------------------------------------+
double func4( double u, double y= 1 .) // [-1;1]
  {
   return (y*u-y*y*y/ 3 .*u*u*u);
  }
//+------------------------------------------------------------------+
double line0( double u, double y= 1 .) // [0;1] линейный активатор
  {
   double v=y*u;
   return ((v> 1 .? 1 .:v< 0 .? 0 .:v));
  }
//+------------------------------------------------------------------+
double line1( double u, double y= 1 .) // [-1;1]
  {
   double v=y*u;
   return ((v> 1 .? 1 .:v<- 1 .?- 1 .:v));
  }
//+------------------------------------------------------------------+
double Mline( double v) // [DBL_MIN;DBL_MAX]
  {
   return ((v> DBL_MAX ? DBL_MAX :v< DBL_MIN ? DBL_MIN :v));
  }
//+------------------------------------------------------------------+