"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 75

 
onun.insan :

Mesele nasıl değil. Merak ediyorum, GA bu kadar zayıf bir demir parçasıyla çekecek mi?

Joo algoritmasının daha hafif bir versiyonu.

Eh, kabaca tahmin edebilirsiniz. Bunu yapmak için, zamanı ölçerken FF'nin geçmişini bir kez çalıştırın ve ardından 10000 ile çarpın. Çok gerçekçi bir sonuç elde edersiniz, antrenmanı sürerseniz ne olur.


Ve bu .. Zaten bunu kolaylaştıracak ne var? :)

 
joo :

Eh, kabaca tahmin edebilirsiniz. Bunu yapmak için, zamanı ölçerken FF'nin geçmişini bir kez çalıştırın ve ardından 10000 ile çarpın. Çok gerçekçi bir sonuç elde edersiniz, antrenmanı sürerseniz ne olur.


Ve bu .. Zaten bunu kolaylaştıracak ne var? :)

Tam olarak yeterli değil, yine de algoritma uygulamasının saf değerini elde etmek için toplam FF zamanını ayrı ayrı ölçmeniz ve çıkarmanız gerekiyor.

sonra parametre sayısıyla çarpabilirsiniz.

Pirzola ayrı ayrı uçar.

 
Ukrayna :
Her nasılsa, yukarıda çizdiğim gibi bir Tester GA ile küçük bir ızgarayı eğitmek için bir test yazmayı düşündüm, 6 ağırlık 3 nöron, XOR görevi, ancak tüm eller ulaşmıyor :)
Hakkında konuşuyorum:
Ağ 100x1000x1 - tamamen bağlı
 
onun.insan :
Hakkında konuşuyorum:
onun.insan :

1) Ne öğretmeli

2) kaç örnek,

3) hata, vb?

1) Deney uğruna - örneğin makaledeki gibi işlevin hangi iş parçacığını tahmin etmeye çalışın.

2) Bence en az 1000.

3) FFF - test fonksiyonunun yüzeyindeki en küçük hata.

 
joo :

Ve bu .. Zaten bunu kolaylaştıracak ne var? :)

UGA - evrensel, birçok görev için uygundur. Özellikle ağ eğitimi için keskinleştirebilir, hafifletebilirsiniz.
 
joo :

3) FFF - test fonksiyonunun yüzeyindeki en küçük hata.

ZFF - anlamıyorum. ?
 
onun.insan :
ZFF - anlamıyorum. ?
Makalenin terminolojisini takip ederseniz FF veya - VFF değeri.
 
joo :
Makalenin terminolojisini takip ederseniz FF veya - VFF değeri.

en küçük hata gevşek bir kavramdır ...

İşte bu, ben gidiyorum, burada benden bir sürü var. Daha fazla yanlış anlama olacak, çöpe atmamak için kişisel olarak soracağım. Size sonucun nasıl olacağını göstereceğim.

Umarım Urain & yu-sha ağın mimarisine ve tanımına karar verir.

 

Standart bir test cihazı GA tarafından çözülen XOR sorunu, 100 örnek başına 14 ayrı hata.

kodda, bir kaskaddaki iki nöron için ve klasik MLP'de olduğu gibi üç nöron için iki ızgara vardır.

yorumlarda yukarıdaki adım, 7 parametre için adım 0.005 , 9 parametre için 0.2-03 giriş ağırlığı 0.2, bağımsız 03.

çok oyuncak ama güzel

PS burada bir aptalım, ancak örneklerde bir örnek için köşelerde 1 ve ortada 0 verdim. Ve ızgara girişte iki sıfırdan nasıl bükülürse dönsün, 1 veremez.

Şu anda şebekenin çıktılarını ters çeviriyorum, hata ayrı bir biçimde sıfıra eşit olmalı ve gerçek bir biçimde sıfıra eğilimli olmalıdır.

ZY garip bir şekilde çıktıları tersine çevirdi ve hata gitmedi, hatta biraz 16 büyüdü, tamam, incirleri GA'da yazacağız :), hatta belki de hotz zaten uyuyordu.

Dosyalar:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

Bugün Yaşlılar Günü :)

Tam bir sessizlik, herkes röportajlar içiyor.

Neden: