Kütüphaneler: MLP sinir ağı sınıfı - sayfa 2

 
elibrarius:

Çarpım tablosu eğitiminin sonuçları karşılaştırıldığında, ağınız belirgin bir şekilde kaybediyor. ALGLIB'de 100 epoch eğitim için 2,5,1 ağı(https://www.mql5.com/ru/forum/8265/page2) 1000000 epoch ile sizinkinden daha iyi cevaplar veriyor. 10000000000 epoklarını hesaplama hızı da memnun edici değil.

Görünüşe göre öğrenme yöntemi çok verimli değil. Ama yine de - çalışmanız için teşekkürler, küçük kodlarda anlaşılması ALGLIB'den daha kolay. Ama o zaman hala oraya gitmemiz gerekiyor.

yanlış karşılaştırma, 100 örneğin tamamı alglib varyantında öğrenme için gösteriliyor, bu yüzden cevaplar daha doğru. alglib'de cevapları olan örnekleri azaltırsanız, sonuçların daha iyi olmayacağını düşünüyorum.

 

Merhaba, bu yerel kütüphaneyi yapmak için zaman ayırdığınız için çok minnettarım!

Bir sıcak kodlama yapmaya çalıştım ve gizli katmana relu ve çıktı katmanı çağrısına bir Softmax işlevi ekledim. Çalışıyor ve %100 toplam sonuç üretiyor.

Ancak Sigmoud'a geri dönerken bile eğitim berbat oldu, iRprop sınıflandırma için uygun değil mi? Girdi ne olursa olsun hemen hemen aynı çıktıyı veriyor. Bazen değişiyor ama çok değil.


İkinci soru, Tanh ve Sigmod'un Lern yönteminde farklı muamele gördüğünü görüyorum, kodun o kısmını henüz anlamadım, ancak Relu için hangisi uygun?

 
Bu harika katkı için teşekkürler... İzin verilen hatayı nasıl belirleyebileceğimi açıklayabilir misiniz?
 
northedan:
Bu harika katkı için teşekkürler... İzin verilen hatayı nasıl belirleyebileceğimi açıklayabilir misiniz?
//+------------------------------------------------------------------+
//| Öğren|
//+------------------------------------------------------------------+
void CNetMLP::Learn(int c_npat,       // öğretim modellerinin sayısı
                    double &c_inp[],  // giriş verileri
                    double &c_res[],  // çıktı verisi
                    int c_nep,        // öğrenme epoklarının sayısı
                    double c_err)     // izin verilen hata