"Genetik Algoritmalar - Çok Kolay!" makalesi için tartışma - sayfa 10
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
... ancak üst döngüde +1 atanır, bu yüzden -1'i çıkarırım ...
İşte köpek orada!!! Ve düşünüyorum da - nasıl oluyor da - makale zaten bir yaşında - ve her şey çalışıyor, kimse şikayet etmiyor ... Makale için tekrar teşekkürler ... ve açıklamalar için :)
Merhaba@joo. Zig-Zag'ınızı seviyorum, ancak çok sayıda mumda yavaş. Kalite kaybı olmadan hızlanma elde etmek mümkün mü?
Üzgünüm ama bu göstergenin yazarı ben değilim.
Lütfen bu göstergenin tartışma sayfasına bakın.
Atıfta bulunulan kaynağın yetkinliğine itiraz etmeyeceğim, ancak aynı fikirde değilim.
Optimizasyon problemlerinde GA kullanmanın uygunluğu, doğrudan aramaya kıyasla optimumun belirlenmesi için gereken FF çalıştırma sayısının azaltılmasında yatmaktadır.
Eğer tavsiyeye uyarsak
sonra 1000 argümanlı bir problem için 11000 bireylik bir popülasyon büyüklüğü gerektirecektir! Ve bu sadece 1 epokta 11000 FF çalışması demektir! Rastgele gen üretimini de kullanabilirsiniz ve sonuç optimumun bulunmasında çok daha düşük olmayacaktır. Verilen kaynak, büyük bir popülasyonda, popülasyonu her çağda iyileştirmeye doğru daha da geliştirmek için yeterli genetik materyal olacağına dair bir "bahis" yapar. Ben de aynı şeyi başarmaya çalışıyorum, ancak FF çalışmalarında toplam bir artış olmadan genetik operatörlerle olasılıklarla oynama pahasına.
Dürüst olmak gerekirse, 1000 argümanlı bir problem hayal edemiyorum. Algoritmayı bir sinir ağını eğitmek için kullanıyorum, diyelim ki beş katman, ancak üç katman genellikle yeterlidir, bu nedenle girdinin beş katman için 14 değişken ve üç katman için 17 değişken olduğu ortaya çıkıyor!!!! Buraya ne koyabilirsiniz?!
Çok kolay.
İşte 2 gizli katmana sahip 4 katmanlı bir ağ için optimize edilebilir parametrelerin sayısı, örneğin bunun için - 10-40-40-40-1:
10*40+40+40+40+40*40+40+40+40*1+1=2121 (nöronların ağırlıkları ve40+40+1=81 nöron için kaydırmaları).
Gördüğünüz gibi, bu kadar küçük bir ağ için 2121 parametrenin optimize edilmesi gerekiyor.
MT'nin yaptığı gibi bir Uzman danışmanı optimize etmek için bu kütüphaneyi nasıl kullanacağınıza dair bir örnek yayınlamanız mümkün mü?
Benim için büyük bir yardım olurdu
Teşekkür ederim.
MT'nin yaptığı gibi bir Uzman danışmanı optimize etmek için bu kütüphaneyi nasıl kullanacağınıza dair bir örnek yayınlamanız mümkün mü?
Benim için büyük bir yardım olurdu
Teşekkür ederim.
Ne yazık ki bunun için zamanım yok ve uyarıcı....
Belki daha sonra.
Üzgünüm ama biraz aptalım.
Burada ele alınan sürekli genlere sahip algoritmada, adım gibi bir parametrenin anlamsız olduğu ortaya çıkıyor. Doğruluktan ancak sonuç önceden biliniyorsa ve argüman bulmak gerekiyorsa bahsedebiliriz.
...
Burada ele alınan sürekli genlere sahip algoritmada, adım gibi bir parametrenin anlamsız olduğu ortaya çıkmaktadır. Doğruluktan ancak sonuç önceden biliniyorsa ve argüman bulmak gerekiyorsa bahsedebiliriz.
Kesinlikle doğru, genler arasındaki mesafe yeterince büyükse, adım daha büyük olacaktır, genler yaklaştıkça, adım otomatik olarak azalır, çünkü adım kavramı kullanılmaz, ancak bir çözüm bulmanız gereken doğruluk kullanılır. Genler arasındaki mesafe her zaman rastgele süreye bölünür ve 32768 sabittir. Ortaya çıkan sayı koşullu adım olacaktır.
Sonuç bilinmese bile, hangi hassasiyetin gerekli olduğunun çözümünü varsayabilirsiniz, bir çözüm aramak için hangi adımla ihtiyacınız olduğunu belirtmek bilinmeyen alandan daha kolaydır.