Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1963
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
birkaç D-nöron (ağ tipi)
hata, % = 45.10948905109489
dosvidos)
Kesilen ızgarayı ve öfkemi postayla yazara attımNe belirledi? Banknotların gerçekliği?
Evet
Evet
Hasarlı mantık.
tuzaklar olabilir. Örneğin, özelliklerde negatif değerlere izin verilmez, çünkü mikro testlerinde ikilileştirilmiş olanları kullanır. Yetersiz açıklamasında bununla ilgili hiçbir şey yok, hata göstermiyor.
tuzaklar olabilir. Örneğin, özelliklerde negatif değerlere izin verilmez, çünkü mikro testlerinde ikilileştirilmiş olanları kullanır. Yetersiz açıklamasında bununla ilgili hiçbir şey yok, hata göstermiyor.
İşbirlikçi Filtreleme için ilginç bir NN yaklaşımı
Kişilerin ve filmlerin kimlikleri yerine alım satım araçları ve stratejileri, tahminler yerine bir tür metrik (beklenti vb.) alabilirsiniz. Ardından araç ve strateji için gizli değişkenleri hesaplayın. Sonra canın ne isterse. Bir araç için bir sistem seçin veya hareket halindeyken istenen özelliklerle üretin, sistem için sentetikler oluşturun....
Kesilen ızgarayı ve öfkemi postayla yazara attım
Yazdığı ilginç.
Yazdığı ilginç.
En temiz bölme, daha az temiz olanlarla karıştırılır. Onlar. trende sonucu kötüleştirir, prensipte bizim için önemli değildir. Ancak bunun test sonucunu iyileştireceği bir gerçek değil, yani. genelleme yeteneği Birinin denemesi gerekiyor... kişisel olarak, bir genellemenin daha iyi olacağını düşünmüyorum. ormanlar.
Ağacın derinliğini sınırlamak ve bir öncekinde durarak son bölmeyi yapmamak çok daha kolaydır. Sonuç olarak, ek bir bölme yaptığımızdan daha az temiz sayfa elde ederiz. Seçeneğiniz, ayrılsak da ayrılmasak da arasında bir şey verecektir. Onlar. örneğin, kendi yönteminizle 7. derinlik seviyesindeki sayfanın ortalamasını alırsınız. 6. derinlik seviyesindeki bir tabakadan biraz daha temiz olacaktır. Genellemenin bundan pek bir şey değişmeyeceğini düşünüyorum ama bu fikri test etmek için yapılacak çok iş var. Ayrıca, derinliği 6 ve 7 olan birkaç ağacın ortalamasını da alabilirsiniz - yönteminize göre olanla hemen hemen aynısını elde ederiz.
Daha önce, sayfanın küçük numuneler için göstergelerin en az %1'ini ve büyük numuneler için 100'ü içermesi gerektiğini açıklamamıştım, bu nedenle elbette herhangi bir sınıf için sayfada hata olmayana kadar bölünme olmayacak.
Görünüşe göre son aşamayı yanlış anlıyorsunuz - bunu kalan %1'lik örneğin istatistiksel bir tahmini olarak görüyorum - bu örnekte sonucun farklı öngörücülerle bölündüğünde iyileştiğini gözlemliyoruz, alt uzay hakkında bilgi alıyoruz, örneğin:
A>x1 ise, hedef 1, alt örneğin %60'ı olacak şekilde %40 oranında doğru bir şekilde tanımlanacaktır.
B>x2 ise, hedef 1, alt örneğin %45'i olacak şekilde %55 doğru olarak tanımlanacaktır.
A<=x1 ise, hedef 1, alt örneğin %50'si olacak şekilde %70 oranında doğru bir şekilde tanımlanacaktır.
Bu tür her bölünmenin bir önem faktörü vardır (henüz nasıl hesaplanacağına karar vermedim) ve son bölünmede de vardır.
vesaire, diyelim ki 5-10 tahminciye kadar, o zaman uygularken, son bölmeye ulaştıysak, katsayıları ekleyin (veya daha karmaşık bir indirgeme yöntemi kullanın) ve katsayıların toplamı eşiği aşarsa, sonra 1 sayfada sınıflandırılır, aksi takdirde sıfırdır.
Basit bir şekilde, bu, sondan bir önceki bölünmeye kadar bir ormanı zorla inşa ederek ve ardından yenilerinin seçilmesi için önceden seçilmiş tahmin edicileri örnekten hariç tutarak yapılabilir. Veya ağacı oluşturduktan hemen sonra, seçimi yaprağa göre filtreleyin ve eksiksizlik ve doğruluk kriterini karşılayan en iyi ayrımı bulmak için her bir tahminciyi kendiniz gözden geçirin.
Ve, diğer sınıf "0", hareketsizlik anlamına geliyorsa ve tersi girdi değilse, eğitim örneğindeki sonuç iyileşecektir, aksi takdirde hem iyileşme hem de bozulma olabilir.