Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1963

 
Maksim Dmitrievski :

birkaç D-nöron (ağ tipi)

hata, % = 45.10948905109489

dosvidos)

Kesilen ızgarayı ve öfkemi postayla yazara attım
Neyi belirledi? Banknotların gerçekliği?
 
Valeriy Yastremskiy :
Ne belirledi? Banknotların gerçekliği?

Evet

 
Maksim Dmitrievski :

Evet

Hasarlı mantık.
 
Valeriy Yastremskiy :
Hasarlı mantık.

tuzaklar olabilir. Örneğin, özelliklerde negatif değerlere izin verilmez, çünkü mikro testlerinde ikilileştirilmiş olanları kullanır. Yetersiz açıklamasında bununla ilgili hiçbir şey yok, hata göstermiyor.

 
Maksim Dmitrievski :

tuzaklar olabilir. Örneğin, özelliklerde negatif değerlere izin verilmez, çünkü mikro testlerinde ikilileştirilmiş olanları kullanır. Yetersiz açıklamasında bununla ilgili hiçbir şey yok, hata göstermiyor.

Kusurluluk da genellikle belirgin olmayan işaretlerde ortaya çıkar. Ve onları tanımlamak, bir tür doğru mantıkta hala sorundur.
 
Bir yandan, diğer yandan ağırlık ikilidir. Bıraktıklarından buna ve gelene kadar.
 

İşbirlikçi Filtreleme için ilginç bir NN yaklaşımı

Kişilerin ve filmlerin kimlikleri yerine alım satım araçları ve stratejileri, tahminler yerine bir tür metrik (beklenti vb.) alabilirsiniz. Ardından araç ve strateji için gizli değişkenleri hesaplayın. Sonra canın ne isterse. Bir araç için bir sistem seçin veya hareket halindeyken istenen özelliklerle üretin, sistem için sentetikler oluşturun....

 
Maksim Dmitrievski :
Kesilen ızgarayı ve öfkemi postayla yazara attım

Yazdığı ilginç.

 
mytarmailS :

Yazdığı ilginç.

Şimdiye kadar hiçbir şey. Örneklerde bir miktar düzenlilik olmalı, bütün mesele bu. Bu farklı bir yaklaşım. Düzenli setlerde düşünüyorum ve eğitilmemeli. Onlar. satırdaki entropi ne kadar düşükse, kesim o kadar iyi olur ve bu veri kümesinde örnekler rastgele karıştırılır. Genel olarak, önemli olan örüntü değil, sıralarıysa
 
elibrarius :
En temiz bölme, daha az temiz olanlarla karıştırılır. Onlar. trende sonucu kötüleştirir, prensipte bizim için önemli değildir. Ancak bunun test sonucunu iyileştireceği bir gerçek değil, yani. genelleme yeteneği Birinin denemesi gerekiyor... kişisel olarak, bir genellemenin daha iyi olacağını düşünmüyorum. ormanlar.

Ağacın derinliğini sınırlamak ve bir öncekinde durarak son bölmeyi yapmamak çok daha kolaydır. Sonuç olarak, ek bir bölme yaptığımızdan daha az temiz sayfa elde ederiz. Seçeneğiniz, ayrılsak da ayrılmasak da arasında bir şey verecektir. Onlar. örneğin, kendi yönteminizle 7. derinlik seviyesindeki sayfanın ortalamasını alırsınız. 6. derinlik seviyesindeki bir tabakadan biraz daha temiz olacaktır. Genellemenin bundan pek bir şey değişmeyeceğini düşünüyorum ama bu fikri test etmek için yapılacak çok iş var. Ayrıca, derinliği 6 ve 7 olan birkaç ağacın ortalamasını da alabilirsiniz - yönteminize göre olanla hemen hemen aynısını elde ederiz.

Daha önce, sayfanın küçük numuneler için göstergelerin en az %1'ini ve büyük numuneler için 100'ü içermesi gerektiğini açıklamamıştım, bu nedenle elbette herhangi bir sınıf için sayfada hata olmayana kadar bölünme olmayacak.

Görünüşe göre son aşamayı yanlış anlıyorsunuz - bunu kalan %1'lik örneğin istatistiksel bir tahmini olarak görüyorum - bu örnekte sonucun farklı öngörücülerle bölündüğünde iyileştiğini gözlemliyoruz, alt uzay hakkında bilgi alıyoruz, örneğin:

A>x1 ise, hedef 1, alt örneğin %60'ı olacak şekilde %40 oranında doğru bir şekilde tanımlanacaktır.

B>x2 ise, hedef 1, alt örneğin %45'i olacak şekilde %55 doğru olarak tanımlanacaktır.

A<=x1 ise, hedef 1, alt örneğin %50'si olacak şekilde %70 oranında doğru bir şekilde tanımlanacaktır.

Bu tür her bölünmenin bir önem faktörü vardır (henüz nasıl hesaplanacağına karar vermedim) ve son bölünmede de vardır.

vesaire, diyelim ki 5-10 tahminciye kadar, o zaman uygularken, son bölmeye ulaştıysak, katsayıları ekleyin (veya daha karmaşık bir indirgeme yöntemi kullanın) ve katsayıların toplamı eşiği aşarsa, sonra 1 sayfada sınıflandırılır, aksi takdirde sıfırdır.


Basit bir şekilde, bu, sondan bir önceki bölünmeye kadar bir ormanı zorla inşa ederek ve ardından yenilerinin seçilmesi için önceden seçilmiş tahmin edicileri örnekten hariç tutarak yapılabilir. Veya ağacı oluşturduktan hemen sonra, seçimi yaprağa göre filtreleyin ve eksiksizlik ve doğruluk kriterini karşılayan en iyi ayrımı bulmak için her bir tahminciyi kendiniz gözden geçirin.

Ve, diğer sınıf "0", hareketsizlik anlamına geliyorsa ve tersi girdi değilse, eğitim örneğindeki sonuç iyileşecektir, aksi takdirde hem iyileşme hem de bozulma olabilir.

Neden: