Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1240

 
Maksim Dmitrievski :

para için değil fikir için buradayız)) para çok daha banal yollarla kazanılıyor

Evet, bu fikir de neyin nesi. Pekala, makine öğrenimi var, ama mucize yok, bu sadece daha karmaşık bir gösterge ve başka bir şey değil.

Peki, ya da hisse senedi ticareti, vadeli işlemler, sadece orada daha fazla paraya ihtiyacınız var, yani bu benimle ilgili değil.

Yani, programlayacağım ve hepsi hamama gitti, çok fazla sinir ve güç gerektiriyor ve egzoz bir sivrisinek eti gibi.

 
forexman77 :

Evet, bu fikir de neyin nesi. Pekala, makine öğrenimi var, ama mucize yok, bu sadece daha karmaşık bir gösterge ve başka bir şey değil.

Peki, ya da hisse senedi ticareti, vadeli işlemler, sadece orada daha fazla paraya ihtiyacınız var, yani bu benimle ilgili değil.

Yani, programlayacağım ve hepsi hamama gitti, çok fazla sinir ve güç gerektiriyor ve egzoz bir sivrisinek eti gibi.

Doğal olarak bu iş değil, böyle düşünmenize bile gerek yok, önce kıçınızın sıcak olmasına özen göstermeli, sonra acı çekmelisiniz..

 

Kısacası forex'in tırmanmanız gereken bir dağ olduğunu hayal edin. Ancak bu, tutunacak hiçbir şeyi olmayan neredeyse pürüzsüz bir dağdır.

Ve MO'daki %1-2'lik iyileştirmeler pratikte hiçbir şey vermeyecek, orada tahmin ediciler yok, sadece gürültü ve hepsi bu, diğer her şey yeniden eğitim ve başka bir şey değil.

 
Maksim Dmitrievski :

kısacası alglib'de sınıflandırma hatası ve logloss..Logloss'a göre hiç bir şey net değil ormanın yakınındaki trende sınıflandırma hatası bir eğitim numunesi>0.8 ve oob 0.2 ile sıfıra düşüyor

bu nedenle, eğitim örneği en azından bir miktar hata olacak şekilde küçük yapılmıştır, ancak yine de küçüktür. Python ile karşılaştırmayı bilmiyorum

Aksine, fazla uydurma ... Ağaçlar girdi verilerini tamamen hatırlayabilir. R azaltılabilir, ancak Alglib'de ince ayar yapacak başka bir şey yok gibi görünüyor. Örneğin xgboost'ta bir ağacın derinliği sınırlandırılabilir.
Bu yüzden ilk başta bunlarla uğraşmadım, gridlere geçtim. Ancak ağların kendi sorunları var.
 
Sihirbaz_ :

Çıldırdım ... Maksimka, bu yüzden taşlandı)))) Hayır, buraya bile yazdım. Kısacası - logoloss bir cezadır. Akvaryumda tekrar okuyun, yorumlaması kolaydır, bu yüzden kullanılır.

Ardından, mantık dilinde mona'yı biraz bükün ve accuarisi konusunda şanslıysanız, yüzde birkaç daha sıkın. Fa'yı gösterdi, R'de bir İncil var ...

Evet, hep yarısını unutuyorum, sonra bir yıl sonra aynı şeye şaşırıyorum. Tekrar okuyacağım :) alglib'de biraz sürüş var, genel olarak, her şey ciddi kütüphanelerdeki gibi değil ve orman kendi kendine yapılmış

 
Sihirbaz_ :

Çıldırdım ... Maksimka, bu yüzden taşlandı)))) Hayır, buraya bile yazdım. Kısacası - logoloss bir cezadır. Akvaryumda tekrar okuyun, yorumlaması kolaydır, bu yüzden kullanılır.

Ardından, mantık dilinde mona'yı biraz bükün ve accuarisi konusunda şanslıysanız, yüzde birkaç daha sıkın. Fa'yı gösterdi, R'de bir İncil var... Onu algibe çeken nedir, evet xs, orada cha ayarlarında ne bükülüyor...

çıngırağın açgözlülüğünü azaltın...

Alglib-e'de sadece r düzenlileştirme içindir
 

Piyasalara genel olarak akurashu cho, bence uygulanabilir değil, orada başlangıçta sınıflar dengeli değil.

%100 akurashu'nuz varsa, her şey çoğunluk sınıfına uçar, bu genellikle en kötü ölçümdür. Karışıklık matrisine bakmak daha iyidir, özellikle sınıfların nasıl bölündüğünü gösterir.

 
elibrarius :
Aksine, fazla uydurma ... Ağaçlar girdi verilerini tamamen hatırlayabilir. R azaltılabilir, ancak Alglib'de ince ayar yapacak başka bir şey yok gibi görünüyor. Örneğin xgboost'ta bir ağacın derinliği sınırlandırılabilir.
Bu yüzden ilk başta bunlarla uğraşmadım, gridlere geçtim. Ancak ağların kendi sorunları var.

sadece ağaç sayısı vardır ve r evet, r'yi 0,6'dan fazla ayarlarsanız, trende sınıflandırma hatası neredeyse her zaman 0,0'dır :)) testte seçenekler olabilir, genellikle 0,5 civarında

 
forexman77 :

Piyasalara genel olarak akurashu cho, bence uygulanabilir değil, orada başlangıçta sınıflar dengeli değil.

%100 akurashu'nuz varsa, her şey çoğunluk sınıfına uçar, bu genellikle en kötü ölçümdür. Karışıklık matrisine bakmak daha iyidir, özellikle sınıfların nasıl bölündüğünü gösterir.

Evet, ben de, Doğruluk pek iyi değil. anlaşılabilir. İşte bir hata matrisi veya daha anlaşılır bir sınıflandırma hatası, onları ekranımda gösteriyorum.
 
Sihirbaz_ :

Nrush, python'da farklı olanları deneyin. Örneğin, bir kedi desteği, kutunun dışında bile çok az şey sunar + arka arkaya her şeyi yer + noktalı bir görselleştirici var (kesim fazla gelişmediğinde ayarlanır), vb...

Zaten kurdum, yarın sadece GBM ile birlikte deneyeceğim, belki LightGbm .. ve xgboost kurmak bir angarya, bunu anlamak uzun zaman alıyor

Neden: