Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 75

 
Yuri Reshetov :

Bu nedenle, Dr.Trader, R'de yeniden yazılmış tam teşekküllü bir libVMR çalıştıramadı - çok fazla hesaplama ve çok fazla bellek var.

Büyük bir nükleer dönüşümün işlevinde kodda bir hata yaptım. Saldırı, aynı eski sürüm 3.01'dir, ancak bir düzeltme ile. Şimdi hafıza ile her şey yolunda, büyük bir nükleer makineyle de. Ancak hız Java'dan daha yavaş olacaktır.

Dosyalar:
libVMR.txt  12 kb
 
Dr.Tüccar :

Büyük bir nükleer dönüşümün işlevinde kodda bir hata yaptım. Saldırı, aynı eski sürüm 3.01'dir, ancak bir düzeltme ile. Şimdi hafıza ile her şey yolunda, büyük bir nükleer makineyle de. Ancak hız Java'dan daha yavaş olacaktır.

Bu en iğrenç şey, hızın kaidenin altında olması.

Ayrıca, libVMR iyi olmayan bir ikili sınıflandırıcıdır. Ternary boktan şeker yapabilir:

Michael Marchukajtes :
Tahmin edicinin kendisinde, verilerin genelleme düzeyi %90'dır ve yüksüz modelde sadece %47'dir.
Onlar. ikili sınıflandırıcı örneklerin yalnızca %47'sini genelleştirir, bu da rastgele olandan çok daha kötüdür - %50. Ve üçlü olan çöpleri filtreler, kalan örneklerde zaten% 90 genelleme yeteneği elde eder.
 
Model için genelleme seviyesini yavaşça %100'e yükseltti, gelecekte nasıl çalıştığını görelim :-)
 
Michael Marchukajtes :
Model için genelleme seviyesini yavaşça %100'e yükseltti, gelecekte nasıl çalıştığını görelim :-)

%100 genelleme yeteneği sınır değildir. Önyargıya göre tahmin edicileri seçerek daha da geliştirebilirsiniz. İki üçlü sınıflandırıcı %100 genelleme yeteneğine sahipse, ancak önyargılar farklıysa, o zaman en küçük önyargıya sahip sınıflandırıcı en iyisi olacaktır - daha önemli tahmincileri vardır.

Sapma ne kadar küçükse, test örneğindeki örnekler o kadar az tire ile işaretlenir (belirsizlik).

 
Yuri Reshetov :

%100 genelleme yeteneği sınır değildir. Önyargıya göre tahmin edicileri seçerek daha da geliştirebilirsiniz. İki üçlü sınıflandırıcı %100 genelleme yeteneğine sahipse, ancak önyargılar farklıysa, o zaman en küçük önyargıya sahip sınıflandırıcı en iyisi olacaktır - daha önemli tahmincileri vardır.

Sapma ne kadar küçükse, test örneğindeki örnek sayısı o kadar az bir çizgi (belirsizlik) ile işaretlenir.

L'nin uzun zamandır ilgilendiği ve soruyla eziyet çektiği söylenebilir. Reshetov parametresine göre Gösterge ne anlama geliyor ve ne anlama geliyor. Bu ne anlama geliyor? Ve %100 genelleme eğitimi alırken önyargım sıfır...
 
Michael Marchukajtes :
Uzun zamandır ilgimi çekiyor ve soruyla eziyet ettiğim söylenebilir. Reshetov parametresine göre Gösterge ne anlama geliyor ve değer. Bu ne anlama geliyor?

Sonuç olarak, öğrenme yeteneği için bu iyi bir göstergedir, ancak genelleştirmek için hiçbir anlam ifade etmez. Bu nedenle, jPrediction'ın sonraki sürümlerinde, göze batmaması için onu kaldıracağım.

 
Yuri Reshetov :

Sonuç olarak, öğrenme yeteneği için bu iyi bir göstergedir, ancak genelleştirmek için hiçbir anlam ifade etmez. Bu nedenle, jPrediction'ın sonraki sürümlerinde, göze batmaması için onu kaldıracağım.

Yuri, bir soru. Bir tahminci, sınıflar yerine olasılıklar üretebilir mi?
 
Bunun bize bir şekilde yardımcı olup olmayacağını merak ediyorum https://news.mail.ru/society/26600207/?frommail=10
 
Alexey Burnakov :
Yuri, bir soru. Bir tahminci, sınıflar yerine olasılıklar üretebilir mi?
Olasılıkla özelliğin ciddiyetini kastediyorsanız, evet mümkündür. 0 veya 1 veya -1 verdiği için sadece komitede değil, ikili olarak. Tüm piyasa üzerinde bir kalıp çizin ve kalıbın nasıl sıfırın üzerine çıktığını göreceksiniz ve kalıbın değeri ne kadar yüksekse, sınıf o kadar olasıdır. sırasıyla ve aşağıda. AMA yüzde olarak .... mmm ... iyi, ancak maksimum değer %100 olarak alınır ve ondan hesaplanır. Diyelim ki bir satın alma sinyalim var ve model sıfırın üzerinde, diyelim ki 0,1 değerinde ve maksimum değer 1'di, yani bu satın alma sinyalinin %10'luk bir doğru durumu var, bunun gibi bir şey.... eğer öyleyse düşündüm...
 
Alexey Burnakov :
Yuri, bir soru. Bir tahminci, sınıflar yerine olasılıklar üretebilir mi?

Hayır, olasılıklar libVMR'nin ilk sürümlerinde hesaplandı, ancak büyük bir sorun vardı, olasılık değerinin doğru hesaplanması için tüm tahmin edicilerin birbirinden kesinlikle bağımsız olması gerekiyordu. Ve birçok uygulamalı alanda böyle bir koşula uyulması genellikle gerçekçi değildir. Örneğin, ticarette hemen hemen tüm göstergeler ve osilatörler birbiriyle ilişkilidir, yani. bağımsız değiller. Ayrıca algoritmadaki bağımsızlık koşulu, verilerde yoksa, genelleme yeteneğini olumsuz etkiler. Bu nedenle, böyle bir çıkmaz yoldan vazgeçmek zorunda kaldık.

Şu anda, jPrediction, tahmin edicilerin bağımsızlığına herhangi bir önem vermiyor, sadece genelleme yeteneğinin değerine önem veriyor. Çünkü birkaç tahmin edici birbirini tamamlayabilir, yani. bazı örneklerde, bazı tahmin ediciler, diğerlerinde ve üçüncü kombinasyonlarında iyi bir sonuç verecektir. Bu şartlar altında olasılıkları çok büyük ve çok şüpheli bir hata ile hesaplamak mümkündür.

Neden: