Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3022
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Böyle bir gelişmeye ihtiyacımız yok, Lexus'larla dolu bir garaja ihtiyacımız var.
Pazarın ne olduğunu anlamadan bir paket makarna bile olmaz.
Pazarın ne olduğunu anlamadan bir paket makarna bile olmaz.
FF, Lexus'un olduğu bir garaj. Başka nasıl açıklayabilirim bilmiyorum.
Sana açıklamak zorunda değilim. Ben koca adamım.
Senin bir fikrin var, benim başka.
Benim fikrim benim deneyimim, bunu kelimelerle değiştiremezsin.
Açıklamama gerek yok. Ben büyük bir çocuğum.
Senin bir fikrin var, benim başka.
Benim fikrim benim deneyimim, kelimeler bunu değiştiremez.
Üzücü olan şu ki, bu bir görüş değil, bir gerçek.
Şu anda ne tür bir saçmalık söylediğinin farkında bile değilsin))))
Sanki mt'deki optimize edici bir optimize edici değilmiş ve FF'yi optimize etmiyormuş gibi
şu anda söylediğin saçmalıkların farkında bile değilsin).
Sanki mt'deki optimize edici bir optimize edici değilmiş ve FF'yi optimize etmiyormuş gibi.
R için TORCH kitabı nihayet çıktı.
Geleceğin DL sihirbazları varsa, bunun için gidin.
Bu yaklaşımı denediniz mi? (sayfanın yaklaşık yarısındaki Model Yorumlama bölümüne bakın)
Bağlantı için teşekkürler - sonunda python'da deney yapmaya başladığımda çok faydalı olacak!
Anladığım kadarıyla bu kitabın yeni bir sunum tarzı mı? Başka bir materyal var mı?
Soruyu cevaplamak gerekirse - yaprak ayıklama yaparken doğrudan hiçbir şey kullanılmadı.
Karar ağaçlarından oluşan bir ormanla çalışmadım, bu nedenle önerildiği gibi prensipte bir dizi teknik kullanmadım. Bununla birlikte, benzer bir şey kullandım, örneğin belirli bir yaprağın hata varyansının tahmini, topluluktaki bir yaprağın ağırlığını belirlemek için kullanıldı.
Tahmin edicilerin bölünme tahmini üzerindeki önemi CatBoost'ta da mevcuttur, ancak gradyan bousting'de ağaçlar bağımlı ve sıralı olduğu için göstergelere ilişkin anlayışınızı ayarlamanız gerekir. Metriğin kendisi ağaç yapısını değerlendirdiği için oldukça tartışmalıdır ve açgözlü prensibi tüm veriler için iyi çalışmaz. Bununla birlikte, CatBoost modelleri için tahmin edicileri seçmek üzere 8 örnek aralığında yüz modelden alınan puanların ortalamasını kullandım - ortalama olarak bu yöntem eğitim sonuçlarını iyileştirdi. Deney bu başlıkta ayrıntılı olarak yayınlanmıştır.
Önerilen versiyonda frekans korelasyonunu denemedim - ikili tahmin edicileri ve yaprakları gruplamak için kendi yöntemimi icat ettim, bu da çok benzer ikili tahmin edicileri ve yaprakları atmaya izin veriyor. Algoritmam optimal olmadığı için python uygulamasının daha hızlı çalışması gerektiğini düşünüyorum - anlamak için karşılaştırılmalıdır.
Çok değişmiş tahmincileri seçme fikri meşgul görünüyor, denemeliyim. Ama aslında yukarıda anlattığım deneyde, bunu sadece son eğitim için bu tür tahmin edicileri almayarak yaptım. Bir değişkenin tarihsel davranışına dayalı olarak değişme eğiliminin nasıl tespit edileceğini ve dalgalanmaların tahmin edicinin olasılık dağılımının ortalama aralığındaki bir değişikliğe geri döndürülemez bir şekilde kaydığı anı anlamak daha iyi olacaktır. Kağıt üzerinde fikirlerimiz var - bunları kodlamamız gerekiyor.
Her bir tahmin edicinin belirli bir satır için çözüme katkısını görselleştirme olarak değerlendirmek eğlencelidir, ancak çok sayıda model tahmin edicisi için çok az faydası vardır. Bununla birlikte, benzer bir şey yaptım - burada bir küme gönderdim - burada lith yanıtının renkle önemini ve modeldeki kaç yaprağın her satırı tahmin etmek için kullanıldığını vurguladım. Yaprakların çoğunun modelde aktif hale gelmediği, yani desenlerin hiç oluşmadığı ortaya çıktı - çok az insan bunu düşünüyor bile.
Burada dile getirilen herhangi bir fikri kaçırdım mı? Evet ise, lütfen özellikle yazın - onları açıklayacağım ya da açıklamayacağım.
Sinir ağlarında kullanılmak üzere kategorik özelliklerin kodlanması fikrini anlamadım - geçmiş materyale bir atıf var.
Anladım. Kayıp fonksiyonları vektörlerle olduğu gibi matrislerle de çalışır. Bu yerde bitirmedik (eksen parametresini eklemedik)
Yani, örneğinizde bunu satır satır çözmeniz gerekir.
İlginiz için teşekkür ederiz
Tamam, anladım. Ancak vektörlerle, özellikle de LOSS_BCE ile ilgili bir sorun var:
Yine API sonucu beklenen sonuçla eşleşmiyor.
Bağlantı için teşekkürler - sonunda python'da denemeler yapmaya başladığımda çok faydalı olacak!
Anladığım kadarıyla bu kitabın yeni bir sunum tarzı mı? Başka materyal var mı?
Soruyu yanıtlamak gerekirse - yaprak seçimi yapılırken hiçbir şey doğrudan kullanılmadı.
Karar ağaçlarından oluşan bir ormanla çalışmadım, bu nedenle prensipte önerildiği gibi bir dizi teknik kullanmadım. Bununla birlikte, benzer bir şey kullandım, örneğin, topluluktaki bir yaprağın ağırlığını belirlemek için belirli bir yaprağın hata varyansının tahminini kullandım.
Tahmin edicilerin bölünme tahmini üzerindeki önemi CatBoost'ta da mevcuttur, ancak gradyan bousting'de ağaçlar bağımlı ve sıralı olduğundan göstergelere ilişkin anlayışınızı ayarlamanız gerekir. Ağaç yapısını değerlendirdiği ve açgözlülük ilkesi tüm veriler için iyi çalışmadığı için metriğin kendisi oldukça tartışmalıdır. Bununla birlikte, CatBoost modelleri için tahmin edicileri seçmek üzere 8 örnek aralığında yüz modelden alınan puanların ortalamasını kullandım - ortalama olarak bu yöntem eğitim sonuçlarını iyileştirdi. Deney bu başlıkta ayrıntılı olarak yayınlanmıştır.
Önerilen versiyonda frekans korelasyonunu denemedim - ikili tahmin edicileri ve yaprakları gruplamak için kendi yöntemimi icat ettim, bu da çok benzer ikili tahmin edicileri ve yaprakları atmaya izin veriyor. Algoritmam optimal olmadığı için python uygulamasının daha hızlı çalışması gerektiğini düşünüyorum - anlamak için karşılaştırılmalıdır.
Yüksek oranda değişen tahmin edicileri seçme fikri meşgul görünüyor, bunu denemeliyim. Ama aslında yukarıda anlattığım deneyde, bunu sadece son eğitim için bu tür tahmin edicileri almayarak yaptım. Bir değişkenin tarihsel davranışına dayalı olarak değişme eğiliminin nasıl tespit edileceğini ve dalgalanmaların tahmin edicinin olasılık dağılımının ortalama aralığındaki bir değişikliğe geri döndürülemez bir şekilde kaydığı anı anlamak daha iyi olacaktır. Kağıt üzerinde fikirlerim var - onları kodlamam gerekiyor.
Her bir tahmin edicinin belirli bir satır için çözüme katkısını görselleştirme şeklinde değerlendirmek eğlencelidir, ancak çok sayıda model tahmin edicisi için çok az faydası vardır. Bununla birlikte, benzer bir şey yaptım - burada başlıkta bir kümesini yayınladım - burada lith yanıtının renge göre önemini ve modeldeki kaç yaprağın her satırı tahmin etmek için kullanıldığını vurguladım. Yaprakların çoğunun modelde aktifleşmeyi bıraktığı, yani desenlerin hiç oluşmadığı ortaya çıktı - çok az insan bunu düşünüyor bile.
Orada dile getirilen herhangi bir fikri kaçırdım mı? Varsa, lütfen özellikle yazın - onları açıklayacağım ya da açıklamayacağım.
Sinir ağlarında kullanılmak üzere kategorik özelliklerin kodlanması fikrini anlamadım - geçmiş materyallere bir referans var.
Bu kolayca otomatikleştirilir ve insan müdahalesi olmadan çalışır
Son makalede benzer bir algoritma göstermiştim.
Özünde, model hatalarını filtrelemek ve onları ayrı bir sınıfa koymak "ticaret yapmayın", taneleri samandan ayırmayı öğrenen ikinci model aracılığıyla daha iyi.
ve sadece taneler ilk modelde kalır.
Ağaç kurallarında olduğu gibi, ama yandan. Ancak kurallar soyulmalı ve birbirleriyle karşılaştırılmalıdır ve orada çıktı rafine edilmiş bir TC'dir.
Örneğin, samandan tahıl seçmenin ilk iterasyonu (dikey noktalı çizginin solunda - OOS):
Ve işte 10: