Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 1195

 
Maksim Dmitrievski :

diyelim ki sizinki gibi bir krivulka zaten var - a priori olasılık dağılımı

Bayes formülüne göre, her işlemden sonra güncelleyebilirsiniz, böylece merkez kayar ve yeni bir sonsal dağılım elde eder, yani. Her işlemden sonra güncellenecek olan yaklaşık bir miktar denkleştirme katsayısı. Bu, modelin kendisi aynı kalacak olsa da, modeli yeni gerçekliklere biraz ayarlayacaktır.

satın alana kadar nasıl doğru yapılır aslında kolay olmalı ama ben hiç yapmadım :)

Bu tam olarak modeli eğitmek değil, çünkü yeni kalıplar kullanmıyoruz, eskilerin yorumunu değiştiriyoruz - modeldeki öngörücüler, ağaçlardaki bölünmeler aynı kalıyor. Burada girdinin hangi kalıplar olduğu hakkında bilgi almanız gerekir - catbust'ta tüm sayfaların kalıplarının bulunduğu bir dizi vardır ve buna göre kalıbı kaydırarak bu diziyi düzenleyin (kalıp yorumlamak için bir sayı). Sorun şu ki, bir girdi için çok fazla yaprak olacak ve daha sonra onu bir şekilde orantılı olarak dağıtmak - ya girdi için olan yapraklara - onları azaltmak ya da buna karşı olanlara - arttırmak gerekiyor. Soru, 100 tanesi varsa ve 1000 işlem varsa, kaç yaprak olduğudur, o zaman hala her sayfa için istatistikleri dikkate alma fırsatı vardır.

 
Maksim Dmitrievski :

Ve durağan olmama nedeniyle değişenin kalıpların kendisi olmadığı, ancak modelin basitçe değiştiği ve doğru sinyalleri vermediği varsayımından yola çıkarsak

keskin bir dönüş yapmak istediğimizde her zaman kaputun altına tırmanmak zorunda değiliz, ancak bazen taksiye binmemiz gerekiyor .. ve burada modeli değiştirmekle çıktı dağılımını değiştirmek arasında pek bir fark görmüyorum .. hayatım için :)


Son cevap, yaprakların değerlerinin toplamı olduğundan ve hepsi her zaman kullanılmadığından, yalnızca bunun için uygun göstergeler olduğunda, kaputun altında gezinmeniz gerekir. Bu nedenle, bir giriş için 1 sayfa veya belki 100 sayfa kullanılabilir! Bu nedenle, tüm durumlar için olasılığı kaydırarak modelin yorumunu değiştiremeyiz, daha doğrusu yapabiliriz, ancak bu mantıklı değildir, çünkü yaprakların bir kısmı doğru sınıflandırmaya devam edebilir. Bu nedenle, ya yaprakların göstergelerini değiştirin ya da her yaprağın ayrı bir ek yorumunu yapın ve diğer yapraklarla kombinasyonlara bağlı olarak olduğu gibi kaydırın, ancak bunun verimli olup olmadığından emin değilim .... Bu tam olarak neden küçük modelleri tercih ediyorum - eğer birleştirilirlerse, o zaman yalan söyleyeni tespit etmek ve ondan kurtulmak daha kolaydır.

Birkaç yaprak varsa, olasılık bariyerini kaydırmak da mümkün olabilir, ancak çok sayıda varsa ve her girdi için önemsiz bir kısım kullanılıyorsa, bunun mantıklı bir anlamı yoktur.
 
Maksim Dmitrievski :

ama bazen sadece gözetlemek zorundasın.

afin dönüşüm kontrol edilebilir ;), işte KB'de bir örnek https://www.mql5.com/ru/code/9378

Affine Transform
Affine Transform
  • www.mql5.com
Построение по ценам закрытия. График в окне индикатора тот же, что и ценовой, но временнАя ось "наклонена" под углом трендовой линии Построение линий индикатора по экстремумам баров. Ограничение баров по первой точке трендовой линии Добавлено опциональное ограничение баров индикатора, их число задается параметром MaxBars. Чтобы отключить...
 
Maksim Dmitrievski :

aynısını yaptım ama hangi yöne taksim o zaman, nasıl anlaşılır? )

ama hiçbir şekilde, sadece test cihazını kontrol edin (((

 
Maksim Dmitrievski :

mb Kalman filtresi ekle)

googled "Kalman Habrahabr", oradaki makaleyi uzun süre okudum, yorumlardaki en değerli şey, makalenin yazarı aşağı .... Anladığım kadarıyla herkes gibi çalışacak - sadece yavaş yavaş veri değiştirme

Not: KB'de Kalman örnekleri vardı - ya öyleyse? ;)

 
Maksim Dmitrievski :

belki henüz hiçbir şey net değildir .. siz deneyene kadar)

Genel olarak, bana yaprak kombinasyonunun bileşimini değerlendirmek gerekli gibi görünüyor, kararsız bir tahmin ediciye sahip kötü bir yaprak daha önce doğru tahmin eden kombinasyonun içine sıkıştırılmış olabilir ve görev ondan kurtulmak olmalıdır. bu yaprak. Örneğin, bir kombinasyon, ona katılan yaprakların %80'i ile tanımlanabilir - belirli bir çekirdek ve büyük bir ağırlığa sahip yeni bir yaprak belirirse, filtreleyin. 1000 işlem başına böyle bir kriterle kaç kombinasyon olabileceği bile ilginç oldu... ama nasıl öğreneceğimi hayal edemiyorum.

 
Maksim Dmitrievski :

Önem özelliği.. Zipf yasası (üslü). Ayrıca, ağaç modellerinde daha yüksek varyansa (daha yüksek fiyat gecikmesine) sahip değişkenlerin her zaman daha yüksek ithalata sahip olduğunu göstermenin yanı sıra. Pek çok benzer özellik var (toplamda 500), bu yüzden grafik çok açıklayıcı değil. Sonra değiştireceğim.

Güzel!

bir Python uzmanı olarak soru, bana deneyler için Python hakkında bir konu verin, Sharpe ile neredeyse çözdüm, MT5 ile hiç problemsiz bir şekilde bağlanıyor, teorik olarak C# ve Python desteği, sonra Python'a geçebilirsiniz;)

 
Igor Makanu :

Güzel!

bir Python uzmanı olarak soru, bana deneyler için Python hakkında bir konu verin, Sharpe ile neredeyse çözdüm, MT5 ile hiç problemsiz bir şekilde bağlanıyor, teorik olarak C# ve Python desteği, sonra Python'a geçebilirsiniz;)

Ben sadece bir python öğreniyorum .. veya daha doğrusu, orada ne çalışmalıyım, henüz MO modellerini gerçekten kullanmadım .. tam olarak ne istiyorsun? buradan bir örnek alın https://scikit-learn.org/stable/

örneğin, rastgele orman aynıdır

 
Maksim Dmitrievski :

Ben sadece bir python öğreniyorum .. veya daha doğrusu, orada ne çalışmalıyım, henüz MO modellerini gerçekten kullanmadım .. tam olarak ne istiyorsun? buradan bir örnek alın https://scikit-learn.org/stable/

örneğin, rastgele orman aynıdır

veya gradyan artırma, hazır örnekler


gidecek, ATP, yarın çözeceğim

 

Buradaki ve buradaki ve hatta buradaki grafikler bir hatayla oluşturuldu, içlerindeki değerler sıfırdan değil, bu nedenle 0,5 olasılığı 5. noktada değil, 6. noktada olacak!

Bunlar, verileri analiz ederken ve onları anlamaya çalışırken yapılan hatalar, teknik hatalar, deyim yerindeyse...