Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 930

 
Alexey Vyazmikin :

Ve iyi bir olasılığa sahip dallar bulur ve onları tek bir tahmin ediciye kodlarsanız ve sonra bir kez daha ağaca öğütülmesi için verirseniz, ağaç bulunan sonuçlardan nasıl bir iyileştirme yapılacağını düşünecektir (öngörücüleri beğenmeli mi, çünkü onlar büyük oranda doğru çözüme sahip misiniz?) , Ne düşünüyorsunuz?

Bilmiyorum :) Ağaçla böyle deneyler yapmadım. Ancak örneğin, her türlü GBM modeli bu şekilde çalışır - bir ağaç oluştururlar, sonra bir öncekine kıyasla iyileştirme sağlayacak bir tane daha, sonra bir başkası vb.

 
Dr. tüccar :

Daha fazla dallanırsanız, bu verilerdeki doğruluk kesinlikle artacaktır. Ancak büyük olasılıkla yeni verilere düşecek.

Ağaç zaten bir şey öğrendiğinde, burada belirli bir optimuma ulaşıldı, ancak henüz fazla uyum yok ve yeni verilerde benzer bir sonuç bekleyebiliriz.

Hmm, ama yine de, bu ağacı tek bir tahmin ediciye sıkıştırıp daha fazla çözüm ararsak? Aslında benim tahmincilerim genellikle bir tür ön hesaplamalar, değerlerin sınıflandırılması vb., yani. ağaca ham veri versem dallanma daha erken ve daha büyük bir hata ile duracaktı... Ve buna göre doğru yönde dallanma bir sonuç verecek ama bu yön bilinmiyor ama nasıl belirleneceği soru.

 
Dr. tüccar :

Bilmiyorum :) Ağaçla böyle deneyler yapmadım. Ancak örneğin, her türlü GBM modeli bu şekilde çalışır - bir ağaç oluştururlar, sonra bir öncekine kıyasla iyileştirme sağlayacak bir tane daha, sonra bir başkası vb.

Görünüşe göre bu GBM modelleri hakkında okumanız gerekiyor ... ama nerede çoğaltılıyorlar (sadece R?)?

Geriye filtreleri denemek kalıyor - benim programım bile orada en azından bir miktar sonuç verdi, belki sizinki ilginç bir şey verecektir, çünkü tüm tahminciler esasen TS'de filtre olarak kullanılır.

 

Dr. Tüccar, Levl_first_H1, Levl_High_H1'in bir kombinasyonunu düşünürsek bulduğum şey bu. Levl_Low_H1, Levl_Support_H1, Levl_Close_H1 , ayrı bir bütün kural olarak, genel olarak, başlangıçta tasarlandığı gibi, eğlenceli bir işaret ortaya çıkıyor


Tablodan şöyle:

1. Tüm çubukların iki yılını tanımlamak için, hedefi dikkate alarak yalnızca 6088 kombinasyon aldı ve hedef yoksa, 4705'ten bile az, yani. tek tip dağılım durumunda bir kombinasyon, iki yılda 86 satırı tanımlar, ancak daha sık ve daha az sıklıkta kombinasyonlar olduğunu düşünüyorum.

2. 2015'ten 2016'ya kadar yeni benzersiz kuralların ortaya çıkışı %41 ve hedef 1'den yeni kuralların ortaya çıkışı %55, yani. 2015'ten itibaren kuralların %45'i kaldı ve işlemeye devam etti, ki bunu iyi buluyorum.

3. 2015 ve 2016 örneklerinde, tüm olası kombinasyonların yalnızca %21'i kullanılmıştır, burada kalanlar son derece benzersizdir veya örnek yetersizdir.

Belki bir ağaç inşa ederken bu gerçekleri bir şekilde kullanmalısın?

Katma:

Sonra böyle bir deney yaptım, 2015'in 1 ve 0 hedefine, yinelemelerden temizlendi, hedef 0 ve 1'in 2016 kurallarını ekledim, sonra yinelenen satırları sildim ve bir şey anlayamadığım iç karartıcı bir sonuç aldım.

Satırların yüzde kaçının hata yüzdesini içerdiği bilinmese de, "1" hedefi için %81 ve "0" hedefi için %38 yanlış kuralın olduğu ortaya çıktı... belki farklı bir oran, aksi takdirde, 2016'da keşfedildikleri kadar çok yeni kural eklenecekti, ki bu böyle değil, bu, kurallara her zaman uyulmadığı ve yalnızca ek koşullara - tahmin edicilere ihtiyaçları olduğu anlamına gelir.

 

Alexey Vyazmikin :


Tablodan şöyle:

kurallar her zaman yerine getirilmez ve yalnızca ek koşullara - tahmin edicilere ihtiyaç duyarlar.

Alexey, NS-ku'yu hemen yetişkin bir şekilde yapmayı öneriyorum. Biz (MQL topluluğu) yalnızca seçimler ve ormanlarla çok ileri gitmeyeceğiz.

Açıkçası, çalışan bir NS stratejisi, bir tüccar gibi karar vermek için analitik bir platforma ihtiyaç duyar - satın almak, satmak veya genel olarak pazara girmeye değer mi? Alım, satım veya genel olarak pozisyonları kapatmalı mıyım?

Biz BURADA Maxim ile bunun hakkında hayal kurduk, lütfen orada sağduyunun varlığını okuyun ve onaylayın.

 
geratdc_ :

Alexey, NS-ku'yu hemen yetişkin bir şekilde yapmayı öneriyorum. Biz (MQL topluluğu) yalnızca seçimler ve ormanlarla çok ileri gitmeyeceğiz.

Açıkçası, çalışan bir NS stratejisi, bir tüccar gibi karar vermek için analitik bir platforma ihtiyaç duyar - satın almak, satmak veya genel olarak pazara girmeye değer mi? Alım, satım veya genel olarak pozisyonları kapatmalı mıyım?

Biz BURADA Maxim ile bunun hakkında hayal kurduk, lütfen orada sağduyunun varlığını okuyun ve onaylayın.

Bu yüzden piyasada Ulusal Meclis için bir yer olduğundan emin değilim ...

 

Ve şimdi dikkat. Bu hafta Dokovsky senaryosu ve e-posta ağları üzerinde çalışmaya karar verdim.

Ve şimdi en ilginç ve ne olabilir?????

Maksimum nöron sayısı 200'e (varsayılan olarak) eşit olduğunda, R puanına göre öğrenme kalitesi 0.6'dır. Ancak, maksimum gizli nöron sayısını 30'a indirerek puanı 0.85'e çıkardım (ki bu çok iyi). Ancak, modellerin kopyalarını ağırlıkça almaya başladı. HER ZAMAN aynı ağırlıkları alıyorum. İşte soru. Genetik inatla aynı minimum işleve gelir. Veriler gerçekten o kadar açık ki, gerçek sayılar alanında ağın aynı ağırlık katsayılarıyla bir minimuma düşüyoruz. Bakalım bir hafta nasıl olacak...

Kesin olmak gerekirse, geçen hafta Reshetov'un optimize edicisi ELMNN ağlarından biraz daha fazla puan aldı, ancak bunları kurmak çok daha hızlı, bu yüzden onlara geçmeye çalışacağım, eğer içeri girersem, Reshetov'u şu an için reddedeceğim. ağın işe geniş kurulumu ....

 
Alexey Vyazmikin :

Görünüşe göre bu GBM modelleri hakkında okumanız gerekiyor ... ama nerede çoğaltılıyorlar (sadece R?)?

Python'da da olmalı.

Alexey Vyazmikin :

Geriye filtreleri denemek kalıyor - benim programım bile orada en azından bir miktar sonuç verdi, belki sizinki ilginç bir şey verecektir, çünkü tüm tahminciler esasen TS'de filtre olarak kullanılır.

Bu gece algoritmayı çalıştıracağım, yarın ne olduğunu göstereceğim

Alexey Vyazmikin :

Tablodan şöyle:

...

%100 doğruluk elde etmek ve modelin iyi çalışacağını ummak Forex'te genellikle imkansızdır, bunun için aylar için tahmin ediciler ve hatta birlikte iyi bir şekilde birleşecek bir hedef seçmeniz gerekir. Genellikle, %50'nin üzerinde birkaç onluk bir doğruluğa ulaşan model, daha sonra eğitim örneklerini ezberlemeye başlar ve içlerinde mantıksal kalıplar bulamaz. Ve buna göre, yeni verilerdeki sonuç daha da kötü olacak. Verileriniz için bu optimum, yaklaşık %60 olduğu ortaya çıktı - hem eğitim hem de test verilerindeki sonuç yaklaşık olarak eşit olduğunda ve ağacın daha ayrıntılı bir dökümü ve daha yüksek doğrulukla, orman yeni verilerde giderek daha kötü bir sonuç gösteriyor .

 
Michael Marchukajtes :

Maksimum nöron sayısı 200'e (varsayılan olarak) eşit olduğunda, R puanına göre öğrenme kalitesi 0.6'dır. Ancak, maksimum gizli nöron sayısını 30'a indirerek puanı 0.85'e çıkardım (ki bu çok iyi).

Genetik, doğru parametreleri bulmak için sınırlı sayıda işlev çağrısı yapmaya çalışır. Bu parametre için seçeneklerin sayısını daraltarak (200 yerine 30), genetik bölgeyi 1'den 30'a kadar daha detaylı keşfedebilir. Ve bu doğrudur, eğer bazı model parametrelerini aramak için belirli sınırları biliyorsanız, o zaman bu doğrudur. genetiğin bu bilgiyi hemen vermesi daha iyi.


Alternatif olarak:

gaResult <- ga(type= "real-valued" ,
               fitness = GaFitness,
               min = c( 1 , 1 , 0 ),
               max = c(NHID_MAX, length(ACTFUN_NAMES), 1000 ),
               popSize = 500 ,
               monitor=plot)

Bu satırı (yeşil) koda ekleyin, o zaman genetik, popülasyonda varsayılan 50 yerine 500 birey olacak. Ve 10 kat daha fazla modeli kontrol edebilecek (ancak komut dosyası yürütme süresi 10 kat artacak), mümkün olacak. mümkün olduğu kadar çok kombinasyonu sıralamak için model parametreleri. Hatta max. 200'deki nöron sayısı, genetiğin de 0.85 ile daha iyi bir sonuç bulabileceğini veya en azından ona yaklaşabileceğini düşünüyorum.

 

Oh, okunacak bir şey olacak, yoksa ne olduğunu unuttum. Daha doğrusu GBM'nin XGboost'tan ne kadar farklı olduğunu unuttum .. veya bilmiyordum

gbm gibi herhangi bir modeli artırabilirsiniz, xgb ağaçlarda olduğu gibi

Güçlendirmenin, ormanın inşa edildiği torbalamadan biraz daha iyi olduğunu biliyorum. Ve yeniden eğitimle nasıl olduğunu bilmiyorum.

https://habr.com/company/ods/blog/327250/

https://datascienceplus.com/gradient-boosting-in-r/

Открытый курс машинного обучения. Тема 10. Градиентный бустинг
Открытый курс машинного обучения. Тема 10. Градиентный бустинг
  • 2018.05.17
  • habr.com
Всем привет! Настало время пополнить наш с вами алгоритмический арсенал. Сегодня мы основательно разберем один из наиболее популярных и применяемых на практике алгоритмов машинного обучения — градиентный бустинг. О том, откуда у бустинга растут корни и что на самом деле творится под капотом алгоритма — в нашем красочном путешествии в мир...
Neden: