Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

R için bir paket var, harika.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Ama neden R, sindiremiyorum .. komut satırı veya dll :)

 

Sinir ağı regresyon tahmincisini bulandırdım, n bar ilerisi için (bu durumda 15) mevcut fiyat modeli tahminini bir histogram olarak gösterdim, 5000 bar için trenler, her 500'de bir yeniden trenler. İlk bakışta iyi görünüyor, ancak elbette istediğim kadar hızlı çalışmıyor, çünkü aslında bunlardan birkaçını istiyorum ve onlardan başka bir NN eğitiyorum :)


Eh, yani dakikalara bakarsanız - oldukça küçük bir dağılım, elbette aşırı emisyonlarda yüksektir, ancak ortalama olarak 100p (5. işaret) aralığındadır.

En lezzetlisini oklarla daire içine alın

 
Maksim Dmitrievski :

tabii ki istediğimiz kadar hızlı çalışmıyor,

ALGLIB'de mi?

 
elibrarius :

ALGLIB'de mi?


Evet

Elbette harici bir NS veya ormanlarla, örneğin gpu'daki CatBoost ile sapıtabilirsiniz, ancak şimdiye kadar tembellik ve zaman yok

her şey hıza bağlıdır, yaptığınız doğruluk ne kadar yüksek olursa, onu test cihazında sürmek o kadar gerçekçi olmaz

 

ALGLIB, öğrenmede korkunç bir frendir.

ALGLIB ağı 240-50-1'de servis edildi, - 2 gün bekledi, beklemedi ve kapattı.

70-5-1 ağı yarım saatte eğitildi. Ve R'den nnet, aynı veriler üzerinde bir dakikadan daha kısa bir süre boyunca eğitildi. Burada şimdi R ile oturuyorum, anlıyorum.

 
elibrarius :

ALGLIB, öğrenmede korkunç bir frendir.

ALGLIB ağı 240-50-1'de servis edildi, - 2 gün bekledi, beklemedi ve kapattı.

70-5-1 ağı yarım saatte eğitildi. Ve R'den nnet, aynı veriler üzerinde bir dakikadan daha kısa bir süre boyunca eğitildi. Burada şimdi R ile oturuyorum, anlıyorum.


RF aşağı yukarı, 5000'lik 50 giriş, 100 ağaç, ortalama 25 saniye (dizüstü bilgisayarda). Ancak optimizasyon için de çok uzun. NS fren kapets evet, ama bu ondan sıradan bir MLP ve başka bir şey beklemenize gerek yok

her şeyi en fazla bir saniye öğrenmen gerekiyor, nereden alabilirim? )

 

Bir kez daha, ne kadar çok ünlem olursa olsun, bunun böyle olmadığına ormanların tahmin edemeyeceğine ikna oldum:

150 eğitim fiyatı (girişler ve çıkışlar) kırmızı çizginin üzerinde. Bundan sonra pazar düşmeye başladı, eğitim örneğinde olmayan yeni fiyatlar ortaya çıktı (çıkış için gönderilmediler). Ormanlar, eğitim sırasında kendileri tarafından bilinen en düşük fiyatı, yani. 1.17320, sadece yatay çizgiye karşılık gelir. Bu nedenle, artıkların histogramı çarpıktı.

Ormanlar ÖDÜN VERMEMEKTEDİR. Tüm bilge adamlar, materyali yeniden öğrenmek için ikinci yıl için kalır.


  • karar ağaçları gibi, algoritma tamamen dış değerleme yapamaz
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

Modele dönüştürme yapılmayan fiyatlar gönderilmez.

Ekstrapolasyon için ormanlar bilinen en yakın değeri alır. Ekstrapolasyon yaparken, bir nöron veya bir cetvel iç formüllere göre bir şey hesaplayacaktır. Ama gerçekte, tüm bu modeller bu durumda birleşecek, yani bir fark yok.
Neden: