Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 448

 
mytarmailS :
sınıflandırıcınızdaki amaç fonksiyonu nedir?
Hedef yok, toplamdaki tüm tahmin ediciler için ortalamadan ne kadar uzak olursa, bu ortalamaya o kadar hızlı yaklaşmaları gerektiği ilkesine göre çalışır, yani. Bayes sınıflandırıcı ilkesine göre çalışır, öyle ağırlıklar bulur ki, toplamda, tahmin ediciler her bir özel durumda ortalamadan en büyük sapmayı verir ve sonunda geri yakınsamaları gerekir. Pekala, tahmin edicileri durağan bir biçimde aldığımız için, ortalamanın 0 olduğu açıktır. Çıktı >0 ise satarız, < ise alırız.
 
Maksim Dmitrievski :

Genel olarak, MLP'nin korkunç bir canavar olduğu, ticaret için çirkin bir engelleyici ve taviz vermeyen, özellikle de gerçek nöronların çalışma mekanizmasını çok ilkel bir şekilde kopyaladığı için ve aslında beyinde olduğu gibi olmadığı sonucuna vardım :) sadece normal çalışan ve umut verici olan NN, herhangi bir görüntüyü tanımak için evrişimsel ns'dir, ancak nasıl tahmin edileceğini hiç bilmiyorlar ve eğer öyleyse, basit ve hızlı sınıflandırıcılar topluluğu yeterlidir.

Bayes sınıflandırıcısı daha da iyidir, ancak RF'den daha kötüdür.

İlginç bir şekilde, "çirkin canavarlar" hakkında doğrudan zıt sonuca vardım.))

RF için, önemsiz olmayan bir görev olan tahmin edicileri, en azından doğrusal bağımsızlıklarının gerekliliğini hesaba katarak seçmek gerekir. MLP Sadece bir zaman serisini atlıyorum ve gereksinimler zayıf. bağımsızlığa, seyrek zaman serileriyle beslenen (birkaç TF'ye benzer) birkaç NS komitesi tarafından karar verilir. Gerçek ticaret için Ulusal Meclis'in zaman gecikmelerinin önemsiz olduğuna inanıyorum.

Henüz gerçek TS'ye ne olacağını bilmiyorum, ancak NS oldukça eğitilebilir görünüyor. Eğitilmiş NN çıktı grafiğinin bir parçasına bakın. Şimdiye kadar ne kadar doğru öğrendiğini söyleyemem.) Ama öğreniyor.))


 
Yuri Asaulenko :

"Çirkin canavarlar" hakkında doğrudan zıt sonuca varmam ilginç.))

RF için, önemsiz olmayan bir görev olan tahmin edicileri, en azından doğrusal bağımsızlıklarının gerekliliğini hesaba katarak seçmek gerekir. MLP, ben sadece zaman serisinden vazgeçtim ve gereksinimler lin. bağımsızlığa, seyrek zaman serileriyle beslenen (birkaç TF'ye benzer) birkaç NS komitesi tarafından karar verilir. Gerçek ticaret için Ulusal Meclis'in zaman gecikmelerinin önemsiz olduğuna inanıyorum.

Henüz gerçek TS'ye ne olacağını bilmiyorum, ancak NS oldukça eğitilebilir görünüyor. Eğitilmiş NN çıktı grafiğinin bir parçasına bakın.


Evet, neden, sadece çizelgeye osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz) Sayıya gerek yok. NN ayrıca yeniden eğitilebilir, başlangıçta orada değilse veya çelişkiliyse, hiçbir şeyden süper doğrusal olmayan ilişkiler ortaya çıkaramaz.

Yoksa polinomlarla girdilerin boyutunu artıran ve daha sonra SVM ve başka bir oyun aracılığıyla en bilgilendirici olanları bırakan Jpredictor'da olduğu gibi NS'nin önünde bir nükleer makine kullanmak mı gerekiyor? Bu polinomların nasıl yeniden eğitileceği zor olabilir.

 
Maksim Dmitrievski :

Evet, neden, sadece çizelgeye osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz) Sayıya gerek yok. NN ayrıca yeniden eğitilebilir, başlangıçta orada değilse veya çelişkiliyse, hiçbir şeyden süper doğrusal olmayan ilişkiler ortaya çıkaramaz.

Her şey göründüğü kadar basit değil. SanSanych bir yıldır tahmin edicilerle uğraşıyor ve bir ormandan diğerine (paketten pakete) atlıyor.

Maksim Dmitrievski :

Yoksa girdilerin boyutunu polinomlar ve daha sonra SVM ve başka bir oyun aracılığıyla artıran Jpredictor'da olduğu gibi NS'nin önünde bir nükleer makine kullanmak gerekli midir?

Doğrusal bağımsızlık ve doğrusal olmamanın birbiriyle hiçbir ilgisi yoktur. Bunlar farklı kavramlardır. Doğrusal bağımsızlık
Линейная независимость — Википедия
Линейная независимость — Википедия
  • ru.wikipedia.org
имеет только одно — тривиальное — решение. − 5 ⋅ ( 1 , 0 , 0 ) + 1 ⋅ ( 5 , 0 , 0 ) = ( 0 , 0 , 0 ) . {\displaystyle -5\cdot (1,0,0)+1\cdot (5,0,0)=(0,0,0).} Пусть будет линейное пространство над полем и . называется линейно независимым множеством, если любое его конечное подмножество является линейно независимым. Конечное множество M ′...
 
Maksim Dmitrievski :

Evet, neden, sadece çizelgede osilatörler şeklinde tahmin ediciler atın ve orada lineer bağımlı mı yoksa lineer olmayan mı olduklarını gözle görebilirsiniz)

PS Bu arada, MLP, tek katmanlı P.'nin aksine, esasen doğrusal değildir ve doğrusal olmayan özellikleri genelleştirme konusunda oldukça yeteneklidir.
 
Yuri Asaulenko :
PS Bu arada, MLP, tek katmanlı P.'nin aksine, doğası gereği doğrusal değildir ve doğrusal olmayan özellikleri genelleştirme konusunda oldukça yeteneklidir.

belki yapabilirler, RF de, ama daha az yeniden eğitilmezler
 
Maksim Dmitrievski :
Hedef yok, toplamdaki tüm tahmin ediciler için ortalamadan ne kadar uzak olursa, bu ortalamaya o kadar hızlı yaklaşmaları gerektiği ilkesine göre çalışır, yani. Bayes sınıflandırıcı ilkesine göre çalışır, öyle ağırlıklar bulur ki, toplamda, tahmin ediciler her bir özel durumda ortalamadan en büyük sapmayı verir ve sonunda geri yakınsamaları gerekir. Pekala, tahmin edicileri durağan bir biçimde aldığımız için, ortalamanın 0 olduğu açıktır. Çıktı >0 ise satarız, < ise alırız.
hatta öğretmenli mi yoksa öğretmensiz mi eğitimin tam olarak belli değil mi? bir öğretmen varsa, sınıflandırıcı için satın alma sinyali nedir?
 
mytarmailS :
Öğretmenli mi yoksa öğretmensiz mi eğitimin olduğu tam olarak belli değil mi? bir öğretmen varsa, sınıflandırıcı için satın alma sinyali nedir?
Ağırlık optimize edicide öğretmen olmadan seçildiler, makale zaten tartışıldı ve bir örnek var, RNN Reshetov konusuna bakın
 
Maksim Dmitrievski :
Genel olarak, sinir ağlarının RF'ye göre hiçbir avantajı yoktur, uzun süre kabul edilirler, hata daha büyüktür.. hızlı bir şekilde eğitmek istiyorsanız, o zaman kesinlikle RF + optimizer

NS'nin hızıyla ilgili olarak.

Özellikle bunun için hız üzerine bir deney yaptım. Bunun için katman yapısına sahip bir MLT alındı [15, 15, 15, 8, 2]. Eğitim örnek boyutu: girdi - 15 x 10378, çıktı - 2 x 10378.

Bu veriler üzerinde 10 dönemlik MLP eğitimi yaklaşık 10 dakikadır.

Verilerle doğrudan çalışma - 15 x 10378 giriş sinyali 3 saniyeden daha kısa sürede hesaplanır. Onlar. ~0,0003 sn/örnek.

Bir TS oluşturmak için fazlasıyla yeterli.)

 
Yuri Asaulenko :

NS'nin hızıyla ilgili olarak.

Özellikle bunun için hız konusunda bir deney yaptım. Bunun için katman yapısına sahip bir MLT alındı [15,15.15,8,2]. Eğitim örnek boyutu: girdi - 15 x 10378, çıktı - 2 x 10378.

Bu veriler üzerinde 10 dönemlik MLP eğitimi yaklaşık 10 dakikadır.

Verilerle doğrudan çalışma - 15 x 10378 giriş sinyali 3 saniyeden daha kısa sürede hesaplanır. Onlar. ~0,0003 sn/örnek.

Bir TS oluşturmak için fazlasıyla yeterli.)

Bir şey çok hızlı, bu hangi L-BFGS algoritmasına göre saatte mb olarak eğitilmelidir - birkaç saat? Ayrıca 15 giriş yaptım, ancak sadece bir gizli nöron 15-20 katmanı, Alglib NN'yi eğittim ... kısacası, beklemedim ve giriş vektörlerinin boyutunu küçülttüm) 10k vektörlü 3 giriş için eğitildi Bir gizli katman ile 5-10 dakika. Ve bu yavaş bir geri yayılım değil, 1-3 dönemli hızlı bir geri yayılımdır. yüzde i5

Ve 10 dakika ile bile, hazır bir stratejiniz olmadığını ve bir strateji bulmak için optimize edicide N'inci sayıdaki tahmin edicileri, vektör uzunluklarını, gizli katmanların sayısını vb. sıralamanız gerektiğini hayal edin. . . .