Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2723

 
Maxim Dmitrievsky #:
Daha fazla rastgelelik var, bu yüzden işe yaraması için uğraşmanız gerekiyor.

Seriyi bileşenlerine ayırabilir, rastlantısallığı bulabilir, deterministik kısmı bulabilirsiniz. Rastlantısal olanı atın, gerisini bırakın... BP işleme için standart bir durum ...

Ama hayır, bu da işe yaramıyor.

Yeni verilerde bir noktada rastgele deterministik hale gelecek ve deterministik rastgele olacak....

Yani ayrıca HİÇBİRİ)

 
mytarmailS #:

seriyi bileşenlerine ayırabilir (ayrıştırma), rastgele olanı bulabilir, deterministik kısmı bulabilirsiniz. Rastgele olanı atın, gerisini bırakın... BP işleme için standart bir durum ...

Ama hayır, o da işe yaramıyor.

Yeni veriler üzerinde bir noktada rastgele deterministik hale gelecek ve deterministik de rastgele.... hale gelecektir.

Yani o da değil).

Elbette, eğitimler açıklamayı kolaylaştırmak için basit BP'lere sahiptir. Gerçekte durum bundan daha karmaşıktır.

Olası minimum hata ile tahmin edilmesi zor olan başka finansal olmayan VR'ler de vardır. Ancak ticarette bu daha kolaydır, çünkü her zaman tahmin etmek gerekli değildir, modeli bunu seçici olarak yapacak şekilde ayarlayabilirsiniz. Bunu son makalede yaptım, şimdi geriye bilgilendirici özellikleri seçme konusu kalıyor. Zaten bir yöntem düşündüm, şimdi sadece denemeye ihtiyacım var.

Yaklaşımımı sonuçlandırmak istiyorum ve fikre göre evrensel olmalı, yani herhangi bir para biriminde sonuç vermeli

Ve siz de Etkinliklerinizle 3. sınıfı özünde ticaret yapmamak için yapıyorsunuz, orada yeni bir şey yok. BP'yi öngörülen ve öngörülmeyen olarak ikiye ayırıyorsunuz.
 
Maxim Dmitrievsky #:
Ve siz de Etkinliklerinizle esasen 3. sınıf ticaret yapmıyorsunuz, burada yeni bir şey yok. BP'yi öngörülen ve öngörülmeyen olarak ikiye ayırıyorsunuz.

Bu senin fantezin, gerçek değil.


Şu ana kadar gördüğüm şu:

veri var, diyelim ki 100 bin gözlem, ben buna "X.big" diyeceğim.

1) ilgilendiğimiz şeyi seçiyoruz (örüntü, kural, olay, TS'den sinyal), ben buna "başlangıç kuralı" diyorum (Alexey Funtz aktivasyonu. İsim son derece talihsiz ama...).

2) veriden "ilk kuralı" seçiyoruz ve şimdi 100 bin değil 100-1000 gözlemimiz var, arama uzayını "X.small" küçülttük.

3) "X.small" içinde tam ölçekli bir özellik aramaya başlıyoruz, özellikleri sıralı kurallar şeklinde görüyorum, kurallar genetik programlama yoluyla otomatik olarak üretiliyor, tam ölçekli bir arama istiyorum, ancak bunu yapıp yapamayacağımdan emin değilim

4) oluşturulan özniteliklerin bir dizisi modele beslenir, örneğin bir seferde 1000 adet.

5) model (bazı AMO) özellikleri önemine göre seçer ve iyi özellikleri kaydeder, yeni bir dizi alır, vb....

6) arama sonucunda belirli bir " başlangıç kuralına " göre birkaç bin çalışan nitelik elde edeceğiz.


Dolayısıyla, tüm bunları bir model olarak adlandırırsak, modelin kendisi milyarlarca özellik bulur ve gerekli olanı seçer.

 
mytarmailS #:

Bu senin fantezin, gerçek değil


Şimdiye kadar gördüğüm bu:

Bir veri var, diyelim ki 100 bin gözlem, buna "X.big" diyeceğim.

1) ilgilendiğimiz şeyi tanımlarız (örüntü, kural, olay, TS'den gelen sinyal), ben buna "başlangıç kuralı" diyorum (Alexey Funtz. aktivasyon. isim son derece talihsiz ama...).

2) Verilerden "başlangıç kuralını" seçiyoruz ve artık 100 bin değil 100-1000 gözlemimiz var, çünkü "X.small" arama uzayını azalttık.

3) "X.small" da özelliklerin tam ölçekli bir aramasını başlatıyoruz, özellikleri sıralı kurallar şeklinde görüyorum, kurallar genetik programlama yoluyla otomatik olarak oluşturuluyor, tam ölçekli bir arama istiyorum, ancak çalışıp çalışmayacağından emin değilim.

4) Oluşturulan özelliklerin bir dizisi modele beslenir, örneğin bir seferde 1000 adet.

5) model özellikleri önem sırasına göre seçer ve iyi özellikleri kaydeder, yeni bir dizi elde eder, vb....

6) arama sonucunda belirli bir " başlangıç kuralına " göre birkaç bin çalışma niteliği elde ederiz.


Dolayısıyla, tüm bunlara bir model dersek, modelin kendisi milyarlarca özellik bulur ve gerekli olanı seçer.

Yine 25... Bu, anlam bakımından 3 sınıflı bir sınıflandırmadan farklı değildir.

 
Maxim Dmitrievsky #:

Tekrar 25. Anlam olarak 3 sınıflı bir sınıflandırmadan farklı değildir

Bir veri kümesi oluşturayım ve kimin algoritmasının daha iyi olduğunu göreyim.

 
Maxim Dmitrievsky #:
Biri onun fikirlerini çaldığımı söylüyor, diğeri bana onun öğrettiğini... Siz kimsiniz ki? ))))

"Çalmak" - öyle mi dedin? Utanmazsın, bunu söyleyebilirim.

Ticaret, otomatik ticaret sistemleri ve ticaret stratejilerinin test edilmesi üzerine forum.

Ticarette makine öğrenimi: teori, uygulama, ticaret ve daha fazlası

Aleksey Vyazmikin, 2020.12.03 19:11

Yani fikir, modeli değerlendirmek ve model aslında kafa karıştırıcı hedefleri çözüyor ve bu durumda başarısını değerlendirebiliriz, sadece her şeyin ne kadar kafa karıştırıcı olduğunu görmek için değil.

Basamaklı öğrenme yöntemini denemeyi düşünüyorum (kendi bulduğum bir terim - farklı bir şey olabilir). Grafikler, eğitimin başarılı olduğu alanlar olduğunu gösteriyor - bu alanı terk edin ve bu alanın ötesine geçenleri, daha önce sol alanın dağılımına giren örneklerden çıkardıktan sonra tekrar eğitmek için. Bunu zaten elle yapmayı denedim - etki iyiydi, şimdi otomatikleştirmeyi düşünüyorum, ancak ikinci gün hala şans yok - etkinin kazara olmasından korkuyorum - üzülmek istemiyorum. Sizin bu konudaki fikriniz nedir? Python'da bunu yapmanın kolay olduğunu düşünüyorum.

Makalede tartışılmıştı.

Alıntı yapıyorum:

"

Kendi hatalarını analiz edip düzeltebilecek ve sonuçlarını yinelemeli olarak iyileştirebilecek bir algoritma yazmak istiyoruz. Bunu yapmak için, iki sınıflandırıcıdan oluşan bir grup almayı ve bunları aşağıdaki diyagramda önerildiği gibi sırayla eğitmeyi öneriyoruz.

"

"

Bu yaklaşımın sezgisi, karışıklık matrisi terminolojisinde, kaybedilen işlemlerin temel model için birinci türden sınıflandırma hataları olduğudur. Yani, yanlış pozitif olarak sınıflandırdığı durumlardır. Metamodel bu tür vakaları filtreler ve gerçek pozitifler için 1, diğer her şey için 0 puan verir. Temel modeli eğitmek için metamodel veri kümesini filtreleyerek Hassasiyetini, yani doğru alım ve satım tetikleyicilerinin sayısını artırırız. Aynı zamanda, metamodel mümkün olduğunca çok sayıda farklı sonucu sınıflandırarak Recall (tamlık) değerini artırır.

"

Fikirler aynı, ancak siz uygulamayı yaptınız ve ayrıntıları çözdünüz - ben sadece konsepti söyledim ve deneylerimi ve uygulama kodumu yayınladığımdan emin değilim.

Bunu size şu anda ne hakkında olduğunu anlamayabileceğiniz ve daha sonra anladığınızda kullanabileceğiniz bir bağlamda hatırlattım. Ve anlamamak, yetersiz davranmak ve insanların kişilikleri ve mantıkları hakkında değer yargılarınızı ifade etmek için bir neden değildir.

 
mytarmailS #:

Bir veri kümesi oluşturayım ve kimin algoritmasının daha iyi olduğunu göreyim.

Veri kümesi nelerden oluşacak? Girdi olarak sadece alıntılar alıyorum.

 
Aleksey Vyazmikin #:

"Çaldı" mı dedin sen? Utanmaz biri, bunu söyleyebilirim.

Makale de bundan bahsediyordu.

Alıntı:

"

Kendi hatalarını analiz edip düzeltebilecek ve sonuçlarını yinelemeli olarak iyileştirebilecek bir algoritma yazmak istiyoruz. Bunu yapmak için, iki sınıflandırıcıdan oluşan bir grup almayı ve bunları aşağıdaki diyagramda önerildiği gibi sırayla eğitmeyi öneriyoruz.

"

"

Bu yaklaşımın sezgisi, karışıklık matrisi terminolojisinde, kaybedilen işlemlerin temel model için birinci türden sınıflandırma hataları olduğudur. Yani, yanlış pozitif olarak sınıflandırdığı durumlardır. Metamodel bu tür vakaları filtreler ve gerçek pozitifler için 1, diğer her şey için 0 puan verir. Temel modeli eğitmek için metamodel veri kümesini filtreleyerek Hassasiyetini, yani doğru alım ve satım tetikleyicilerinin sayısını artırırız. Aynı zamanda, metamodel mümkün olduğunca çok sayıda farklı sonucu sınıflandırarak Recall (tamlık) değerini artırır.

"

Fikirler aynı, ancak siz uygulamayı yapmış ve ayrıntıları çözmüşsünüz - ben sadece konsepti söyledim ve deneylerimi ve uygulama kodumu yayınladığımdan emin değilim.

Bunu, ne hakkında konuştuğumuzu şimdi anlamayabileceğiniz ve daha sonra, anlayış geldiğinde kullanabileceğiniz bir çerçevede hatırlattım. Ve anlamamanın yetersiz davranmak ve insanların kişilikleri ve mantıkları hakkında değer yargılarınızı ifade etmek için bir neden olmadığını.

Öyleyse makaledeki kodu alalım ve kontrol edelim. Henüz bir şey yoksa neden neden bahsettiğimizi anlamalıyım.

Bu tür uygulamaların birçok varyantına sahibim, yeniden eğitmek yerine yeniden eğitmek, taban çizgilerine göre yeniden eğitmek ve benzerleri dahil.

Özellikle bunu yapmaya başladığınızda, sonuç başlangıçta planlanan fanteziden farklıdır

 
Maxim Dmitrievsky #:

Veri kümesi nelerden oluşacak? Girdi olarak sadece alıntılar alıyorum

Son 200 parça ve bir işaretleyici için OHLS fiyatları, zaman ekleyebilirsiniz.

 
mytarmailS #:

OHLS fiyatları son 200pc ve bir etiket, zaman eklenebilir.

200 parça mı? Ne kadar az. Bende etiket yok, otomatik bölümleme var.

Yeniden yazmam gerekecek.

Neden: