Sinir ağının girişine ne beslenmeli? Fikirleriniz... - sayfa 69
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Düşüncelerim olmasaydı, şu anda zamanımı MO tanrısı Gizlyk'e harcıyor olurdum :)
m oskitman #:
21. yüzyılın kahve telvesi gibi
Genel olarak - evet, ama bırakmıyor. Orada oturuyorsunuz, birinin manuel TC'sini parçalara ayırıyorsunuz, sonra: "Dostum, geçen sefer bunu ve bunu denemedim" - ve yine burada.
F orester #: Ağaçlarda bu sorun bölmelerle çözülür - sadece tahmin değeri < 0,1 ve > 0,5 olan yapraklar sinyal üretmeyecektir.
Onlara ulaşamıyorum.
M axim Kuznetsov#:
NN ve DL hakkında bir şey bilen var mı? En azından burada biri...
---
python'daki grafikler ve uygun testler hariç:-) En azından "EA demo ve artı üzerinde işlem yapar".
---
Ya da bunun evrimin çıkmaz bir dalı olduğuna ve mashobuch ve nöronların tüm çıktısının reklam, spam ve "karşılıklı_gönderme" olduğuna dair bir his var.
Zor bir ticaret olduğu ortaya çıktı. Ama yumuşak bir ticaret, böylece pazara gidebilirsiniz - henüz değil.
Eğer dumdums olmasaydı, şu anda zamanımı MO tanrısı Gizlyk ile harcıyor olurdum :)
Düşünmek vücudunuz için kötüdür, deneyimi ödünç alın ))
Düşünmek vücudunuz için kötüdür, tecrübelerime dayanarak söylüyorum))
Bu da doğru
Giriş sinyalin gücü değildir
Gücü ona ağırlıklar tarafından verilir. Ancak girdi sayısının kendisi a priori zaten(!) kendi içinde bir kuvvet unsuru - niceliksel faktörü - taşır.Daha önce girdi verilerini anlama sorununu gündeme getirmiştim. Girdiye bir sayı vererek - zaten başlangıçta girdiye bir kuvvet değeri vermiş oluyoruz. Bu bir hatadır, çünkü NS'mizin özü sadece güç faktörünü bulmak ve bunu girişler arasında dağıtmaktır.
Tam olarak anlayamadım, bir öğretmenle mi öğretiyorsunuz?
MT5 optimizasyonunda ve NeuroPro'da bir öğretmenle denedim. Teorik sorunun özü şu:Giriş aralığı 0'dan 1'e kadar ise, üst aralıktaki boşaltma desenleri alt aralıktaki sayılara gömülürse NS asla kaseyi bulamayacaktır, çünkü üsttekini "boğmak" zorunda kalacak ve statik ağırlıklarla daha düşük olan her şey de bıçağın altına girecektir .
Sonuç olarak, toplayıcı hem boşaltma verilerinden hem de çalışma verilerinden oluşan bir sayı elde edecektir - 50/50.
Ve eğer giriş aralığı -1 ile 1 arasındaysa ve kase ortada bir yerdeyse - aynı şey olacaktır: NS aşırı uçları boğacak ve kase yıkanacaktır.Ancak bir filtreleme modülü oluşturursanız, 0,9 sayısı 0,01'e veya hiç 0'a "dönüşecektir".
Ve 0,63 sayısı 0,99'a dönüşür ve bu böyle devam eder - o zaman bu yöntemin en azından standart olandan daha iyi ve en fazla potansiyel olduğunu varsayıyorum. Ve zaten bu sayılar, gürültüden "temizlenmiş" girdi verileriyle çalışmak için kurallar oluşturacak olan NS'ye beslenmelidir .
Teorik sorunun özü şu şekildedir:Giriş aralığı 0'dan 1'e kadar ise, NS alt aralıktaki sayılara gömülmüşse üst aralıktaki boşaltma modellerinde kaseyi asla bulamayacaktır, çünkü üsttekini "boğmak" zorunda kalacak ve statik ağırlıklarda alttaki her şey de bıçağın altına girecektir.
Sonuç olarak, toplayıcı hem boşaltma verilerinden hem de çalışma verilerinden oluşan bir sayı alacaktır - 50/50 ve ortaya çıkıyor.
Ve eğer girdi aralığı -1 ile 1 arasındaysa ve kase ortada bir yerdeyse - aynı şey olacaktır: NS aşırı uçları boğacak ve kase yıkanacaktır.Ancak bir filtreleme modülü oluşturursanız, 0.9 sayısı 0.01'e veya hiç 0'a "dönüşecektir".
Ve 0,63 sayısı 0,99'a ve benzerlerine dönüşür - bu yöntemin en azından standart olandan daha iyi ve en fazla potansiyel olduğunu varsayıyorum. Ve zaten bu sayılar, gürültüden "arındırılmış" girdi verileriyle çalışmak için kurallar oluşturacak olan NS'ye beslenmelidir .
Evet... Sanırım neden bahsettiğinizi anlıyorum (yanlışsa düzeltin). Geleneksel bir MLP'nin bir nöronu, kendisine gelen girdilerin ve bunlara karşılık gelen ağırlıkların çarpımlarını toplar, toplamı kaydırır ve ardından doğrusal olmayan bir şekilde dönüştürür (kaydırma, kendisine gelen sinyallerden bağımsız olarak her nöron için aynıdır). Yani, her bir girdiyi ayrı ayrı sadece doğrusal olarak kaydırmak imkansızdır. Görev, ağa giriş değerlerini düzeltmekse, giriş katmanı ile ilk gizli katman arasına, görevi sadece giriş katmanının değerlerini doğrusal olarak düzeltmek olan ek bir düzeltme katmanı (aktivasyon fonksiyonu olmadan) ekleyerek MLP'yi biraz geliştirebilirsiniz. Ağın her bir girişi için 1 ekstra ağırlık ve bir ekstra ofset gerekeceği ortaya çıktı. Aslında, bu ek katmanlardan yalnızca biri gereklidir ve sonrasında her zamanki gibi işler devam eder.
İlginç, uygulaması zor değil.
Giriş değerlerinin nasıl dönüştürülmesi gerektiği önceden biliniyorsa, bunları göndermek için iki bayt olarak alıp dönüştürecekleri açıktır, ancak bilinmiyorsa, böyle bir ek katman mantıklıdır.
IMLP - geliştirilmişMLPGiriş aralığı 0 ile 1 arasındaysa, üst aralıktaki erik desenleri alt aralıktaki sayılara gömülürse NS asla kaseyi bulamayacaktır, çünkü üsttekini "sıkıştırmak" zorunda kalacak ve statik ağırlıklarla alttaki her şey de bıçak altına gidecektir. Sonuç olarak, toplayıcı hem erik hem de çalışma verilerinden oluşan bir sayı elde edecektir - 50/50 .
Sorununuz kolayca çözülebilir: Her fişi gerekli sayıda aralığa bölün (3,5,10,50...) ve bunları ayrı fişler olarak besleyin. Her aralığın katsayıları ayrı ayrı ayarlanacaktır.
Eğer üst üçte birlik kısımda saklı bir kaseniz varsa, bu ayrı fiş tarafından bulunacaktır.
Evet... Sanırım neden bahsettiğinizi anlıyorum (yanlışsa düzeltin). Geleneksel bir MLP'nin bir nöronu, kendisine gelen girdilerin ve karşılık gelen ağırlıkların çarpımlarını toplar, toplamı kaydırır ve ardından doğrusal olmayan bir şekilde dönüştürür (kaydırma, kendisine gelen sinyallerden bağımsız olarak her nöron için aynıdır). Yani, her bir girdiyi ayrı ayrı sadece doğrusal olarak kaydırmak imkansızdır. Görev, ağa giriş değerlerini düzeltmekse, giriş katmanı ile ilk gizli katman arasına, görevi sadece giriş katmanının değerlerini doğrusal olarak düzeltmek olan ek bir düzeltme katmanı (aktivasyon fonksiyonu olmadan) ekleyerek MLP'yi biraz geliştirebilirsiniz. Ağın her bir girişi için 1 ekstra ağırlık ve bir ekstra ofset gerekeceği ortaya çıktı. Aslında, bu ek katmanlardan yalnızca biri gereklidir ve sonrasında her zamanki gibi işler devam eder.
İlginç, uygulaması zor değil.
Giriş değerlerinin nasıl dönüştürülmesi gerektiği önceden biliniyorsa, bunları göndermek için iki bayt olarak alıp dönüştürecekleri açıktır, ancak bilinmiyorsa, böyle bir ek katman mantıklıdır.
IMLP - geliştirilmişMLPEvet, bu bir tür filtreleme En kolay yol ve aynı zamanda en verimli olanı: sadece bir "if" koşulu ekleyin. N1 < IN < N2 ise, IN = Filter[i]; Bunu bir döngü ile bu şekilde yaptım
Giriş, sınırlardan düzeltme olasılıkları yüksek olan her türlü kanal sınırı ile beslenirse, aralık 2 parçaya bölünebilir, bunlardan biri göz ardı edilir (sıfırlanır) ve ikincisi daha yoğun bir şekilde düzeltilir. Bu yol, olabilecek en hızlı uydurmadır (yeniden eğitim).
Yine de hayır, Q-tablosu önce gelir ve bu yöntem ikinci sırada gelir. Öte yandan MLP, çok... forex için çok özel bir araçtır. Hatta bunun yıkıcı olduğunu düşünüyorum.
F orester #:
Sorununuz kolayca çözülebilir: Her özelliği gerekli sayıda aralığa (3,5,10,50...) bölün ve bunları ayrı özellikler olarak gönderin. Her aralığın katsayıları ayrı ayrı ayarlanacaktır.
Eğer üst üçte birlik kısımda saklı bir kâse varsa, bu bireysel fiş tarafından bulunacaktır.
NN ve DL ile şansınız yaver gitti mi?
---
python grafikleri ve uygun testler hariç:-) En azından "EA demo ve artı üzerinde işlem yapar".
---
Ya da bunun evrimin çıkmaz bir dalı olduğuna ve mashobuch ve nöronların tüm çıktısının reklam, spam ve "karşılıklı_gönderme" olduğuna dair bir his var.
Sanırım şüpheler yersiz. İlerlemeyi sahte kase pitoncularına göre değerlendirmeyin, göreceğiz.
Öte yandan MLP, forex için çok... forex için çok özel bir araç. Hatta bunun yıkıcı olduğunu düşünüyorum.
Baktığınızda, tam tersine DEM için en uygun olanın bu olduğunu söyleyebilirim. Diğer her şey, aslında hiçbir şey ifade etmeyen ve canlı pazarla hiçbir ilgisi olmayan kümelemedeki deterministik yaklaşımların hayal ürünü olan hayali etiketlere yapılan saf bir uyarlamadır.