Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 11

 
Neutron >> :

O gibi.

Ancak, her algılayıcının girişinde, +1'lik sabit bir önyargı için ayrı bir ek giriş vardır. Bu, öğrenmeyi hızlandırır ve ağın gücünü artırır.

Veya giriş katmanı sayılmazsa, söylenen her şeyi dikkate alarak:



Hatalar varsa lütfen düzeltin.

 
Neutron >> :

O gibi.

Ancak, her algılayıcının girişinde, +1'lik sabit bir sapma için ayrı bir ek giriş vardır. Bu, öğrenmeyi hızlandırır ve ağın gücünü artırır.

Ayarlanabilir parametrelerin sayısını artırmadan bir nöronun eşiğini değiştiren bir fırfır gibi mi? İlk defa görüyorum ama çok beğendim :)

 

Ve her nöronun girişindeki sabit önyargı nerede?

paralocus писал(а) >>

Sizi anlayabildiğim kadarıyla, şekil piyasa için en uygun NN mimarisini gösteriyor.

Bu benim düşüncem. Belki de bu doğru değil. Ancak sayısal deneylerin sonuçları bu ifadeyi doğrulamaktadır.

Girdi sayısı 12 ve sinaps sayısı 4, yani Popt=k*w*w/d formülüne göre 144/4 = 36 elde ederiz... bu 36 bar mı yoksa ne? Veya en yakın 36 alış/satış durumu? Her şeyi doğru anladım mı?

Dikkatlice düşünün: Mimarinizdeki Tüm Sinaps Sayısı: w=12+4=16

Giriş sayısı: d=3 (4*3 değil, sadece 3).

Eğitim örneğinin optimal uzunluğu: Popt=k*w*w/d =4*16*16/3=340 örnek her zaman serisi için (her giriş nöronunda 4 tane var). Bunlar, çubuklar veya gösterge değerleri olabilir veya işlem sayıları olabilir ve öngörülebilirliği artırmak için en iyisinin ne olduğuna karar vermek size kalmıştır... Tahmin edilebilirliğin, MTS'nin 4. güce dönüş oranına dahil olduğunu unutmayın! Çok güçlü bağımlılık (başlangıçta verilen konuya bakın).

 
paralocus писал(а) >>

Veya giriş katmanı sayılmazsa, söylenen her şeyi dikkate alarak:

Hatalar varsa lütfen düzeltin.

Anlamadım!

Giriş katmanını neden saymıyorsunuz? Antrenmanlara katılmıyor mu ve tahminde bulunmuyor mu?

En uygun olanı iki katmandır - gizli (aka girdi) ve çıktı. Bu mimari ile w=4*4+5=21, d=4 ve P=4*21*21/4=440 örneğiniz olur.

 
TheXpert писал(а) >>

Ayarlanabilir parametrelerin sayısını artırmadan bir nöronun eşiğini değiştiren bir fırfır gibi mi?

Fion yazdı >>

Açık. Sabit bir kayma, hipertanjant eğrisi üzerindeki aktivasyon noktasını sadece hafifçe kaydırır.

Genel olarak, doğrudur, ancak kesin olmak gerekirse, bir sonraki veri partisi Ulusal Meclis'in girişine ulaştığında, bunların merkezlenmediğini kastediyoruz (MO! = 0). Burada bunun için her nörona ek bir sabit girdi eklenir. Öğrenme sürecinde, belirli bir nöron, bu girdideki ağırlık değerini, girdi verilerinin olası yanlılığını telafi edecek şekilde seçer. Bu, istatistiksel olarak daha hızlı (hayali bulutun merkezinden) öğrenmeye izin verir.

 
Neutron >> :

Ve her nöronun girişindeki sabit önyargı nerede?

Bu benim düşüncem. Belki de bu doğru değil. Ancak sayısal deneylerin sonuçları bu ifadeyi doğrulamaktadır.

Dikkatlice düşünün: Mimarinizdeki Tüm Sinaps Sayısı: w=12+4=16

Giriş sayısı: d=3 (4*3 değil, sadece 3).

Eğitim örneğinin optimal uzunluğu: Popt=k*w*w/d =4*16*16/3=340 örnek her zaman serisi için (her giriş nöronunda 4 tane var). Bunlar, çubuklar veya gösterge değerleri olabilir veya işlem sayıları olabilir ve öngörülebilirliği artırmak için en iyisinin ne olduğuna karar vermek size kalmıştır... Tahmin edilebilirliğin, MTS'nin 4. güce dönüş oranına dahil olduğunu unutmayın! Çok güçlü bağımlılık (başlangıçta verilen konuya bakın).

Popt=k*w*w/d, burada k, 1. dereceden boyutsuz bir sabittir ve piyasa oynaklığı gerçeğini hesaba katar.

O halde bu formülde d gizli katmandaki bir nöronun girdi sayısı ve k gizli katmandaki nöron sayısı mı? Üzgünüm, nedense ağın 340 çubukta öğrenebileceğine inanmakta zorlanıyorum. Bu çok az ... Büyük olasılıkla bir şey anlamadım.

Şimdiye kadar, MT4 terminalinin test cihazında bir genetik algoritma ile "eğitilmiş" olan en basit algılayıcıya aşinaydım. Bu yüzden, en azından bazı önemli (2 - 3 aylık) geçmişi uzaklaştırmak gerekiyor. Tabii anlıyorum ki genetikçi aslında algılayıcıya hiçbir şey öğretmiyor, kendisi için en uygun katsayıları seçiyor ve çok az verimle çalışıyor çünkü. kör davranmak. Neyse. Bu lirik bir arasözdü.


Tek girdilerin de kendi ağırlık katsayılarına sahip olması gerektiğini doğru anladım mı? Ve girdileri nasıl "beyazlatabilirsiniz"? Yani, beklentisi zaten 0.21 olan hipertanjant tarafından normalize edilmiş bir RSI'm var diyelim. Bunu yaparsam: f(t) = th(RSI(i)*kf), burada kf > 1, giriş sinyalinin bir miktar bozulması pahasına olasılık yoğunluğunu eşitleyen özel olarak seçilmiş bir katsayıdır, bu normal mi yoksa olumsuzluk?

İşlem sayıları nedir?

 
Neutron >> :


Bu arada, ilgilenen herkese: strateji - "zararları düzelt ve kârların büyümesine izin ver" veya "karları sabitle ve kayıpların büyümesine izin ver" (seçilen ticaret ufkunda piyasanın trend mi yoksa yatay mı olduğuna bağlı olarak) - sermayeyi yeniden yatırırken optimal değildir. Bu durumda, yeniden yatırım ile her adımda sabitlemek daha karlı! Yani, 10 sürekli karlı işlemimiz varsa, o zaman her biri için komisyonu DC'ye vermek ve yeniden yatırım yapmak, tüm bu zaman boyunca bir pozisyonu tutmak ve yayılmadan tasarruf etmekten daha karlı.

İşte böyle bir paradoks, işlemlerin Bernulizasyonundan çok uzak olmayan ve bundan sonra - temel ticaret denkleminin analitik bir biçimde (Vince'in aksine) parametreleştirme ile herhangi bir sorun yaşamadan etkin kullanımına.

Bu bir paradoks olacak bir şey değil, sadece yeniden yatırım ile MM'nin bir özelliği. Bu MM'nin etkinliği, diğer şeylerin yanı sıra işlem sayısına bağlıdır. Bu MM'nin karlılığı, işlem sayısı açısından geometrik ortalamadır. Az sayıda işlemle, karlılık açısından basit bir MM'ye kaybeder, ancak çok sayıda işlemde (uzun süre oynama) hayatta kalmayı başarırsanız, gelir daha yüksek olabilir. Ama her zaman olduğu gibi, hiçbir şey kolay gelmiyor. Kaldıraç asimetrisi ve bunun sonucu - normal MM ile karşılaştırıldığında uzun bir düşük gelir dönemi ile ödeme yapmanız gerekecek.

 
paralocus писал(а) >>

Popt=k*w*w/d, burada k , 1. dereceden boyutsuz bir sabittir ve piyasa oynaklığı gerçeğini hesaba katar.

O halde bu formülde d gizli katmandaki bir nöronun girdi sayısı ve k gizli katmandaki nöron sayısı mı? Üzgünüm, nedense ağın 340 çubukta öğrenebileceğine inanmakta zorlanıyorum. Bu çok az ... Büyük olasılıkla bir şey anlamadım.

Şimdiye kadar, MT4 terminalinin test cihazında bir genetik algoritma ile "eğitilmiş" olan en basit algılayıcıya aşinaydım. Bu nedenle, en azından bazı önemli (2 - 3 aylık) geçmişi uzaklaştırmak gerekiyor. Elbette anlıyorum ki, genetikçi aslında algılayıcıya hiçbir şey öğretmez, kendisi için en uygun katsayıları seçer ve çok az verimle çalışır, çünkü kör davranmak. Neyse. Bu lirik bir arasözdü.

Tek girdilerin de kendi ağırlık katsayılarına sahip olması gerektiğini doğru anladım mı? Ve girdileri nasıl "beyazlatabilirsiniz"? Yani, beklentisi zaten 0.21 olan hipertanjant tarafından normalize edilmiş bir RSI'm var diyelim. Bunu yaparsam: f(t) = th(RSI(i)*kf), burada kf > 1, giriş sinyalinin bir miktar bozulması pahasına olasılık yoğunluğunu eşitleyen özel olarak seçilmiş bir katsayıdır, bu normal mi yoksa olumsuzluk?

İşlem sayıları nedir?

paralocus, hata yapmaktan korkuyor musun? Broste! - Bunu ve şunu deneyin ve sonucu görün - her şey yerine oturacaktır.

k , nöron girdilerinin sayısı değil, Pazarın ampirik bir özelliğidir - değişkenliği ve 2 ila 4 aralığında seçilir. öğrenme süreci için asimptotikler Ağlar. Ne yazık ki, Piyasa yalnızca durağan olmadığında durağan olarak adlandırılabilir, bu nedenle, NN'yi yeniden eğitme sürecine göre katsayı mümkün olduğunca düşük alınmalıdır. Yukarıdaki k aralığının geldiği yer burasıdır.

Genetik uzmanınız, bu, gradyan inişinin öğelerini içeren bir tür stokastik öğrenme yöntemidir (kafam karışmıyorsa). Olay fena değil ama ORO öğrenme hızı açısından kaybediyor. Geri yayılım lehine genetiği terk edin - öğrenme daha verimli olacaktır ve Ağın girdi ve sinaps sayısında bir sınır yoktur.

Tek girişlerin, normal modda eğitilen ve özellikleri diğer girişlerden farklı olmayan kendi katsayıları vardır.

Beyazlatma girdileri, aralarındaki korelasyon bağımlılıklarının ortadan kaldırılmasıdır. Bu prosedürü kullanmak için önce kendinizi tam da bu korelasyonun olduğuna ikna edin.

İşlem, piyasada bir varlığın alınıp satılması eylemidir, yani. anlaşma, rüşvet (suç anlamında değil :-)

 
Neutron >> :

Geri yayılım lehine genetiği terk edin - öğrenme daha verimli olacaktır ve Ağın girdi ve sinaps sayısında bir sınır yoktur.


Hepsi reddetti. ORO ile bir ızgara yazmak için oturdu. Belki de ORO'nun kendisinde bazı sorular ortaya çıkacaktır.

 
paralocus писал(а) >>

Belki de ORO'nun kendisinde bazı sorular ortaya çıkacaktır.

Sorun yok!

Bu arada, ağınızın mimarisine daha yakından bakalım.

Bir çıkış nöronu tarafından birbirine bağlanan üç bağımsız iki katmanlı ağdan oluşan bir komiteniz var (dolayısıyla komite). Komitenizin her Grid'i yalnızca bir giriş nöronu içerir, bu doğru değildir, çünkü böyle bir mimari, hesaplama gücünde tek katmanlı bir algılayıcıdan farklı değildir. Bu nedenle, 12 değil, üç girdiniz (4 önyargı dahil) var. Bir kez daha: genel oyla (çıktı nöronu) başkanın "doğru" cevabı seçtiği bir yönetim kurulu analogu yarattınız ve her biri seçmenler yalnızca tek bir nöronla temsil edilir. Böyle bir mimari ticarette bir avantaj sağlamayacaktır. Bu doğru, komitenin her üyesinin girişinde en az iki nöron sağlamak, bu, FA'nın doğrusal olmama özelliğinden tam olarak yararlanmayı mümkün kılacak ve komitenin tahmin gücünü önemli ölçüde artıracaktır.

AI ve bizim aramızda ne kadar ortak olduğunu görüyorsunuz... Aslında Komsomol toplantısında oy vermek, hedefe en düşük maliyetle en hızlı şekilde ulaşmak açısından en uygun ekip davranışı şemasından başka bir şey değil!

Komitenin çıktısında lineer olmayan aktivasyon fonksiyonu olmadığını, sadece toplayıcı olduğunu ve fonksiyonunun oylama sonuçlarına göre karar vermek olduğunu unutmayın. Böylece, bu mimari sizin fikrinize en yakın olanıdır ve bir gizli katmana sahip iki katmanlı doğrusal olmayan ağlardan oluşan bir komitedir. Gizli katmandaki nöronların sayısı artırılabilir, böylece tahminin güvenilirliği artırılabilir, ancak bu durumda eğitim örneğinin uzunluğunun ikinci dereceden büyüdüğü ve çok yakında, artışın verimliliğinin bir an geldiği unutulmamalıdır. düşer ve hatta Ağın öngörme yeteneklerinde bozulmaya yol açar. Sayısal deneylerimin sonuçlarına göre, optimum gizli katmanda 2-4 nöronu geçmiyor.

Verilen mimari için eğitim örneğinin optimal uzunluğu Р=1500 örnektir.

PS Güzel çıktı. Resimden bahsediyorum. Estetik zevk alıyorum!

Neden: