Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 10

 

Merhaba paralocus , sanırım buradan başlayabilirsin, sonra bakarız.

Bu arada, ilgilenen herkese: strateji - "zararları düzelt ve kârların büyümesine izin ver" veya "karları sabitle ve kayıpların büyümesine izin ver" (seçilen ticaret ufkunda piyasanın trend mi yoksa yatay mı olduğuna bağlı olarak) - sermayeyi yeniden yatırırken optimal değildir. Bu durumda, yeniden yatırım ile her adımda sabitlemek daha karlı! Yani, 10 sürekli karlı işlemimiz varsa, o zaman her biri için komisyonu DC'ye vermek ve yeniden yatırım yapmak, tüm bu zaman boyunca bir pozisyonu tutmak ve yayılmadan tasarruf etmekten daha karlı.

İşte böyle bir paradoks, işlemlerin Bernulizasyonundan çok uzak olmayan ve bundan sonra - temel ticaret denkleminin analitik bir biçimde (Vince'in aksine) parametreleştirme ile herhangi bir sorun yaşamadan etkin kullanımına.

 
Neutron >> :

Merhaba paralocus , sanırım buradan başlayabilirsin, sonra bakarız.


Teşekkür ederim!

Girişte üç algılayıcım var (şimdiye kadar üç) bu ilk katman. Katmanın bileşimi:

RSI için bir, CCI için bir ve Stokastik için bir algılayıcı. Tüm girişler ve çıkışlar normalleştirilir (-1 ; +1). Algılayıcılar, bir genetikçi tarafından en basit şemaya göre - bölmek için eğitilir.

Şimdi, biri yalnızca satın almak için, ikincisi ise yalnızca satmak için keskinleştirilen iki algılayıcıdan oluşan ikinci bir katman eklemek istiyorum. Soru:

İkinci katmanın algılayıcılarının, birinci katmandaki aynı verileri kullanırken deyim yerindeyse her biri kendi uzmanlık alanında öğrenmesi yeterli mi?

İlk katmanın algılayıcılarının da satın alma ve satış için ayrı ayrı eğitilmesi gerekiyor mu?

 
paralocus писал(а) >>

Teşekkür ederim!

O zamana kadar!

Görüyorsunuz, paralocus , NN, aslında, evrensel bir toplayıcıdır ve matematiksel bir bakış açısından, satış ve satın alma için çıktı katmanındaki nöronları ayrı ayrı keskinleştirmeniz veya üçüncü katmanı bir çıkışı polaritede bir alım veya satımı gösterecek olan hipertanjant aktivasyonlu tek nöron ve genlik - başarı olasılığı (Ağın buna olan güveni). Bu açıdan, ilk katmanın nöronlarını zorla uzmanlaştırmaya gerek yoktur - eğitim sürecinde kendileri belirlenecektir ve iki katmandan hareket ederken sinir ağının hesaplama gücünün artmadığı göz önüne alındığında, üç katmanlı bir mimariye (bazı egzotik durumlar hariç) ve eğitim örneğinin uzunluğunun Ağın tüm ağırlıklarının karesiyle orantılı olması (ve mümkünse örneğin minimum olması gerekir) Piyasa olaylarına anında yanıt vermek için) ve Okama'nın Razor'u (ihtiyaç olmadan fazladan Varlık üretmeye gerek yok) ilkesini kullanmanın yanı sıra, en iyi seçenek bir gizli katman ve bir çıkış nöronu olan iki katmanlı bir NN'dir.

PS Evet, NN için giriş sinyalinin olasılık yoğunluğunun sıfır beklentisi olması ve +/-1 aralığında (raf) eşit olarak dağılması önemlidir. Bu, eğitim ve ağ operasyonunun verimliliğini önemli ölçüde artırır.

 
Neutron >> :

O zamana kadar!

Görüyorsunuz, paralocus , NN, aslında, evrensel bir toplayıcıdır ve matematiksel bir bakış açısından, çıktı katmanındaki nöronları satış ve satın alma için ayrı ayrı keskinleştirmeniz veya üçüncü katmanı bir çıkışı polaritede bir alım veya satımı gösterecek olan hipertanjant aktivasyonlu tek nöron ve genlik - başarı olasılığı (Ağın buna olan güveni). Bu açıdan, ilk katmanın nöronlarını zorla uzmanlaştırmaya gerek yoktur - eğitim sürecinde kendileri belirlenecektir ve iki katmandan hareket ederken sinir ağının hesaplama gücünün artmadığı göz önüne alındığında, üç katmanlı bir mimariye (bazı egzotik durumlar hariç) ve eğitim örneğinin uzunluğunun Ağın tüm ağırlıklarının karesiyle orantılı olması (ve mümkünse örneğin minimum olması gerekir) Piyasa olaylarına anında yanıt vermek için) ve Okama'nın Razor'u (ihtiyaç olmadan fazladan Varlık üretmeye gerek yok) ilkesini kullanmanın yanı sıra, en iyi seçenek bir gizli katman ve bir çıkış nöronu olan iki katmanlı bir NN'dir.

PS Evet, NN için giriş sinyalinin olasılık yoğunluğunun sıfır beklentisi olması ve +/-1 aralığında (raf) eşit olarak dağılması önemlidir. Bu, eğitim ve ağ operasyonunun verimliliğini önemli ölçüde artırır.

Hey! Bazı şeyler açık, ama pek çok yeni! Hiçbir şeyi kaçırmamak için hemen soracağım ...

1. NN esasen evrensel bir toplayıcıdır ve matematiksel bir bakış açısından, çıktı katmanındaki nöronları satış ve satın alma için ayrı ayrı keskinleştirmeniz veya üçüncü katmanı hipertanjansiyel aktivasyonla tek bir nörondan organize etmeniz önemli değildir. , polaritede bir alım veya satımı gösterecek olan çıktı ve genlik - başarı olasılığı (Şebeke'nin buna olan güveni).

Toplayıcıyı, hipertanjant aktivasyonlu nöronu anlıyorum - bu ne tür bir hayvan? Giriş çıkışları sigmoid ile normalleştiriyorum ve giriş çıkışlardaki sinyallerin doğru olduğundan emin olmak için (-1< yüksek ve alçak < +1), Perseptron göstergesini biraz yeniden tasarladım. Yani, üç girdi nöronu alıyoruz ve çıktılarını, belirtilen yönde ticaretin başarılı sonucunun olasılıksal bir değerlendirmesi olarak oldukça kolay bir şekilde düşünebileceğimiz dördüncünün (hipertanjant aktivasyonu ile) girdisine atıyoruz ( aktif polariteye doğru) ... değil mi?


2. Bu açıdan bakıldığında, ilk katmanın nöronlarını zorla uzmanlaştırmaya gerek yoktur - eğitim sürecinde kendileri belirlenecektir.

Yani, girdi katmanının nöronları, girdi verilerini basitçe "sağ" ve "sol" olarak ayırmak için eğitilmelidir. “Eğitim sürecinde kendilerinin nasıl belirlendiğini” biraz anlamadım - bu hipertanjansiyel çıktı nöronunu eğitmeyi mi kastediyorsunuz, yoksa tüm çıktı ve girdi nöronlarını aynı anda mı eğitiyor? Hepsi bir kerede, o zaman genetikçi aynı anda 8'den fazla parametrenin optimize edilmesine izin vermeyecek ve böyle bir ızgarada en az 12 tanesi var (... hindi parametrelerini saymıyor) - ne yapmalı? Ayrı ayrı antrenman yaparsanız - önce her girdi ayrı ayrı, sonra yalnızca çıktı ayrı (bunu şimdi yapıyorum), o zaman bu bir hata olmaz mı?


3. Eğitim örneğinin uzunluğunun Ağın tüm ağırlıklarının karesi ile orantılı olması (ve mümkünse örnek, Piyasa olaylarına hızlı yanıt verebilmek için minimum olmalıdır)

Neye benziyor? Ağın tüm ağırlıklarının karesini alırız, sonra bu kareleri toplarız ve eğitim örneğinin uzunluğunun neyle orantılı olması gerektiğini elde ederiz?

Uzun örneklerin boşuna gelince, zaten biliyorum - tabiri caizse "bilimsel dürtme" yöntemiyle geldim. Hatta verilerin şebeke için gereksiz olduğu tarihi (2008.12.02) bile buldum - mevcut piyasa dinamikleriyle hiçbir korelasyon yok.


4. En iyi seçenek, bir gizli katman ve bir çıkış nöronu olan iki katmanlı bir NN'dir.

Burada bir şey anlamadım… Bir nöron girdi katmanı, bir nöron çıktı katmanı ve hatta gizli bir nöron katmanı varsa, o zaman zaten üç tane var. Ağ neden iki katmanlı?


5. Evet, NN için giriş sinyalinin olasılık yoğunluğunun sıfır beklentisi olması ve +/-1 aralığında (raf) eşit olarak dağılması önemlidir. Bu, eğitim ve ağ operasyonunun verimliliğini önemli ölçüde artırır.

Giriş sinyalini (sezgi düzeyinde) normalleştirme ihtiyacını kendim anlıyorum, bu yüzden giriş sinyalini, çıktının formda aynı, ancak -/+1 aralığında olacak şekilde dönüştürüyorum. Ancak, normalleştirilmiş RSI'nin olasılık yoğunluğu nasıl dağıtılır? Örneğin, RSI nöronumun giriş sinyali şöyle görünür:


Bu yeterli mi, yoksa başka bir şey gerekli mi?

P/S Jiletle iyiyim, asıl mesele neyi keseceğimi anlamak.. :-)

 
paralocus писал(а) >>

1. Toplayıcıyı, hipertanjant aktivasyonlu nöronu anlıyorum - bu ne tür bir hayvan? Giriş çıkışları sigmoid ile normalleştiriyorum ve giriş çıkışlardaki sinyallerin doğru olduğundan emin olmak için (-1< yüksek ve alçak < +1), Perseptron göstergesini biraz yeniden tasarladım. Yani, üç girdi nöronu alıyoruz ve çıktılarını, ticaretin başarılı sonucunun belirtilen yönde (doğruya doğru) olası bir değerlendirmesi olarak güvenle değerlendirebileceğimiz dördüncünün (hipertanjant aktivasyonu ile) girişine atıyoruz. aktif polarite) ... doğru mu?

Bu, aktivasyon fonksiyonu (FA) hiperbolik bir tanjant (değer aralığı +/- 1) olan bir nörondur - alım satım kararı vermek için uygundur - alım/satım ve eğer |FA|<sabit - piyasa dışındadır.

Tüm NS nöronları doğrusal olmayan FA'ye sahip olmalıdır (bazı istisnalar dışında - sonuncusu hariç). Öğrenme oranı dışında hiçbir şey belirli FA türüne bağlı değildir.

2. Bu açıdan bakıldığında, ilk katmanın nöronlarını zorla uzmanlaştırmaya gerek yoktur - eğitim sürecinde kendileri belirlenecektir.

Yani, girdi katmanının nöronları, girdi verilerini basitçe "sağ" ve "sol" olarak ayırmak için eğitilmelidir. “Eğitim sürecinde kendilerinin nasıl belirlendiğini” biraz anlamadım - bu hipertanjansiyel çıktı nöronunu eğitmeyi mi kastediyorsunuz, yoksa tüm çıktı ve girdi nöronlarını aynı anda mı eğitiyor? Hepsi bir kerede, o zaman genetikçi aynı anda 8'den fazla parametrenin optimize edilmesine izin vermeyecek ve böyle bir ızgarada en az 12 tanesi var (... hindi parametrelerini saymıyor) - ne yapmalı? Ayrı ayrı antrenman yaparsanız - önce her girdi ayrı ayrı, sonra yalnızca çıktı ayrı (bunu şimdi yapıyorum), o zaman bu bir hata olmaz mı?

Tabii ki, herkesi aynı anda eğitmek, aksi takdirde bir sorunumuz olacak - "ormanda kim var, kim yakacak odun için." "Genetikçi" ile hiçbir ilgim yoktu, bu yüzden burada yardımcı olamam.

3. Eğitim örneğinin uzunluğunun Ağın tüm ağırlıklarının karesi ile orantılı olması (ve mümkünse örnek, Piyasa olaylarına hızlı yanıt verebilmek için minimum olmalıdır)

Neye benziyor? Ağın tüm ağırlıklarının karesini alırız, sonra bu kareleri toplarız ve eğitim örneğinin uzunluğunun neyle orantılı olması gerektiğini elde ederiz?

Yaklaşım hatası ve genelleme hatasının minimum toplamına ulaşılan P eğitim kümesinin optimal bir uzunluğu vardır. Bu optimum, ağdaki w sinapslarının sayısı ve d girişinin boyutu (ağ girişlerinin sayısı) tarafından benzersiz bir şekilde belirlenir:

Popt=k*w*w/d, burada k , 1. dereceden boyutsuz bir sabittir ve piyasa oynaklığı gerçeğini hesaba katar.

Optimal kriter, test numunesindeki ve eğitim numunesindeki ağ hatasının ölçülebilirliğidir, yani. normal olarak eğitilmiş bir ızgara,% 55'i doğru tahmin ederse, yeni veriler üzerindeki testte yaklaşık olarak aynı sonucu gösterecektir. Ayrıca, böyle bir sinir ağı için, ODP yöntemindeki yineleme sayısındaki artışla ilişkili yeniden eğitim sorunu yoktur - hatanın yerel bir minimumu yoktur - fonksiyon anlıktır ve asimptotik olarak sabit olma eğilimindedir.

4. En iyi seçenek, bir gizli katman ve bir çıkış nöronu olan iki katmanlı bir NN'dir.

Burada bir şey anlamadım… Bir nöron girdi katmanı, bir nöron çıktı katmanı ve hatta gizli bir nöron katmanı varsa, o zaman zaten üç tane var. Ağ neden iki katmanlı?

Bu bir terminoloji meselesidir. Giriş katmanını özel olarak işaretlemiyorum. Bu nedenle, sadece iki katmanı olan bir sinir ağını kastettim - bir girdi (ayrıca gizlidir) ve bir çıktı (bir nörondan oluşur.

Ancak, normalleştirilmiş RSI'nin olasılık yoğunluğu nasıl dağıtılır? Bu yeterli mi, yoksa başka bir şey gerekli mi?

Bilmiyorum. RSI'nizin birinci farkı serisinin olasılık yoğunluk dağılımını oluşturmanız ve grafiğe bakmanız gerekir - maksimum genliği +/-1 olan bir raf olmalıdır.

 
Neutron писал(а) >>

Giriş katmanını özel olarak işaretlemiyorum. Bu nedenle, sadece iki katmanı olan bir sinir ağını kastettim - bir girdi (ayrıca gizlidir) ve bir çıktı (bir nörondan oluşur.

Yani ağ, birinci katmanda birkaç paralel algılayıcıdan ve çıkış katmanında bir tane paralel algılayıcıdan oluşurken, çıkış algılayıcısının girdi sayısı birinci katmandaki algılayıcı sayısına eşit mi?

 
Neutron >> :

Tabii ki, herkesi aynı anda eğitmek, aksi takdirde bir sorunumuz olacak - "ormanda kim var, kim yakacak odun için." "Genetikçi" ile hiçbir ilgim yoktu, bu yüzden burada yardımcı olamam.


İyi! Ve ızgaramı biraz sonra kendi kendine öğrenen bir "bitirmeyi" umuyordum...

Aldığım cevapları sindiriyorum... Anladığımı çizeceğim

 
FION писал(а) >>

Yani ağ, birinci katmanda birkaç paralel algılayıcıdan ve çıkış katmanında bir tane paralel algılayıcıdan oluşurken, çıkış algılayıcısının girdi sayısı birinci katmandaki algılayıcı sayısına eşit mi?

O gibi.

Ancak, her algılayıcının girişinde, +1'lik sabit bir sapma için ayrı bir ek giriş vardır. Bu, öğrenmeyi hızlandırır ve ağın gücünü artırır.

 
Neutron писал(а) >>

O gibi.

Ancak, her algılayıcının girişinde, +1'lik sabit bir sapma için ayrı bir ek giriş vardır. Bu, öğrenmeyi hızlandırır ve ağın gücünü artırır.

Açık. Sabit bir kayma, hipertanjant eğrisi üzerindeki aktivasyon noktasını sadece hafifçe kaydırır.

 

nötron yazdı >>


İşte anladığım şey:

Hipertanjant ile anlaşılır. Şimdiye kadar, sigmoidi kullandım ve bundan sonraki sonuçtan bir çıkarmak zorunda kaldım, bu artık gerekli değil. Sizi anlayabildiğim kadarıyla, şekil piyasa için en uygun NN mimarisini gösteriyor. Girdi sayısı 12 ve sinaps sayısı 4, yani Popt=k*w*w/d formülüne göre 144/4 = 36 elde ederiz... bu 36 bar mı yoksa ne? Veya en yakın 36 alış/satış durumu? Her şeyi doğru anladım mı?

Neden: