NS + göstergeleri. Deney. - sayfa 11

 
Figar0 >> :

Bir şube açmanın zamanı geldi, sonuçta, Millet Meclisi'nin girişlerine adanmış ve yeni bir konu açmayacağım ...

Birkaç çok basit teorik soru vardı, yansımalar.

*

anda). Abartılı olan giriş seçeneklerini NN'ye göndermek şuna benzer:

a) Aç[0]-Aç[1], Aç[0]-Aç[2], Aç[0]-Aç[3], Aç[0]-Aç[4],..., Aç[0] -Aç[N]

b) Aç[0]-Aç[1], Aç[1]-Aç[2], Aç[2]-Aç[3], Aç[3]-Aç[4],..., Aç[N- 1]-Aç[N]

yaklaşık olarak aynı sonucu elde etmesi beklenir. Yine de, girdiler oldukça totolojik. Ama hayır, sonuçlar hem eğitim sahasında hem de dışında her zaman yakın olmaktan uzaktır. Farklı ağ seçenekleri, farklı sinir ağı paketleri denedim, her yerde görüntü neredeyse aynı... Neden? öğrenme mekanizmasının kusurluluğu? Ağın "zayıflığı"? Ondan ne kadar istiyorum?

*

İki). Deneyimli veya kendi kendini tanımlayan sinir ağı uzmanlarının görüşlerini duymak istiyorum, uygulamalı fiyat VR tahmini sorunumuzdaki girişler fiyattan ne kadar uzakta olmalı? Deneyimlerim, fiyatın "N. mertebesinin türevleri" olan her türlü göstergenin kullanılmasının en iyi ihtimalle hiçbir şey vermediğini gösteriyor. Fiyat, maksimum yumuşatma, uç noktalar, Millet Meclisi için afyondan başka her şey.. Sizce de öyle değil mi?

Ah) Bilgi sizin için "totolojik", benim için, µl üzerindeki diğer birçok programcı için... Çapraz korelasyon kurmaya çalıştınız mı ve girdilerin ne kadar ilişkili olduğunu gördünüz mü? Eğitim alanı dışında, kişisel deneyime göre, fark sadece tedarik edilenlerin durağan olmamasından kaynaklanmaktadır ...

İki) "Girişler fiyattan ne kadar uzak olmalı" hakkında - göreceli olarak, tam tersi var, türev kullanımı kriteri iyileştiriyor ... Şahsen ben öyle düşünmüyorum. Girdilerin ne olması gerektiği çıktıya (görev), göreve (çıktı) nasıl ortaya çıktığınıza (kabaca konuşursak) bağlıdır.

 
Figar0 >> :

anda). Abartılı olan giriş seçeneklerini NN'ye göndermek şuna benzer:

a) Aç[0]-Aç[1], Aç[0]-Aç[2], Aç[0]-Aç[3], Aç[0]-Aç[4],..., Aç[0] -Aç[N]

b) Aç[0]-Aç[1], Aç[1]-Aç[2], Aç[2]-Aç[3], Aç[3]-Aç[4],..., Aç[N- 1]-Aç[N]

yaklaşık olarak aynı sonucu elde etmesi beklenir. Yine de, girdiler oldukça totolojik . Ancak hayır, sonuçlar hem eğitim sahasında hem de dışında her zaman yakın olmaktan uzaktır. Farklı ağ seçenekleri, farklı sinir ağı paketleri denedim, her yerde görüntü neredeyse aynı... Neden? öğrenme mekanizmasının kusurluluğu? Ağın "zayıflığı"? Ondan ne kadar istiyorum?

İlk bakışta, a) ve b) durumlarında ağın girişine sağlanan bilgiler gerçekten de totolojiktir. Beyin, gözler aracılığıyla yazılı formüller şeklinde grafik bilgiler alır.

Formül sembollerinin kendileri beyin için faydalı herhangi bir bilgi taşımaz, bilgi bu sembollerin anlamlarında bulunur.

İlk başta farkı pek göremez. Daha önce görmedim. :)

O zamana kadar, formüllerin işaretleri altında hangi sayıların gizlendiğini anlamaya başlayana kadar farkı görmez. Farkın ne olduğu hemen ortaya çıkıyor, büyük bir fark.


İşte grafiğin bir ekran görüntüsü a),

Sonsuzdan başlayarak Open[0]-Open[1] arasındaki farkın değerine kadar neredeyse mükemmel bir çizgi görüyoruz:



Şimdi b grafiğine bakalım:



Fark, yüzünde dedikleri gibi! İkinci durumda, fonksiyonumuzun değerleri oldukça belirli sınırlar içinde 0 civarında "zıplar".

Herhangi bir sinir ağı, nöron aktivasyon fonksiyonu ve ağırlık limitleri tarafından belirlenen giriş hassasiyet limitlerine sahiptir. Öğrenme fonksiyonunun kanunları çerçevesinde ve duyarlılığı dahilinde ağdan öğrenmediğini talep edemezsiniz. Bu, sinir ağının eğitim örneğinde olmasalar bile, ancak aynı zamanda girdiye verilen değerler eğitim fonksiyonunun etki alanına aitse ve yalan söylüyorsa, yalnızca girdi verilerinden doğru bir şekilde hesaplayabileceği anlamına gelir. ağın hassasiyeti dahilinde. Bunlar, herhangi bir NN'nin doğru çalıştığı iki gerekli koşuldur.

Figar0 >> :
İki). Deneyimli veya kendi kendini tanımlayan sinir ağı uzmanlarının görüşlerini duymak istiyorum, uygulamalı fiyat VR tahmini sorunumuzdaki girişler fiyattan ne kadar uzakta olmalı? Deneyimlerim, fiyatın "N. mertebesinin türevleri" olan her türlü göstergenin kullanılmasının en iyi ihtimalle hiçbir şey vermediğini gösteriyor. Fiyat, maksimum yumuşatma, uç noktalar, Millet Meclisi için afyondan başka her şey.. Sizce de öyle değil mi?

Hesaplama ilkelerinde kendi aralarında temel farklılıklar bulunan fiyat türevi göstergeler kullanılabilir ve kullanılmalıdır. Tek tek komşu çubuklar kendi başlarına herhangi bir yararlı bilgi taşımazlar. Yararlı bilgiler, yalnızca çubukların "gruplarının" veya başka bir deyişle "pencerelerin" etkileşimini hesaba katarsak çıkarılabilir.

 
joo писал(а) >>

İlk bakışta, a) ve b) durumlarında ağın girişine sağlanan bilgiler gerçekten de totolojiktir.

İşte grafiğin bir ekran görüntüsü a),

Bir şey bana formül a) grafiksel olarak doğru şekilde yorumlamadığınızı söylüyor.

Grafiğiniz şuna benzer (seçenek):

f[0] = Aç[0]-Aç[1] Görüyorum.

f[1] = Aç[0]-Aç[2] geleceğe bakmak?

Veya Open[0]'ı mevcut değerle değiştiririz, yani.

f[1] = Aç[1]-Aç[2] formül b)

Ya da ahem

f[1] = Open[1]-Open[3] Ancak bu bağlamdan çıkmaz

Anladığım kadarıyla (en azından girişlerle bu tür "deneyler" ile kastettiğim buydu), tüm bunlar "nokta 0" da bir N-1 basamak dizisidir, yani. f[0][N-1]

f[1][N-1] noktasında Açık[1]-Açık[2], Açık[1]-Açık[3] olacak, ...

Onlar. n-1 boyutlu bir düzlem çizmeniz gerekiyor.

Sonuçların farklı olması doğaldır. Ancak hangi girdilerin "daha doğru" olduğuna (aynı çıktılar için) kendisi henüz karar vermedi.

not. Uzun süre ve "kara kutularda" arandı.

 
SergNF >> :

Bir şey bana formül a) grafiksel olarak doğru şekilde yorumlamadığınızı söylüyor.

Ve boşuna bu "Bir Şey"e danışıyorsunuz.

Bir gösterge yapın ve görün.

SergNF >> :

Sonuçların farklı olması doğaldır. Ancak hangi girdilerin "daha doğru" olduğuna (aynı çıktılar için) kendisi henüz karar vermedi.

not. Uzun süre ve "kara kutularda" arandı.

Sonuçlar ne anlama geliyor? Ne girdiler, ne çıktılar! Ve bunlardan hangisi "doğru", yukarıdaki gönderiyi açıkladı.

 
joo писал(а) >>

Ve boşuna bu "Bir Şey"e danışıyorsunuz.

Belki sen haklısın :)

Bir gösterge yapın ve görün.

Giriş vektörünün en üstteki "grafiği" !!!!! DBuffer[i]=Kapat[i]-Kapat[i+DPerod];

Giriş vektörünün alt "grafiği" !!!!! DBuffer[i]=Kapat[i+DPeriyod]-Kapat[i+DPeriyod+1];


Ardından, orijinal gönderinin dilsel bir analizi olacak ve ... tekrar TOR'daki ifadelerin doğruluğu sorusuna gelecek. ;)

 
SergNF >> :

Belki sen haklısın :)

Giriş vektörünün en üstteki "grafiği" !!!!! DBuffer[i]=Kapat[i]-Kapat[i+DPerod];

Giriş vektörünün alt "grafiği" !!!!! DBuffer[i]=Kapat[i+DPeriyod]-Kapat[i+DPeriyod+1];


Ardından, orijinal gönderinin dilsel bir analizi olacak ve ... tekrar TOR'daki ifadelerin doğruluğu sorusuna gelecek. ;)

Evet, iki kişi soruyu farklı yorumladığı için soruyu soran kişinin iyi bir TK almadığı anlamına gelir. :)

Ne dediğini görmek için Figar0'ı beklememiz gerekecek.

 
StatBars писал(а) >>

Girdilerin ne olması gerektiği çıktıya (görev), göreve (çıktı) nasıl ortaya çıktığınıza (kabaca konuşursak) bağlıdır.

Çıkış yolları nelerdir? Düşüşler olmadan öz sermayede düzgün bir artış elde etmeyi umduğumuz sinyaller üzerinde çalışıyor) Her ne kadar Ulusal Meclis'in görevi gerçekten farklı şekillerde belirlenebilse de....

joo yazdı >>

Evet, iki kişi soruyu farklı yorumladığı için soruyu soran kişinin iyi bir TK almadığı anlamına gelir. :)

Ne dediğini görmek için Figar0'ı beklememiz gerekecek.

Dürüst olmak gerekirse, bu tür tutarsızlıkların ortaya çıkabileceğini düşünmedim ... Küçük küçük dünyalarımızda NS demleme maliyeti. SergNF , "TK" yi doğru anladı) Bir sorgudan başka bir sorgu alabileceğiniz ve aynı zamanda çıktıda farklı sonuçlar alabileceğiniz iki giriş vektörü. Ve görünüşe göre neden farklı olduklarını anlamaya başlıyorum, yarın birkaç deney yapacağım ve bu anlayışı harflere dökmeye çalışacağım...

 
Figar0 >> :

Çıkış yolları nelerdir? Düşüşler olmadan öz sermayede düzgün bir artış elde etmeyi umduğumuz sinyaller üzerinde çalışıyor) Her ne kadar Ulusal Meclis'in görevi gerçekten farklı şekillerde belirlenebilse de....

Düzgün bir büyüme elde etmeyi umduğumuz sinyaller, görev türlerinden biridir ve birçok yapım ilkesi olabilir, ancak çoğu yine de çok benzer olacaktır (en azından korelasyon açısından). Ve çıkış yolu bu bağlamda kastedilmiştir.

Bu konuda kendin ne düşünüyorsun?

Tecrübeleri boş yere paylaşmadığımıza katılıyorum, her halükarda, bir yandan birçok şey daha kolay olurdu ve proje ve gelişmelerle ilgili önemli bilgiler yine gizli kalacaktı, yani. Örneğin, başkalarının hayatını kolaylaştıracak ama aynı zamanda hiçbir şekilde sırlarımı açığa çıkarmayacak paylaşacak bir şeyim var :)

 
Figar0 писал(а) >>

Ve görünüşe göre neden farklı olduklarını anlamaya başlıyorum, yarın birkaç deney yapacağım ve bu anlayışı harflere dökmeye çalışacağım...

Belli bir anlayış var gibi görünüyor, sonuç:

- a) ve b) girdileri aynıdır, ancak öğrenme mekanizmasının kusurlu olması ve veri dönüştürme sırasındaki hesaplama hataları nedeniyle farklı sonuçlar. Onlar. girdiler için bir şeyin artışlarını kullanırsanız: göstergeler, fiyatlar, farkı sıfır raporuyla veya yine de komşu noktalardan alın. Bunu yalnızca deneysel olarak kavramak, NN'yi sınıra kadar basitleştirmek ve kapsamlı ağırlık sayımı ile öğrenmeyi mümkün kılmak. Sonuçlar yüzdeye uyuyor...

Bu sonucu sindirdikten sonra kendimi GA çalışmasına verdim.

statbars yazdı >>

Tecrübeleri boş yere paylaşmadığımıza katılıyorum, her halükarda, bir yandan birçok şey daha kolay olurdu ve proje ve gelişmelerle ilgili önemli bilgiler yine gizli kalacaktı, yani. Örneğin, başkalarının hayatını kolaylaştıracak ama aynı zamanda hiçbir şekilde sırlarımı açığa çıkarmayacak paylaşacak bir şeyim var :)

Kesinlikle, boşuna ... En azından bazen saatleri karşılaştırmak güzel olurdu)

Kendimden başlayacağım. Şu anda ağları yalnızca MQL'de hazırlıyorum ve bunları yalnızca terminalin test / optimize edicisinde eğitiyorum. Ancak Statistic'e girdilerin bazı bileşenlerini inceliyorum. Bu yaklaşımın hem dezavantajları hem de bazı avantajları vardır. En önemli artı, doğrudan uygulama ortamında ağ eğitimidir ve bunu nihai hedef olan kâr için öğretebilirsiniz. Bir mimari olarak, az sayıda katman içeren MLP'ye deneysel olarak yerleştim: gelen, giden ve bir veya iki gizli. Yeterliden fazla IMHO tahmincisi. Şimdi MLP'ye nasıl geri bildirim ekleyeceğimi düşünüyorum. Kullanılan girdi sayısı ~ 50 ila 200 arasındadır, daha fazlası mimariyi ve eğitimi karmaşıklaştıracak ve bana gereksiz olacak gibi görünüyor.

Belki tarif ettiğimden bir şey garip, belki değil, bir şey şaşırmamak için, kendi kendini yetiştirmiş bir sinir ağı uzmanıyım, ayrıca Moskova'mı aşırı tozlu literatürden kıskançlıkla koruyorum)

 

MQL'yi veri ön işleme için, gerekli formata yüklemek, ağ sonuçlarını analiz etmek için kullanıyorum. Ağları yalnızca NS2'de eğitiyorum. Doğal olarak, MKL ve C ++'da ağlar var, ancak NS2 ile daha iyi ...

Izgaralar genellikle normal 3 katmandan (MLP) daha fazla değildir, daha fazlası gerekli değildir.

Bu arada, girdiler pahasına maksimum 128 idi, bazı deneylerle 20-30'dan fazla girdinin zaten güçlü bir fazlalık olduğunu ve büyük olasılıkla önemsiz olanların çıkarılmasının öğrenme kriterini büyük ölçüde iyileştireceğini öğrendim. 40'tan az girdi varsa, başka bir soru tartışmalı olabilir, ancak 40'tan fazla girdi %100 fazlalıktır.

Öğrenme kriteri NS2 - hızında standarttır.

Ağa uymamak için bir test örneği kullandığınızdan emin olun. Ayrıca, numunenin bölünmesi sıralıdır - örneğin ilk kısmı 2005.01.01 - 2006.01.01 tarihleri arasında geçerlidir - eğitim numunesi, test - 2006.01.01 - 2006.04.01. Birçoğu, bu öğrenme yönteminin ağın yeniden eğitilmesini ortadan kaldırdığından şüphe duyabilir, ancak yeniden eğitimi ortadan kaldıran şeyin bu olduğundan %100 eminim, eğer sizi kurtarmazsa, o zaman sorun farklıdır, yani. Örnek dağılımını değiştirmenizi, daha doğrusu bu şekilde eğitim almanızı şiddetle tavsiye etmiyorum (2 örnekle). Sizin için neyin daha önemli olduğuna kendiniz karar verin?: Böylece ağ ilk başta istikrarlı olur, ancak daha da karlı hale gelmesi için onu rafine etmek gerekir :) VEYA Ağ karlı, ancak kârsız hale geldiğinde xs, yani önce kârı göreceğiz, sonra işin istikrarıyla ilgileneceğiz. Burada, işin istikrarı, eşitlikte düzgün bir artış demek istemedim, ancak ağın farklı ileri testlerde farklı sonuçlar göstermesi (depoyu birleştirir ve bunun tersi de artar).

Şahsen benim için ilki daha önemli, kendimi bu yönde geliştiriyorum. Şimdi belirli sonuçlara ulaştım, örneğin: (Forumda zaten söyledim ama tekrar ediyorum) bir "genel örnek" var, ağı genin yaklaşık %20-30'u kadar eğitiyorum. örneklem, eğitim sonrası ağ her yerde, tüm örneklemde aynı şekilde çalışır ve "genel örnek"in tarihleri 2003'ten şimdiki zamana kadardır .

Şebekenin karlılığı da zaten çözüme çok yaklaştı. Ağ, örneklerin %84'ünü tanır ve %87'si istikrarlı-pürüzsüz büyümenin minimum eşiğidir.

Eşitlik. Ve bu sorunu çözmeye yeni başladığımda, tanınma %70 seviyesindeydi.