Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 23

 
İlgi NN'de değil - gerçekten aynı, sadece, aktivasyon işlevi farklı veya başka bir şey olabilir ... (ne yazık ki JOONE'un kontrol için arabası olduğu ortaya çıktı - hepsinden çok var bu planın çip çeşitleri...) Giriş sinyali olarak ilgi, öğrenme süreci ve çıktısı nedir
 
Neutron писал(а) >>

Pekala, hadi, bir fikir verin - tartışacağız!

Girişe koymayı vaat eden şey. - Maşa mı?

Ah, ama giriş için başvurmadım... :) Tamam, hikayenin tamamını anlatacağım.

Genetiği sevdiğimi zaten söyledim, çünkü ORO için hangi ağ davranışının optimal olması gerektiği sorusu çok açık bir soru.

Her yeni çubukta ağa sorması ve buna göre yanıt vermesi gerekiyordu. Şey, bir şeyler yazdım, çeşitli ortalamalar, stokastikler veya Tanrı'nın girdiye gönderdiği her şeyi aldım, başlattım. Bakıyorum - ızgara harikalar yaratıyor. Kâseyi çizer (tabii ki hemen değil ama kâseden önce çalışır)...

Hata, 0 kaymasıyla birkaç göstergenin kullanılabilmesiydi - çizim yapmak için tüm çubuğa ihtiyaçları var. Aslında, henüz var olmayan bir çubuktan şebekeye veri besledim ve geleceğe bu şekilde baktım.

O zamandan beri, girdi verileriyle uğraşıyorum. Ama eğitimin işe yaradığını kendim öğrendim :)

 
YDzh писал(а) >>
Sonuçta, ilgi NN'de değil - gerçekten aynıdır, sadece, belki aktivasyon işlevi farklıdır veya başka bir şeydir ... Ayrıca, hiçbir şey aktivasyon işlevine (özel türüne), öğrenme yöntemi (doğru yapılırsa) fark etmez!

Her şey ne tahmin edeceğinize bağlı. Bu tuz ve anlamdır.

VR'nin bir biçimde yumuşatılmasına (örneğin MACD) dayalı hindi konusuna dokunmanın bir anlamı yoktur - bu durumda FD'nin, kalıcılık önleyici özelliklere sahip VR tahmininde aşılmaz bir engel olduğu kesinlikle gösterilebilir. birinci fark serisi (fiyat serileri tam olarak böyledir).

Millet Meclisi'ne ders verirken "geleceğe bakın" ile ilgili olarak, hepimiz bunu yaşadık ...

 
Neutron писал(а) >>

Her şey ne tahmin edeceğinize bağlı. Bu tuz ve anlamdır.

VR'nin bir biçimde yumuşatılmasına (örneğin MACD) dayalı hindi konusuna dokunmanın bir anlamı yoktur - bu durumda FD'nin, kalıcılık önleyici özelliklere sahip VR tahmininde aşılmaz bir engel olduğu kesinlikle gösterilebilir. birinci fark serisi (fiyat serileri tam olarak böyledir).

Ulusal Meclis'e öğretirken hepimizin başından geçen "geleceğe bakın" hakkında ...

Peki, bu nasıl görüneceği. Çubuk zaten ortalama bir değerdir. Minimum çubuk bir dakikadır; bu, mevcut dakikadan önceki her şeyin bir dereceye kadar ortalamasının alındığı anlamına gelir.

 
Neutron писал(а) >>

Her şey ne tahmin edeceğinize bağlı. Bu tuz ve anlamdır.

VR'nin bir biçimde yumuşatılmasına (örneğin MACD) dayalı hindi konusuna dokunmanın bir anlamı yoktur - bu durumda FD'nin, kalıcılık önleyici özelliklere sahip VR tahmininde aşılmaz bir engel olduğu kesinlikle gösterilebilir. birinci fark serisi (fiyat serileri tam olarak böyledir).

Ulusal Meclis'e öğretirken hepimizin başından geçen "geleceğe bakın" hakkında ...

Eğer öyleyse, göstergelere hiç dokunmanın bir anlamı yok. Hepsi bir biçimde veya başka bir şekilde veri toplama üzerine kuruludur. Zaman, hacim ve fiyatlar dışında birincil veri yoktur. O zaman kene seviyesine inmeniz gerekiyor ... ama "çok fazla gürültü" var. paradoks...

 
YDzh писал(а) >>

Eğer öyleyse, göstergelere hiç dokunmanın bir anlamı yok. Hepsi bir biçimde veya başka bir şekilde veri toplama üzerine kuruludur. Zaman, hacim ve fiyatlar dışında birincil veri yoktur. O zaman kene seviyesine inmeniz gerekiyor ... ama "çok fazla gürültü" var. paradoks...

Gerçek bu! Ama telaşa gerek yok - çorba ayrı.

Bara gelince, sadece açık fiyatları kullanıyorum - ortalama yok. Ve planlarda, bilge Halt yuvarlandıkça yapacağım - tiklere geçeceğim. Burada gerçek, bilgi kaydetme ve toplama moduyla uğraşmak zorunda kalacak. Ama buna değerse, neden olmasın?

 

Yani, her şey ağırlıkların düzeltilmesine bağlı gibi görünüyor!


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

Her ihtimale karşı kodları gönderiyorum:

NeuroNet_1, ağ eğitimi için boş bir EA'dır

NeroLite_ma - iki katmanlı algılayıcı, aslında... N katmanına kolayca genişletilebilir - :)

Dosyalar:
 
Neutron писал(а) >>

Gerçek bu! Ama yaygaraya gerek yok - çorba ayrı.

Bara gelince, sadece açık fiyatları kullanıyorum - ortalama yok. Ve planlarda, bilge Halt yuvarlandıkça yapacağım - tiklere geçeceğim. Burada gerçek, bilgi kaydetme ve toplama moduyla uğraşmak zorunda kalacak. Ama buna değerse, neden olmasın?

Evet, telaşlanmıyorum :) Kenelerin faydası literatürde de biliniyor... Kaos teorisi kokuyordu... Değer mi konusuna gelince... Değer mi? Peki Prival bunu nerede tavsiye ediyor?

Ve ne, açılış fiyatındaki sonuçlar nelerdir? Doğaçlama araçlarla hiçbir ilgisi olmadan bir şekilde regresyon analizi ile oynadım. Ve en yüksek ve en düşük fiyatların tahmin edilmesinin açılış fiyatlarından daha kolay olduğu ortaya çıktı... Daha yakından incelendiğinde, o kadar da garip değil...

 
YDzh >> :

Peki Prival bunu nerede tavsiye ediyor?

... her yerde! Dinlenmek akıllıca!

Neden: