Marktknigge oder gute Manieren im Minenfeld - Seite 23

 
Das Interesse gilt nicht dem NS als solchem - es ist wirklich dasselbe, nur vielleicht ist die Aktivierungsfunktion anders oder so... (Schade, dass sich JOONE beim Testen als fehlerhaft herausstellte - es ist voll von allen möglichen Funktionen...) Interesse an der Qualität des Eingangssignals, des Lernprozesses und des Ausgangs
 
Neutron писал(а) >>

Komm schon, gib uns eine Idee - wir werden sie diskutieren!

Was ist vielversprechend, wenn man es da reinpackt. - Maskottchen?

Oh, ich habe bereits alles, was ich habe, in die Eingabe gesteckt... :) Also gut, ich werde Ihnen die ganze Geschichte erzählen.

Ich habe schon einmal gesagt, dass ich die Genetik mag, weil die Frage, welches Netzverhalten optimal sein soll - für ORO - sehr offen ist.

Ich sollte bei jedem neuen Takt das Netz befragen und entsprechend reagieren. Also schrieb ich etwas und sammelte verschiedene Durchschnitte, Stochastiken oder was auch immer Gott mir als Input schickte und begann damit. Und jetzt sehe ich, dass das Gitter Wunder wirkt. Es zieht Grale (natürlich nicht sofort, aber es lernt vor dem Gral)...

Der Fehler war, dass nicht viele Blinker mit 0-Shifter verwendet werden können - sie brauchen die ganze Leiste zum Zeichnen. Ich fütterte das Raster mit Daten aus der Leiste, die es noch nicht gab, und blickte somit in die Zukunft.

Seitdem habe ich mit den Eingabedaten zu kämpfen. Aber ich habe für mich selbst herausgefunden, dass Lernen funktioniert :)

 
YDzh писал(а) >>
Das Interesse gilt nicht dem NS als solchem - es ist wirklich dasselbe, nur vielleicht ist die Aktivierungsfunktion anders oder etwas anderes. Außerdem hängt nichts von der Aktivierungsfunktion (ihrem spezifischen Typ) ab, nichts von der Lernmethode (wenn sie korrekt durchgeführt wird)!

Es hängt alles davon ab, was Sie vorhersagen wollen. Das ist der Sinn und Zweck der Sache.

Es hat keinen Sinn, über Indukes zu diskutieren, die auf BP-Glättung in der einen oder anderen Form basieren (z. B. MACD) - wir können genau zeigen, dass BP in diesem Fall ein unüberwindliches Hindernis für BP-Vorhersagen mit Antipersistenzeigenschaften in den Reihen der ersten Differenz ist (Preisreihen sind genau solche).

Was den "Blick in die Zukunft" im NS-Unterricht betrifft, so haben wir alle diese Erfahrung gemacht...

 
Neutron писал(а) >>

Es hängt alles davon ab, was Sie vorhersagen wollen. Das ist der Sinn und Zweck der Sache.

Es hat keinen Sinn, über Indukes zu diskutieren , die auf BP-Glättung in der einen oder anderen Form basieren (z. B. MACD) - wir können genau zeigen, dass BP in diesem Fall ein unüberwindbares Hindernis für BP-Vorhersagen mit Antipersistenzeigenschaften in den Reihen der ersten Differenz ist (Preisreihen sind genau solche).

Was den "Blick in die Zukunft" in der NS-Ausbildung betrifft, so haben wir das alle durchgemacht...

Nun, das hängt davon ab, wie man es betrachtet. Der Balken ist ein Durchschnittswert. Der Minimalbalken ist eine Minute, das heißt, dass alles, was vor der aktuellen Minute liegt, bereits zu einem gewissen Grad gemittelt wurde.

 
Neutron писал(а) >>

Es hängt alles davon ab, was Sie vorhersagen wollen. Das ist der Sinn und Zweck der Sache.

Es hat keinen Sinn, über Indukes zu diskutieren, die auf BP-Glättung in der einen oder anderen Form basieren (z. B. MACD) - wir können genau zeigen, dass BP in diesem Fall ein unüberwindbares Hindernis für BP-Vorhersagen mit Antipersistenzeigenschaften in den Reihen der ersten Differenz ist (Preisreihen sind genau solche).

Was den "Blick in die Zukunft" in der NS-Ausbildung betrifft, so haben wir alle diese Erfahrung gemacht...

Nun, wenn das so ist, dann gibt es überhaupt keinen Grund, Indikatoren zu berühren. Sie alle beruhen auf der Aggregation von Daten in der einen oder anderen Form. Außer Zeit, Volumen und Preisen gibt es keine Primärdaten. Dann müssen Sie auf die Tick-Ebene heruntergehen... Aber es gibt dort "eine Menge Lärm". Paradox...

 
YDzh писал(а) >>

Wenn das so ist, hat es keinen Sinn, die Indikatoren überhaupt zu berühren. Sie alle beruhen auf der Aggregation von Daten in der einen oder anderen Form. Abgesehen von Zeit, Volumen und Preis gibt es keine Primärdaten. Dann müssen Sie auf die Tick-Ebene heruntergehen... Aber es gibt dort "eine Menge Lärm". Paradox...

Es ist wahr! Aber es gibt kein Getue - die Suppe ist separat.

Was den Balken betrifft, so verwende ich nur die Eröffnungskurse - keine Mittelwertbildung. Mein Plan ist es, nur Zecken zu verwenden, wie der weise Prival sagt. Allerdings werde ich mich mit dem Speichermodus und der Datenerfassung herumschlagen müssen. Aber wenn es das wert ist, warum nicht?

 

OK, ich denke, das war's, bis die Gewichte korrigiert sind!


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

Ich poste die Codes nur für den Fall:

NeuroNet_1 ist ein leeres Gitter, das EA trainiert

NeroLite_ma ist ein zweischichtiges Perzeptron. leicht erweiterbar auf eine N-Schicht -:)

Dateien:
 
Neutron писал(а) >>

Das ist die Wahrheit! Machen Sie nur kein Aufhebens - die Suppe ist separat.

Was den Balken betrifft, so verwende ich nur die Eröffnungskurse - keine Mittelwertbildung. Und ich werde tun, was der weise Prival tun wird - ich werde auf Zecken umsteigen. Allerdings werde ich mich mit dem Speichermodus und der Datenerfassung herumschlagen müssen. Aber wenn es das wert ist, warum nicht?

Ich mache kein Aufhebens :) Die Nützlichkeit von Tics wird in der Literatur anerkannt... Es riecht nach Chaostheorie. Darüber, ob es sich lohnt... Ist es das wert? Und was rät Prival dazu?

Und wie sieht es mit dem Eröffnungskurs aus? Ich habe grundlos mit der Regressionsanalyse herumgespielt. Und es stellte sich heraus, dass Höchst- und Tiefstkurse viel leichter vorherzusagen sind als der Eröffnungskurs... Das ist gar nicht so seltsam...

 
YDzh >> :

Und wo rät Prival dazu?

... >> überall! Die Toilette ist klug!

Grund der Beschwerde: