Neuromongers, nicht vorbeigehen :) brauchen Rat - Seite 9

 
Figar0:

Hier wird Punkt für Punkt diskutiert:

Danke Sergey, du hast den Punkt getroffen.

2) Vorverarbeitung der Eingaben (die Frage scheint recht einfach und recht offen zu sein, wir können darüber diskutieren, wenn wir wissen, was in diesem Fall gemacht wird und wie es gemacht wird)

Nichts Außergewöhnliches. Es gibt mehrere Ebenen, die jeweils separat mit dem Hodrick-Prescott-Filter verarbeitet werden, ohne dass es zu Peeks kommt.

3) Mathematik der NS.

Eine Reihe von Experimenten hat gezeigt, dass die Netzparameter innerhalb bestimmter Grenzen einen vernachlässigbaren Einfluss auf die Ergebnisse haben. Zu wenig führt zu Übertraining, zu viel führt zu Übersättigung.

Zum Thema Echonetzwerke bin ich bereit zu plaudern. Ich werde den Code noch nicht veröffentlichen, ich habe noch etwas vor.

4) "Organisatorische" Fragen des NS-Betriebs.

Wie/wann man trainiert/umschult

Übrigens, ich habe nicht versucht, die

, Zeiträume/Intervalle

Er hat auch keine ernsthaften Nachforschungen angestellt. Ich denke, es wird einen Effekt geben, vielleicht sogar unterschiedliche Zeiträume je nach Werkzeug.

die Logik der Arbeit des Expert Advisor-Interpreters der Netzausgabe

Ich habe auch keine ernsthaften Untersuchungen angestellt, aber nach dem, was ich geändert habe, glaube ich nicht, dass es irgendeinen signifikanten Effekt geben wird, obwohl... wird noch einmal überprüft werden müssen.

, MM.

Ich sehe überhaupt keinen Sinn darin, sie hinzuzufügen. Die potenzielle Rentabilität lässt sich mit FS leicht abschätzen.

- Warum "Echo"? Sie waren bereits dort, erzählen Sie uns von den Vor- und Nachteilen.

Zum einen gibt es weniger Spielraum bei den Netzparametern. Sie brauchen nicht zu denken, dass, wenn beispielsweise die verborgene Schicht kleiner ist als die Eingabeschicht, dies bereits eine Datenkomprimierung ist und das Netz mit hoher Wahrscheinlichkeit nicht funktionieren wird usw. Sie müssen nicht auf eine Reihe von Kleinigkeiten achten, die der Rest des Netzes hat.

Kurz gesagt, jetzt arbeite ich mit Netzwerken - ich werfe einfach Neuronen, Verbindungen (bestimmte Anzahl, bestimmte Typen).

Passen Sie es an. Ich benutze es. Es ist mir eigentlich egal, was darin passiert, also bekomme ich im Grunde eine praktische Blackbox.

Praktisch jedes Problem, das von MLP gelöst wird, wird auch vom Echonetz gelöst.


Zweitens erhalte ich immer die optimale Lösung auf der Grundlage der Topologie und des Eingangs-/Ausgangsverhältnisses

Drittens: Die Anpassungszeit (ich vermeide absichtlich das Wort "Lernen") des Netzes wird mit großer Genauigkeit vorhergesagt, weil MLP dafür verwendet wird, es keine Konvergenz gibt usw.


Bisher habe ich nur einen Nachteil gesehen - die Einschränkung durch die Fitnessfunktion. D.h. theoretisch kann ich nur die Lösung mit dem kleinsten RMS-Fehler der FF und dergleichen verwenden. Natürlich kann dies durch genetisches Lernen umgangen werden, aber dann geht die ganze Schönheit des Echonetzes verloren.

Obwohl nein, es gibt eine andere, ich bin mir nicht sicher, aber meiner Meinung nach (ich kann mich irren) steigt die Trainingszeit kubisch an (nicht so sehr das Training, sondern die Bildung der Ableitungsmatrix), so dass das Training eines Netzes mit, sagen wir, 1000 Neuronen erhebliche Zeit in Anspruch nimmt.


Wie haben Sie ihn überhaupt ausgegraben?

Dank des gleichen Forums :) von meinem Freund gpwr, für den ich ihm sehr danken möchte :)

Der 2. Typ von TC ist imho überhaupt nicht gut.

Imho ist es mit Typ 2 viel einfacher, mit den Ergebnissen zu arbeiten und sie zu analysieren. So war beispielsweise die TZ des zur Diskussion stehenden Projekts ursprünglich vollständig für den Typ 2 geeignet.

a) Sind Sie wirklich sicher, dass die Ein- und Ausgänge nicht verbessert werden können?

Nein, natürlich nicht.

b) Vorverarbeitung: Wie sieht es aus? Haben Sie zum Beispiel die Verteilung der Eingabewerte analysiert?

Die Normalisierung ist in irgendeiner Form vorhanden, aber es gibt keine ernsthafte Analyse der Datenverteilung.

 
renegate:

Haben Sie für die Indulatoren, die Sie in den Netzeingang einspeisen, eine Entgasung durchgeführt (wie in den Artikeln beschrieben)?

Ich habe es mir angeschaut - interessant. Vielleicht können Sie Ihre Erfahrungen mit ihnen teilen? Was sind die Ergebnisse, Verbesserungen, Besonderheiten, Fallstricke?

Sie könnten auch versuchen, die Induktoren lehrenfrei zu machen.

Ähm, ich habe da so meine Zweifel, würde aber gerne noch eine kurze Charakterisierung hören.
 

Stellen wir den analysierten Datenbereich (Muster) konventionell mit einem blauen Rechteck und den vorhergesagten Datenbereich mit einem roten Rechteck dar. In der derzeitigen Implementierung hängt die vertikale Größe des roten Bereichs durch einen Skalierungsfaktor von der Größe des blauen Bereichs ab (und sollte vom Dateninhalt des blauen Bereichs abhängen, nicht von der Größe des Bereichs). Hier sind zwei Beispiele, bei denen wir eine Diskrepanz feststellen:

и

Wir sehen, dass das rote Rechteck auf dem ersten Bildschirm kleiner und auf dem zweiten Bildschirm größer ist als das blaue.

Die Normalisierung des Signals bezieht sich auf die vertikale Größe.

Wir sollten also nicht nach der Stichprobengröße normalisieren, sondern nach der Größe der gesamten Ausbildungsstichprobe. Dies scheint die Vorhersagefähigkeit des Netzes zu verringern.

Es gibt eine Unannehmlichkeit, die damit verbunden ist (deshalb habe ich mich für diese Art der Rationierung entschieden), aber es scheint unumgänglich zu sein - wir sollten die Trainingsstichprobe noch einmal durchlaufen, um die maximalen und minimalen Werte zu erhalten.

Es ist klar, dass die Signalverteilung des Musters in der aktuellen Implementierung stark in den Bereich der Maximal- und Minimalwerte verschoben ist (was schlecht ist), da jedes Muster den Wert 1 und den Wert -1 hat.

Meiner Meinung nach sollten wir mit diesen Änderungen beginnen.

 
So haben Sie es mir nicht erklärt :) . Jetzt bin ich wohl einverstanden.
 
TheXpert:
So haben Sie es mir nicht erklärt :) . Ich schätze, ich bin jetzt einverstanden.

Nein, nicht andersherum. Ich sage euch, Worte sind schwer zu erklären, Bilder sind einfacher. Sowohl für den Sprecher als auch für den Zuhörer. ;)

PS Was den Bereich der Gewinnvorhersage betrifft, so bleibe ich dabei, dass ich daran arbeite.

 

Ich habe mit dem Preis experimentiert, indem ich den folgenden Algorithmus verwendet habe:

1) Erhalten Sie eine Reihe von ersten Differenzen (FDD) von Close

2) Berechnen Sie den gleitenden Durchschnitt des FFD-Moduls (ich habe einen Zeitraum von 25 Jahren gewählt)

3) Teilen Sie den FFD durch den gleitenden Durchschnitt

Wir erhalten die FFD, die stationärer ist. Sie können zu einer Pseudopreisreihe zurückkehren, indem Sie die kumulierte Summe verwenden.


Ich sehe, dass Sie die RRR nicht verwenden. Verwenden Sie die Trendentfernung für die Preisreihen? Oder normalisieren Sie die Preisreihen einfach auf einen bestimmten Bereich?

 

renegate:

Verwenden Sie die Trendlöschung für die Preisreihen?

Weitere Einzelheiten finden Sie auch hier.

Oder normalisieren Sie einfach die Preisspanne auf eine bestimmte Spanne?

Im Moment wird die Normalisierung innerhalb der Musterbeschreibung durchgeführt.

Ich werde nun eine Normalisierung über den gesamten Satz von Mustern vornehmen. Das sollte nicht allzu schwierig sein.

Ich möchte versuchen, die Entgasung anzubringen, aber das wird hier komplizierter sein. Ich werde darüber nachdenken.

 

Dazu ist es notwendig, das Axiom zu akzeptieren, dass sich die Preisreihe aus Trend-, Konjunktur- und Rauschkomponenten zusammensetzt.

Wir subtrahieren die Trendkomponente von den Preisreihen. Ich kann mir 3 Möglichkeiten vorstellen:

1) Führen Sie eine Hauptkomponentenanalyse (AGC oder PCA) durch und löschen Sie die erste Hauptkomponente.

2) Ziehen Sie von der Preisreihe eine Münze ab. Die Periode kann nach Augenmaß oder durch Optimierung oder Spektralanalyse ausgewählt werden.

3) Ermitteln Sie die lineare Regression der gesamten Preisreihe und ziehen Sie diese vom Preis ab.

Danach erhalten wir eine Reihe, die nur zyklische und Rauschkomponenten enthält. Es ist zweckmäßig, sie auf einen bestimmten Bereich zu normalisieren.

 
Das ist eigentlich die Hauptkomponente, nach der ich suche :)
 
renegate:

Ich habe mit dem Preis experimentiert, indem ich den folgenden Algorithmus verwendet habe:

1) Erhalten Sie eine Reihe von ersten Differenzen (FDR) von Close

Keine Fangfrage, warum dieser Schritt?
Grund der Beschwerde: