Diskussion zum Artikel "Tiefe Neuronale Netzwerke (Teil VI). Gruppen von Klassifikatoren von Neuronalen Netzen: Bagging" - Seite 3

 

Ich habe mir verschiedene elmNN-Videos angeschaut. Die Idee ist, dass das Modell nach und nach neue versteckte Neuronen hinzufügt, wobei ihre Gewichte mit speziellen Formeln berechnet werden. Ein Neuron mit einer versteckten Schicht kann eine Funktion beliebiger Komplexität beschreiben, so dass der Algorithmus viele Neuronen in der versteckten Schicht verwenden kann - er kann sie hinzufügen, bis er Fehler = 0 erreicht.

Um eine Überanpassung zu verhindern, sollte die maximale Anzahl der Neuronen reduziert werden.

 

Hier ist eine weitere Idee zur Erstellung eines Ensembles.

Ich habe festgestellt, dass die Modelle mit den besten Ergebnissen, die in einem Ensemble kombiniert werden, nicht die besten Ergebnisse liefern.
In einem Experiment habe ich Hunderte von Modellen erstellt und versucht, das beste Ensemble zu finden, indem ich ihre Kombinationen suchte. Das Ergebnis war, dass solche "besten" Ensembles oft ziemlich schwache Modelle enthielten, und Versuche, diese schwachen Modelle zu entfernen oder zu ersetzen, verschlechterten das Ergebnis nur.
Jetzt finde ich zum Beispiel zuerst das beste Modell, das das beste Ergebnis liefert. Dann suche ich nach dem zweiten Modell, das im Ensemble mit dem ersten ein noch besseres Ergebnis liefert, und das Ergebnis dieses zweiten Modells (ohne Ensemble) ist für mich nicht interessant. Dann füge ich ein drittes Modell hinzu, das im Ensemble mit den ersten beiden ein noch besseres Ergebnis liefert. Und so weiter. Das heißt, ich interessiere mich nicht für das Ergebnis eines Modells, wenn es für sich alleine steht, sondern dafür, wie sehr es das Ensemble verbessert. Das ist wie Bousting.

 
Dr. Trader:

Hier ist eine weitere Ensemble-Idee für Sie.

Ich habe festgestellt, dass die Modelle mit den besten Ergebnissen, die in einem Ensemble kombiniert werden, nicht die besten Ergebnisse liefern.
In einem Experiment habe ich Hunderte von Modellen erstellt und versucht, das beste Ensemble zu finden, indem ich ihre Kombinationen durchsucht habe. Das Ergebnis war, dass solche "besten" Ensembles oft ziemlich schwache Modelle enthielten, und Versuche, diese schwachen Modelle zu entfernen oder zu ersetzen, verschlechterten das Ergebnis nur.
Jetzt finde ich zum Beispiel zuerst das beste Modell, das das beste Ergebnis liefert. Dann suche ich nach dem zweiten Modell, das im Ensemble mit dem ersten ein noch besseres Ergebnis liefert, und das Ergebnis dieses zweiten Modells (ohne Ensemble) ist für mich nicht interessant. Dann füge ich ein drittes Modell hinzu, das im Ensemble mit den ersten beiden ein noch besseres Ergebnis liefert. Und so weiter. Das heißt, ich interessiere mich nicht für das Ergebnis eines Modells, wenn es für sich allein steht, sondern dafür, wie sehr es das Ensemble verbessert. Das ist wie Bousting.

Das ist eine interessante Option. Was glauben Sie, ist das Ergebnis in einem solchen Ensemble wie ein Durchschnitt?
Ich dachte, Sie hätten geschrieben, dass Sie eine Regression durchführen - nur ein Durchschnitt reicht aus, Voting ist ausgeschlossen.
 

Ich habe einen Durchschnittswert, ja.

 
Ich frage mich, wie die voraussichtliche Punktzahl für den Stürmer lautet?
 
Виктор:
Ich frage mich, wie das Ergebnis der Vorhersage ist?

Wo liegt das Problem?

Es gibt Anführungszeichen, Skripte. Wiederholen Sie die Berechnungen, indem Sie den Anfang des Satzes um 500-1000 Balken verschieben, und Sie erhalten das Ergebnis, an dem Sie interessiert sind.

Meinen Berechnungen zufolge liefern nach dem Training des Ensembles mit optimalen Parametern mindestens die nächsten 750 Balken eine gute Klassifizierungsqualität. Zum Vergleich: 500 Takte von M15 entsprechen einer Woche. Ein erneutes Training/eine erneute Optimierung dauert etwa 20-30 Minuten (je nach Hardware und R-Version).

Ein Beispiel für einen solchen Test finden Sie im vorherigen Artikel.

Viel Erfolg!

 
Vladimir Perervenko:

Wo liegt das Problem?

Es gibt Anführungszeichen, Skripte. Wiederholen Sie die Berechnungen, indem Sie den Beginn des Satzes um 500-1000 Takte verschieben und das Ergebnis erhalten, das Sie interessiert.

Meinen Berechnungen zufolge liefern nach dem Training des Ensembles mit optimalen Parametern mindestens die nächsten 750 Balken eine gute Klassifizierungsqualität. Zum Vergleich: 500 Takte von M15 entsprechen einer Woche. Ein erneutes Training/eine erneute Optimierung dauert etwa 20-30 Minuten (je nach Hardware und R-Version).

Ein Beispiel für einen solchen Test finden Sie im vorherigen Artikel.

Viel Glück

Sie haben ZigZag-Inkremente als Ihren Lehrer. Eine Funktion mit vielen monotonen Bereichen. Dies sind keine Gewinnschritte. Aus diesem Grund geben 70 % der richtig erratenen Richtungen keinen Aufschluss über die Rentabilität, und Sie müssen anhand von Kursen testen.
 
Виктор:
Sie haben ZigZag-Inkremente als Lehrer. Eine Funktion mit vielen monotonen Bereichen. Das sind keine Gewinninkremente. Deshalb geben 70 % der richtig erratenen Richtungen keinen Aufschluss über die Rentabilität und Sie müssen anhand von Kursen testen.

Das ist richtig. И ?

 
In Anbetracht der Marktgegebenheiten (Spreads, Provisionen, Requotes...) sollte die Genauigkeit einer Klassifizierung mit ZigZag als Ziel normalerweise deutlich über 80 % liegen.
 
Belford:
Unter Berücksichtigung der Marktgegebenheiten (Spreads, Provisionen, Requotes...) sollte die Genauigkeit der Klassifizierung mit ZigZag als Ziel normalerweise viel höher als 80 % sein.

Wie haben Sie diese Zahl ermittelt/berechnet? Wenn es kein Geheimnis ist, versteht sich.