Diskussion zum Artikel "Die Anwendung der Monte Carlo Methode beim Reinforcement-Learning" - Seite 3
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Schauen Sie sich Vladimirs frühere Artikel an (2. oder 3.), wo in einem der R-Pakete mit Hilfe von Scaffolding ermittelt wurde. Die Berechnung dauerte sehr lange (um ein Vielfaches länger als das Training des Haupt-NS). Ob es sich dabei um ein komplettes Overfitting oder um eine Art Genetik handelte, sollten Sie in der Paketdokumentation nachsehen.
Höchstwahrscheinlich wurde es auf irgendeine Weise optimiert.
Vielen Dank für die Information. In diesem Artikel geht es jedoch um die unabhängige Bewertung von Prädiktoren, und es ist die Gruppenmethode, die von Interesse ist.
Vielen Dank für die Information. Allerdings geht es in diesem Artikel um die unabhängige Schätzung von Prädiktoren, und es ist die Gruppenmethode, die von Interesse ist.
Hier geht es um die Interaktion von Eingangsvariablen https://www.mql5.com/de/articles/2029
Ja, danke, aber hier steht etwas über Gruppeninteraktion:
Wrapper. Wrapper-Methoden schätzen verschiedene Modelle mit Hilfe von Verfahren, die Prädiktoren hinzufügen und/oder entfernen, um die beste Kombination zu finden, die die Modelleffizienz optimiert. Im Wesentlichen handelt es sich bei Wrapper-Methoden um Suchalgorithmen, die Prädiktoren als Eingaben behandeln und die Modelleffizienz als zu optimierende Ausgaben verwenden. Es gibt viele Möglichkeiten, Prädiktoren aufzuzählen (rekursives Löschen/Hinzufügen, genetische Algorithmen, simuliertes Annealing und viele andere).
Beide Ansätze haben ihre Vor- und Nachteile. Filtermethoden sind in der Regel rechnerisch effizienter als Wrapper-Methoden, aber die Auswahlkriterien stehen nicht in direktem Zusammenhang mit der Modellleistung. Ein Nachteil der Wrapper-Methode besteht darin, dass die Schätzung mehrerer Modelle (die möglicherweise eine Abstimmung von Hyperparametern erfordert) zu einem drastischen Anstieg der Rechenzeit führt und in der Regel eine Überanpassung des Modells zur Folge hat.
In der vorliegenden Arbeit werden wir uns nicht mit Wrapper-Methoden befassen, sondern mit neuen Methoden und Ansätzen von Filtermethoden, die meiner Meinung nach die oben genannten Nachteile beseitigen.
In diesem Artikel werden wir uns nicht mit Wrapper-Methoden befassen, sondern mit neuen Methoden und Ansätzen von Filtermethoden, die meiner Meinung nach die oben genannten Nachteile beseitigen.
Betrachten Sie diese Arbeiten nur als Lehrbuch über neuronale Netze und R, es gibt kein einziges robustes System darin. Viele Ansätze können auch fehlinterpretiert oder verdreht werden, es ist besser, Primärquellen zu lesen. Ich habe bereits das Material eines Universitätsprofessors über das Misstrauen gegenüber der Bedeutung von Wäldern verworfen: https: //explained.ai/rf-importance/index.html.
Gleichzeitig sind Dekorrelation und Permutation zuverlässig und für die überwiegende Mehrheit der Fälle ausreichend.
Vielleicht nicht meine Frage, aber ich kann es nicht ertragen, Sie leiden zu sehen :)
Betrachten Sie diese Papiere nur als Lehrbuch über neuronale Netze und R, es gibt dort kein einziges robustes System. Viele Ansätze können auch fehlinterpretiert oder verdreht werden, es ist besser, Primärquellen zu lesen. Ich habe bereits das Material über nicht vertrauen Verunreinigung Bedeutung der Gerüstbau geworfen: https: //explained.ai/rf-importance/index.html.
Vielleicht ist es nicht meine Frage, aber ich kann es nicht ertragen, dich leiden zu sehen :)
Das ist die Sache, dass niemand weiß, wie es richtig ist - jemand hat eine Sache, die an dem Modell arbeitet, und ein anderer hat eine andere, oder vielleicht ist es alles zufällig, unter dem jeder versucht, eine wissenschaftliche Basis von Beweisen und Rechtfertigung zu bringen.
Ich beschäftige mich selbst damit, und bisher fällt mir nichts ein, was den Prozess beschleunigen könnte, wie eine vollständige Aufzählung der Prädiktorengruppen und eine Bewertung ihrer Modelle. Für mich besteht die Schwierigkeit vielleicht darin, die Verknüpfungen großer Gruppen für ihre spätere Aufteilung in kleinere Gruppen zu erhalten, um die Aufzählung zu beschleunigen - diese Frage ist nicht richtig automatisiert.
1 Zeit zum Einarbeiten und Verinnerlichen, da die Permutation universell für alle MO-Methoden ist, nicht nur für RF, und rechnerisch recht günstig
1 Zeit, sich damit zu beschäftigen und es zu lernen, denn die Permutation ist universell für jede MO-Methode, nicht nur für RF, und rechnerisch recht günstig
Die übliche Permutation ist natürlich, hier ist es anders - wir haben die Prädiktoren in 9 Gruppen eingeteilt, mit irgendeiner Methode die Gruppen identifiziert, in denen das Ergebnis der durchschnittlichen Modelle schlechter oder im Gegenteil besser ist, und dann neue Gruppen mit einer anderen Einteilung geschaffen, zum Beispiel schlagen wir schlechte Gruppen in Untergruppen, um die Schlacke für die Ablehnung zu finden oder um zu verstehen, warum es so stark das Gesamtbild beeinflusst und so weiter und so fort. Auf diese Weise können wir die besten/schlechtesten Gruppen von Prädiktoren in Bezug auf die Interaktion zwischen ihnen identifizieren. Die Aufgabe besteht darin, nach der Klassifizierung des Modells automatisch eine neue Einteilung in Gruppen vorzunehmen, wobei die gewonnenen Erfahrungen berücksichtigt werden, und erneut zu trainieren. Der Punkt ist, dass die Kategorisierung nicht zufällig ist.
Es gibt natürlich eine übliche Permutation, aber hier ist es anders - wir haben die Prädiktoren in 9 Gruppen aufgeteilt, mit irgendeiner Methode die Gruppen identifiziert, in denen das Ergebnis der durchschnittlichen Modelle schlechter oder im Gegenteil besser ist, und dann neue Gruppen mit einer anderen Aufteilung geschaffen, zum Beispiel haben wir schlechte Gruppen in Untergruppen geschlagen, um die Schlacke zu finden, die verworfen werden muss, oder um zu verstehen, warum sie das Gesamtbild so sehr beeinflusst, und so weiter und so fort. Auf diese Weise können wir die besten/schlechtesten Gruppen von Prädiktoren in Bezug auf die Interaktion zwischen ihnen identifizieren. Die Aufgabe besteht darin, nach der Klassifizierung des Modells automatisch eine neue Einteilung in Gruppen vorzunehmen, wobei die gewonnenen Erfahrungen berücksichtigt werden, und erneut zu trainieren. Der Punkt ist, dass die Kategorisierung nicht zufällig ist.
Es gibt keine Interaktion untereinander, das habe ich oben schon geschrieben. Durch das Umstellen von Orten und das Ändern der Anzahl von Importen ändert sich nichts. Das können Sie überprüfen. Außerdem bedeutet eine geringere Gewichtung einfach einen geringeren Beitrag zum Modell, so dass es nicht einmal notwendig ist, die schlechten zu entfernen, wenn man das Modell verwendet, aber es ist wünschenswert, unnötiges Rauschen loszuwerden
es gibt keine Wechselwirkung zwischen einander, habe ich bereits oben geschrieben. Durch Umstellen und Ändern der Anzahl der Importe ändert sich nichts. Sie können es überprüfen. Außerdem bedeutet weniger Gewicht einfach weniger Beitrag zum Modell, so dass die schlechten nicht einmal entfernt werden müssen, wenn man das Modell verwendet, aber es ist wünschenswert, unnötiges Rauschen loszuwerden.
Ich habe eine andere Schlussfolgerung.
Ich habe eine andere Schlussfolgerung.
wie Sie wünschen :)
Aber das ist triviales Zeug. Die Wichtigkeit hängt von der Varianz der Fiche ab (fast immer, außer bei sehr einfachen Modellen). Forest führt keine Transformationen an den Fiches durch, multipliziert und dividiert sie nicht miteinander usw., sondern verteilt ihre Werte einfach über die Knoten, so dass es keine Wechselwirkungen gibt, sondern nur eine Trennung