Diskussion zum Artikel "Die Anwendung der Monte Carlo Methode beim Reinforcement-Learning" - Seite 3

 
elibrarius:

Schauen Sie sich Vladimirs frühere Artikel an (2. oder 3.), wo in einem der R-Pakete mit Hilfe von Scaffolding ermittelt wurde. Die Berechnung dauerte sehr lange (um ein Vielfaches länger als das Training des Haupt-NS). Ob es sich dabei um ein komplettes Overfitting oder um eine Art Genetik handelte, sollten Sie in der Paketdokumentation nachsehen.
Höchstwahrscheinlich wurde es auf irgendeine Weise optimiert.

Vielen Dank für die Information. In diesem Artikel geht es jedoch um die unabhängige Bewertung von Prädiktoren, und es ist die Gruppenmethode, die von Interesse ist.

 
Aleksey Vyazmikin:

Vielen Dank für die Information. Allerdings geht es in diesem Artikel um die unabhängige Schätzung von Prädiktoren, und es ist die Gruppenmethode, die von Interesse ist.

Hier geht es um die Interaktion von Eingangsvariablen https://www.mql5.com/de/articles/2029
Оценка и выбор переменных для моделей машинного обучения
Оценка и выбор переменных для моделей машинного обучения
  • www.mql5.com
В статье будут рассмотрены особенности выбора, предподготовки и оценки входных переменных для использования в моделях машинного обучения. Будут рассмотрены множественные методы нормализации и их особенности. Будут указаны важные моменты этого процесса, сильно влияющие на конечный результат обучения моделей. Рассмотрим и оценим новые и...
 
elibrarius:
Hier geht es um die Interaktion von Eingangsvariablen https://www.mql5.com/de/articles/2029

Ja, danke, aber hier steht etwas über Gruppeninteraktion:

  • Wrapper. Wrapper-Methoden schätzen verschiedene Modelle mit Hilfe von Verfahren, die Prädiktoren hinzufügen und/oder entfernen, um die beste Kombination zu finden, die die Modelleffizienz optimiert. Im Wesentlichen handelt es sich bei Wrapper-Methoden um Suchalgorithmen, die Prädiktoren als Eingaben behandeln und die Modelleffizienz als zu optimierende Ausgaben verwenden. Es gibt viele Möglichkeiten, Prädiktoren aufzuzählen (rekursives Löschen/Hinzufügen, genetische Algorithmen, simuliertes Annealing und viele andere).

Beide Ansätze haben ihre Vor- und Nachteile. Filtermethoden sind in der Regel rechnerisch effizienter als Wrapper-Methoden, aber die Auswahlkriterien stehen nicht in direktem Zusammenhang mit der Modellleistung. Ein Nachteil der Wrapper-Methode besteht darin, dass die Schätzung mehrerer Modelle (die möglicherweise eine Abstimmung von Hyperparametern erfordert) zu einem drastischen Anstieg der Rechenzeit führt und in der Regel eine Überanpassung des Modells zur Folge hat.

In der vorliegenden Arbeit werden wir uns nicht mit Wrapper-Methoden befassen, sondern mit neuen Methoden und Ansätzen von Filtermethoden, die meiner Meinung nach die oben genannten Nachteile beseitigen.


[Gelöscht]  
Aleksey Vyazmikin:

In diesem Artikel werden wir uns nicht mit Wrapper-Methoden befassen, sondern mit neuen Methoden und Ansätzen von Filtermethoden, die meiner Meinung nach die oben genannten Nachteile beseitigen.


Betrachten Sie diese Arbeiten nur als Lehrbuch über neuronale Netze und R, es gibt kein einziges robustes System darin. Viele Ansätze können auch fehlinterpretiert oder verdreht werden, es ist besser, Primärquellen zu lesen. Ich habe bereits das Material eines Universitätsprofessors über das Misstrauen gegenüber der Bedeutung von Wäldern verworfen: https: //explained.ai/rf-importance/index.html.

Gleichzeitig sind Dekorrelation und Permutation zuverlässig und für die überwiegende Mehrheit der Fälle ausreichend.

Vielleicht nicht meine Frage, aber ich kann es nicht ertragen, Sie leiden zu sehen :)

Beware Default Random Forest Importances
Beware Default Random Forest Importances
  • explained.ai
0.995 worst radius 0.995 mean perimeter 0.994 mean area 0.984 worst perimeter 0.983 worst area 0.978 radius error 0.953 mean concave points 0.944 mean concavity 0.936 worst concave points 0.927 mean compactness 0.916 worst concavity 0.901 perimeter error 0.898 worst compactness 0.894 worst texture 0.889 compactness...
 
Maxim Dmitrievsky:

Betrachten Sie diese Papiere nur als Lehrbuch über neuronale Netze und R, es gibt dort kein einziges robustes System. Viele Ansätze können auch fehlinterpretiert oder verdreht werden, es ist besser, Primärquellen zu lesen. Ich habe bereits das Material über nicht vertrauen Verunreinigung Bedeutung der Gerüstbau geworfen: https: //explained.ai/rf-importance/index.html.

Vielleicht ist es nicht meine Frage, aber ich kann es nicht ertragen, dich leiden zu sehen :)

Das ist die Sache, dass niemand weiß, wie es richtig ist - jemand hat eine Sache, die an dem Modell arbeitet, und ein anderer hat eine andere, oder vielleicht ist es alles zufällig, unter dem jeder versucht, eine wissenschaftliche Basis von Beweisen und Rechtfertigung zu bringen.

Ich beschäftige mich selbst damit, und bisher fällt mir nichts ein, was den Prozess beschleunigen könnte, wie eine vollständige Aufzählung der Prädiktorengruppen und eine Bewertung ihrer Modelle. Für mich besteht die Schwierigkeit vielleicht darin, die Verknüpfungen großer Gruppen für ihre spätere Aufteilung in kleinere Gruppen zu erhalten, um die Aufzählung zu beschleunigen - diese Frage ist nicht richtig automatisiert.

[Gelöscht]  
Aleksey Vyazmikin:

1 Zeit zum Einarbeiten und Verinnerlichen, da die Permutation universell für alle MO-Methoden ist, nicht nur für RF, und rechnerisch recht günstig

 
Maxim Dmitrievsky:

1 Zeit, sich damit zu beschäftigen und es zu lernen, denn die Permutation ist universell für jede MO-Methode, nicht nur für RF, und rechnerisch recht günstig

Die übliche Permutation ist natürlich, hier ist es anders - wir haben die Prädiktoren in 9 Gruppen eingeteilt, mit irgendeiner Methode die Gruppen identifiziert, in denen das Ergebnis der durchschnittlichen Modelle schlechter oder im Gegenteil besser ist, und dann neue Gruppen mit einer anderen Einteilung geschaffen, zum Beispiel schlagen wir schlechte Gruppen in Untergruppen, um die Schlacke für die Ablehnung zu finden oder um zu verstehen, warum es so stark das Gesamtbild beeinflusst und so weiter und so fort. Auf diese Weise können wir die besten/schlechtesten Gruppen von Prädiktoren in Bezug auf die Interaktion zwischen ihnen identifizieren. Die Aufgabe besteht darin, nach der Klassifizierung des Modells automatisch eine neue Einteilung in Gruppen vorzunehmen, wobei die gewonnenen Erfahrungen berücksichtigt werden, und erneut zu trainieren. Der Punkt ist, dass die Kategorisierung nicht zufällig ist.

[Gelöscht]  
Aleksey Vyazmikin:

Es gibt natürlich eine übliche Permutation, aber hier ist es anders - wir haben die Prädiktoren in 9 Gruppen aufgeteilt, mit irgendeiner Methode die Gruppen identifiziert, in denen das Ergebnis der durchschnittlichen Modelle schlechter oder im Gegenteil besser ist, und dann neue Gruppen mit einer anderen Aufteilung geschaffen, zum Beispiel haben wir schlechte Gruppen in Untergruppen geschlagen, um die Schlacke zu finden, die verworfen werden muss, oder um zu verstehen, warum sie das Gesamtbild so sehr beeinflusst, und so weiter und so fort. Auf diese Weise können wir die besten/schlechtesten Gruppen von Prädiktoren in Bezug auf die Interaktion zwischen ihnen identifizieren. Die Aufgabe besteht darin, nach der Klassifizierung des Modells automatisch eine neue Einteilung in Gruppen vorzunehmen, wobei die gewonnenen Erfahrungen berücksichtigt werden, und erneut zu trainieren. Der Punkt ist, dass die Kategorisierung nicht zufällig ist.

Es gibt keine Interaktion untereinander, das habe ich oben schon geschrieben. Durch das Umstellen von Orten und das Ändern der Anzahl von Importen ändert sich nichts. Das können Sie überprüfen. Außerdem bedeutet eine geringere Gewichtung einfach einen geringeren Beitrag zum Modell, so dass es nicht einmal notwendig ist, die schlechten zu entfernen, wenn man das Modell verwendet, aber es ist wünschenswert, unnötiges Rauschen loszuwerden

 
Maxim Dmitrievsky:

es gibt keine Wechselwirkung zwischen einander, habe ich bereits oben geschrieben. Durch Umstellen und Ändern der Anzahl der Importe ändert sich nichts. Sie können es überprüfen. Außerdem bedeutet weniger Gewicht einfach weniger Beitrag zum Modell, so dass die schlechten nicht einmal entfernt werden müssen, wenn man das Modell verwendet, aber es ist wünschenswert, unnötiges Rauschen loszuwerden.

Ich habe eine andere Schlussfolgerung.

[Gelöscht]  
Aleksey Vyazmikin:

Ich habe eine andere Schlussfolgerung.

wie Sie wünschen :)

Aber das ist triviales Zeug. Die Wichtigkeit hängt von der Varianz der Fiche ab (fast immer, außer bei sehr einfachen Modellen). Forest führt keine Transformationen an den Fiches durch, multipliziert und dividiert sie nicht miteinander usw., sondern verteilt ihre Werte einfach über die Knoten, so dass es keine Wechselwirkungen gibt, sondern nur eine Trennung