Diskussion zum Artikel "Neuronale Netzwerke - kostengünstig und gut gelaunt: NeuroPro mit MetaTrader 5 verknüpfen" - Seite 3

[Gelöscht]  

Was den Artikel selbst angeht, nicht die NS im Allgemeinen. Wo ist der Haken? Die Anzahl der Koeffizienten, die angepasst werden müssen, ist mit der Menge der Geschichte vergleichbar.

Nehmen wir an, die Anzahl der Koeffizienten ist gleich der Anzahl der historischen Daten. Ich denke, dann wird die Anpassung einfach perfekt sein. Es wird kein einziges Verlustgeschäft geben, und es wird das Maximum aus der Geschichte herausgeholt.

Wenn wir die NS-Konstruktion als eine Auswahl einer wilden Anzahl von Koeffizienten betrachten, brauchen wir nicht so etwas Gutes.

Es gibt hier noch einen weiteren Nutzen - die Komprimierung von Informationen mit Verlust. Es gab eine Menge Geschichte, es gibt weniger Koeffizienten, die die Geschichte annähernd beschreiben. Auf der anderen Seite gibt es viele Kompressionsalgorithmen, auch ohne Verlust, mit viel besserer Leistung.

 
zaskok:

Was den Artikel selbst betrifft, nicht die NS im Allgemeinen. Wo ist der Haken? Die Anzahl der Koeffizienten, die angepasst werden müssen, ist vergleichbar mit dem Umfang der Geschichte.

Nehmen wir an, die Anzahl der Koeffizienten ist gleich der Anzahl der historischen Daten. Ich denke, dann wird die Anpassung einfach perfekt sein. Es wird kein einziges Verlustgeschäft geben und das Maximum aus der Historie herausgeholt werden.

Wenn Sie die Konstruktion von NS als eine Auswahl einer wilden Anzahl von Koeffizienten betrachten, wozu brauchen Sie dann so eine gute Sache?

Wahrscheinlich haben Sie den Artikel einfach nicht (sorgfältig) gelesen. Die Anzahl der Eingänge ist 24 (Zeitrahmen von einer Stunde), die Anzahl der Neuronen in einer Schicht ist 20, und es gibt 3 Schichten.

Und das Beispiel der Geschichte ist 5k Bars. Setzen Sie 10k Balken, bleibt die Anzahl der Koeffizienten gleich.

Wenn Sie nicht verstehen, wovon wir sprechen, dann brauchen Sie es wirklich nicht.

[Gelöscht]  
elugovoy:

Sie haben wahrscheinlich nur nicht (sorgfältig) den Artikel lesen. Die Anzahl der Eingänge ist 24 (stündlicher Zeitrahmen), Neuronen in einer Schicht - 20, Schichten - 3.

Und das Beispiel der Geschichte ist 5k Bars. Setzen Sie 10k Bars, die Anzahl der Koeffizienten wird die gleiche bleiben.

Wenn Sie nicht verstehen, worüber wir sprechen, brauchen Sie es wirklich nicht.

Sie können sich so viel vormachen, wie Sie wollen!

Schauen Sie sich den Quellcode an und zählen Sie die Anzahl der angepassten Koeffizienten. Bla, bla, bla in der Beschreibung von NS, aber das Wesentliche ist der Quellcode.

Verdoppeln Sie die Menge der Geschichte und beobachten Sie, wie die Verhältnisse zusammenbrechen. Und so geht es mit jeder Erhöhung weiter.

Die Simulation des Orgasmus aus dem Artikel ist das gezeigte Ergebnis. Und die Tatsache, dass es auf schreckliche Weise zustande gekommen ist, ist nicht das, was irgendjemand behauptet.

Machen wir es einfach. Ich werde Ihnen den Quellcode eines Beraters mit tausend Koeffizienten geben. Und ich werde Ihnen ein vergleichbares Stück Geschichte geben. Ich werde nicht sagen, dass es NS oder etwas anderes ist. Nur den Quellcode und ein Stück Geschichte.

Werden Sie auch Ihre Meinung über diesen Cal ändern, wenn ich Ihnen sage, dass es sich um NS oder fortgeschrittene wissenschaftliche Methode handelt? Sehen Sie sich das Ergebnis an.

[Gelöscht]  

Nehmen wir das Unicum Dimeon. Sein Expert Advisor enthält nicht mehr als ein Dutzend anpassbare Koeffizienten. Die Menge der Geschichte ist Tausende Male mehr als wir verwenden, um diese Koeffizienten anzupassen. Die in dimeon's Kopf eingebauten NS können also manchmal großartige Ergebnisse liefern. Deshalb werden sie auch nicht gegen alle NS wüten. Aber der Artikel führt den Leser in die Irre.

Andererseits verwendet unser cooler Pipsarian das neuronale Prinzip beim Aufbau eines Handelsalgorithmus überhaupt nicht. Er verwendet nicht das dümmste Prinzip der Addition und Multiplikation, wie im NS. Vielleicht ist das der Grund für den eklatanten Unterschied zwischen seinen Ergebnissen und den Klassikern in Form von NS.

 
faa1947:

Lustiger Name: ENCOG - Maschinelles Lernen... Nun, es ist heiß.

Die hier aufgeführten Tools sind nur ein Teil des maschinellen Lernens.

Lachen ohne Grund ist ein Zeichen von Dummheit © Sprichwort

Für diejenigen, die im maschinellen Lernen besonders begabt sind:

  1. Mein Beitrag war eine Antwort auf die Frage: Wie schraubt man ein ANN über dll an. Wenn Sie eine Antwort darauf haben, wie man Pakete von Cran via dll anschraubt, dann wäre Ihre Erwiderung angebracht.
  2. Es ist unwahrscheinlich, dass ein beträchtlicher Teil der Tools für maschinelles Lernen irgendwo eingesetzt wird. D.h. die Tatsache, dass Cran eine Menge Pakete hat, verleiht ihm keine Würde, denn Qualität sollte über Quantität siegen. Werden Sie all diese Pakete salzen oder was?
  3. Für jede spezifische Aufgabe ist es besser, das am besten geeignete Werkzeug zu wählen. Zu diesem Zweck können Sie Weka auf Ihrem Computer installieren (es unterstützt übrigens die Sprache R in der Befehlszeile) und den in die Schnittstelle integrierten "Experimenter" verwenden, um eine Stichprobe mit aktivierter Kreuzvalidierung mit verschiedenen Methoden des maschinellen Lernens durchzuführen. Die Methode, die das beste Ergebnis liefert, wird sich als die für die jeweilige Aufgabe am besten geeignete herausstellen. Zumindest machen das die Stammgäste von kaggle.com so. Schließlich ist es besser, die zeitaufwändigste und am wenigsten intelligente Arbeit einem Computer anzuvertrauen, als zu versuchen zu erraten, was in diesem oder jenem Fall funktionieren wird.
 
Reshetov:

Lachen ohne Grund ist ein Zeichen von Dummheit © Volksspruch

Für besonders begabte Experten für maschinelles Lernen:

  1. Mein Beitrag war eine Antwort auf die Frage: Wie schraubt man ein ANN via dll an. Wenn Sie eine Antwort darauf haben, wie man Pakete von Cran per dll anschraubt, dann wäre Ihre Erwiderung angebracht.
  2. Es ist unwahrscheinlich, dass ein beträchtlicher Teil der Tools für maschinelles Lernen irgendwo eingesetzt wird. D.h. die Tatsache, dass Cran eine Menge Pakete hat, verleiht ihm keine Würde, denn Qualität sollte über Quantität siegen. Werden Sie all diese Pakete salzen oder was?
  3. Für jede spezifische Aufgabe ist es besser, das am besten geeignete Werkzeug zu wählen. Zu diesem Zweck können Sie Weka auf Ihrem Computer installieren (es unterstützt übrigens die Sprache R in der Befehlszeile) und den in die Schnittstelle integrierten "Experimenter" verwenden, um eine Stichprobe mit aktivierter Kreuzvalidierung mit verschiedenen Methoden des maschinellen Lernens durchzuführen. Die Methode, die das beste Ergebnis liefert, wird sich als die für die jeweilige Aufgabe am besten geeignete herausstellen. Zumindest machen das die Nutzer von kaggle.com regelmäßig. Schließlich ist es besser, die zeitaufwändigste und am wenigsten intelligente Arbeit einem Computer anzuvertrauen, als zu versuchen zu erraten, was in diesem oder jenem Fall funktionieren wird.

1. Es gibt keine Probleme mit CRAN, nun ja, überhaupt keine. Mehr als zwei Jahre alles in Codobase.

2. Die Quantität spricht für die Vielfalt der Ansätze und die schnelle Entwicklung. Die Qualität der Pakete in CRAN ist ausgezeichnet.

3. WEKA ist eines von.... Wenn es um die Auswahl von Machine-Learning-Paketen geht, die im Handel eingesetzt werden können, dann ist Vorsicht geboten. Und für den Anfang nehmen wir Rattle. Wenn Sie bei Null anfangen, können Sie es in etwa 15 Minuten zum Laufen bringen. Ich habe die Ergebnisse des Vergleichs von NS und Random Forests oben veröffentlicht. NS liefert mehr als bescheidene Ergebnisse. Ich habe sogar einen Artikel geschrieben. Versuchen Sie Rattle. Nehmen Sie maximal 2-3 Pakete und Sie werden zufrieden sein. Und geben Sie Ihren NS für immer auf. Für den Anfang kann ich eine andere Anlage empfehlen.

Dateien:
PredictTrend.zip  858 kb
 
faa1947:


2. Die Anzahl zeigt die Vielfalt der Ansätze und die schnelle Entwicklung. Die Qualität der Pakete in CRAN ist ausgezeichnet.


Eher das Gegenteil ist der Fall, denn einige Pakete duplizieren einfach Methoden aus anderen Paketen. Zum Beispiel sind alle SVMs nur Portierungen der gleichen taiwanesischen libsvm-Bibliothek. Es macht also absolut keinen Unterschied, ob SVM in Cran, Weka, Encog oder ein anderes Paket eingebettet ist. Die Ergebnisse werden bei gleichen Einstellungen identisch sein.

faa1947:


Wenn es um die Auswahl von Paketen für maschinelles Lernen geht, die im Handel verwendet werden können, dann ist Vorsicht geboten.


Auch hier sollten Sie spezifische Tools für spezifische Aufgaben wählen. Trading ist nur ein allgemeiner Name für viele Börsenstrategien und -taktiken. Deshalb ist es unmöglich, alles unter einen Hut zu bringen.

faa1947:


Ich habe die Ergebnisse des Vergleichs von NS und Random Forests oben veröffentlicht.


Das sind keine Ergebnisse, sondern irgendwelcher Blödsinn, wie die Durchschnittstemperatur des Krankenhauses, angepasst an die Trainingsstichprobe.


Die Ergebnisse liegen vor, wenn die Stichprobe mindestens in Trainings- und Teststichprobe unterteilt ist und maximal eine Kreuzvalidierung durchgeführt wird.

 

Ich denke, ich werde mich für die NS einsetzen. Nur weil beliebige Hölzer plötzlich in Mode gekommen sind, heißt das nicht, dass NS schlechter ist. Es sind die gleichen Eier, nur im Profil. Um einen halbwegs adäquaten Vergleich anzustellen, nehmen Sie einen Ausschuss von Meshes, schalten Sie das Bousting ein, und Sie erhalten denselben Zufallswald. NSs sind dafür bekannt, dass man fast jeden anderen Algorithmus implementieren kann.

In jedem Fall liegt der Erfolg zu 99 % nicht im Werkzeug, sondern in der Auswahl und Aufbereitung der Daten.

 
marketeer:

Ich denke, ich werde für die NS eintreten. Nur weil Random Forest plötzlich in Mode gekommen ist, heißt das nicht, dass NS schlechter ist.

Random Forest ist keine Modeerscheinung, sondern ein Werkzeug, das auf Anhieb akzeptable Ergebnisse liefern kann. Dieser Klassifikator wird sowohl von Anfängern als auch von erfahrenen Benutzern verwendet. Anfänger verwenden ihn als Basiswerkzeug, da die Methode sehr einfach ist. Und erfahrenere Benutzer beginnen, Probleme mit RF zu lösen, um zu verstehen, in welche Richtung sie weiter gehen müssen.

marketeer:

In jedem Fall liegt 99 % des Erfolgs nicht im Werkzeug, sondern in der Auswahl und Aufbereitung der Daten.

Man kann aus einer großen Sache keine große Sache machen © People's saying

Es wäre interessant zu sehen, wie Sie das Problem der multiplen Regression mit einem binären Klassifikator lösen wollen?

 
Reshetov:


Dabei handelt es sich nicht um Ergebnisse, sondern um irgendeinen Blödsinn, wie die durchschnittliche Temperatur des Krankenhauses, die an die Trainingsstichprobe angepasst wurde.


Ergebnisse sind zumindest dann gegeben, wenn die Stichprobe in eine Trainings- und eine Teststichprobe unterteilt ist und höchstens eine Kreuzvalidierung durchgeführt wurde.

Ich mache keinen Blödsinn.

Beweise.

Die geposteten Ergebnisse beziehen sich immer auf "out of sample training" Daten. Das wird in Rattle wie folgt gemacht:

1. Der ursprüngliche Datensatz wird in drei Teile geteilt: 70-15-15%

2. Das Training wird mit dem 70%igen Teil durchgeführt, der als Training bezeichnet wird. Hier gibt es eine sehr wichtige Nuance. Von diesen 70% werden etwa 2/3 der Trainingsdaten zufällig ausgewählt, d.h. = 70% * 2/3. Das Training wird mit diesen Daten durchgeführt. Die Informationen über die Leistung des Modells werden aus den verbleibenden 70% * 1/3 der Trainingsdaten gewonnen, bei denen es sich natürlich ebenfalls um eine zufällige Auswahl von Zeilen handelt. Dieser Teil wird als OOB - out of bag - bezeichnet. D.h., obwohl formal derselbe Datensatz für das Training und die Auswertung verwendet wurde, wurden für das Training und die Auswertung unterschiedliche Zeilen daraus entnommen.

Danach können Sie auf die Registerkarte Auswerten gehen, wo Sie das trainierte Modell auf die verbleibenden zwei Mal 15% anwenden und mit OOB vergleichen können. Wenn die Ergebnisse die gleichen sind, besteht Hoffnung. Daraus folgt, dass, obwohl Rattle ein Werkzeug zum Testen von Ideen ist, die Qualität dieser Tests viel höher ist als in dem besprochenen Artikel (der Autor möge sich entschuldigen).

Und für Sie persönlich: Den Ergebnissen in meinem Artikel und in diesem Artikel kann man nicht trauen, denn es gibt keinen Beweis für ein Übertraining (Overfitting) des Modells, und die drei von mir aufgeführten Testreihen außerhalb der Trainingsstichprobe sind kein solcher Beweis. Das heißt, wir brauchen Kriterien, die von der Menge der Ausgangsvariablen in dem Sinne erfüllt werden, dass das Modell, das diese Menge von Variablen verwendet, nach dem obigen Schema getestet werden kann und den Ergebnissen eines solchen Tests vertraut werden kann.