Einsatz künstlicher Intelligenz bei MTS - Seite 21

 
Mak:
IMHO lohnt es sich nicht, mit Netzen herumzudampfen :)

Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Sie verstehen also "Übertraining" als "Untertraining"? Mir scheint, das sind Antonyme =) klären Sie das bitte.
 
Besser klassifizierende Maschen als interpolierende Maschen.
Ich habe nicht darüber gelesen, bitte erklären Sie den Unterschied zwischen ihnen, wenn Sie können, geben Sie ein Beispiel, wie jeder funktioniert, können Sie allgemeine Begriffe verwenden =)
 
Mak:
Aleksey24:

Frage an die Mathematiker:

Ist die Idee, eine multivariate Normalverteilung der zu optimierenden Parameter anzuwenden, mit dem Prinzip der neuronalen Netze gleichzusetzen?

Bitte erklären Sie es klar und deutlich.

Das ist eine seltsame Frage.
Erläutern Sie die Frage.


EXPLAIN:

Ich bin nun der Meinung, dass man nicht mit bestimmten angepassten Parametern handeln sollte, sondern mit dem Spektrum der einzelnen Parameter im System.
Am einfachsten ist es, mehrere identische EAs mit unterschiedlichen Parametersätzen in verschiedenen Bereichen des Parameterspektrums einzusetzen.
Jedem dieser Expert Advisors sollte ein bestimmter Prozentsatz der Einlage zugewiesen werden, aber alle sollten dem prozentualen Wert der Einlage entsprechen, wenn nur mit einem Expert Advisor (ohne Spektrum) gehandelt wird.
Dann, wenn auf gleitende Durchschnitte drei Expert Advisors öffnen drei Positionen, jeweils am Anfang der Bewegung in der Mitte und am Ende.

Ich kann mich noch nicht entscheiden, wie ich diese Idee in einem EA zum Testen verwenden soll.

Ich habe Posh zu diesem Problem befragt, aber noch keine Antwort erhalten.

Die Aufgabe der multivariaten Normalverteilung (Gauß) und der neuronalen Netze vom Typ aX+bY+...=Z sind die gleichen (für den Handel), oder bin ich verwirrt und in meinem Kopf verwirrt?
 
Aleksey24:
Mak:
Aleksey24:

Frage an die Mathematiker:

Ist die Idee, eine multivariate Normalverteilung der zu optimierenden Parameter anzuwenden, mit dem Prinzip der neuronalen Netze gleichzusetzen?

Bitte erklären Sie es klar und deutlich.

Das ist eine seltsame Frage.
Erläutern Sie die Frage.


EXPLAIN:

Ich bin nun der Meinung, dass man nicht mit bestimmten angepassten Parametern handeln sollte, sondern mit dem Spektrum der einzelnen Parameter im System.
Am einfachsten ist es, mehrere identische EAs mit unterschiedlichen Parametern in verschiedenen Bereichen des Parameterspektrums zu platzieren.
Jedem dieser Expert Advisors sollte ein bestimmter Prozentsatz der Einlage zugewiesen werden, aber alle sollten dem prozentualen Wert der Einlage entsprechen, wenn nur mit einem Expert Advisor (ohne Spektrum) gehandelt wird.
Dann, wenn auf gleitende Durchschnitte drei Expert Advisors öffnen drei Positionen, jeweils am Anfang der Bewegung in der Mitte und am Ende.

Ich kann mich noch nicht entscheiden, wie ich diese Idee in einem EA zum Testen verwenden soll.

Ich habe Posh zu diesem Problem befragt, aber noch immer keine Antwort erhalten.

Das Problem der multivariaten Normalverteilung (Gauß) und der neuronalen Netze vom Typ aX+bY+...=Z sind dasselbe (für den Handel), oder bin ich verwirrt und durcheinander in meinem Kopf?
Du sprichst von etwas Kompliziertem mit Spektren! Hier sind die Quellen zum Thema ANN, die ich für mein Studium verwendet habe:
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8 - es steht im Wiki und ist in groben Zügen beschrieben.
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html - es gibt ein Papier über ANN, und in der Mitte des Papiers gibt es eine Diskussion darüber, woher es kommt und worum es geht, mit Diagrammen und Formeln.
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943 - dies ist ein Link zu "Fundamentals of Artificial Neural Networks" (Grundlagen künstlicher neuronaler Netze), eine gute Seite, auf der es einen ganzen "Baum" zum Thema ANNs gibt - nicht nur das, was ich geschrieben habe.
 
Danke für die Links, ich werde mich damit befassen.
Aber was die "Spektren" betrifft, so liegen Sie falsch.
Ich bin natürlich kein Professor - aber es gibt einen vernünftigen Grund dafür.
 
Leute, niemand hat mir geantwortet, ist es notwendig, den Algorithmus des Vergessens zu durchdenken, oder ist es doch eine natürliche Eigenschaft des ANN?
 
lucifuge:
Leute, niemand hat mir geantwortet, ist es notwendig, den Algorithmus des Vergessens zu durchdenken, oder ist es doch eine natürliche Eigenschaft des ANN?

Wenn Sie das Training auf eine begrenzte Anzahl von Takten (oder nicht Takten, was auch immer verwendet wird) beschränken, wird das Vergessen ein natürlicher Prozess sein. Der Markt verändert sich, und was vor fünf Jahren funktioniert hat, funktioniert heute vielleicht nicht mehr. Aber es sind bereits neue Bedingungen entstanden, und wenn man sie nicht lehrt, werden sie vorbeigehen.
Die Entscheidung liegt bei jedem selbst.
 
Mathemat:
Mak, du übertreibst eindeutig etwas. Anstatt sie, wie Sie sagen, um das Hundert- oder Tausendfache zu überschreiten, reichen nach der ANN-Theorie 10 aus. Und die Kriterien für die Umschulung (Anpassung) sind bekannt: es ist ein globaler minimaler Fehler im Testbereich.

Ein weiterer Punkt ist die Netzarchitektur. Besser klassifizierende Maschen als interpolierende Maschen.
Vielleicht - ich bin ein Skeptiker, was NS angeht.
Nun ja, in der Statistik geht man davon aus, dass man einige Schlussfolgerungen ziehen kann, wenn die Anzahl der Stichproben das Zehnfache der Anzahl der unbekannten Parameter beträgt. Aber die Fehler, die man dabei macht, bewegen sich am Rande des Zumutbaren.

Aber Sie sollten zustimmen, dass NS im Wesentlichen nur eine Funktion einer Art Vektor von Eingaben und einer Reihe von Gewichten ist.
Dieser Satz von Gewichten enthält Hunderte (in den einfachsten Fällen) bis Zehn- und Hunderttausende von Parametern (Gewichten).
Das Lernen von NS ist nichts anderes als die Optimierung dieser Funktion durch diese Hunderte - Hunderttausende von Parametern.
Jeder weiß, was in solchen Fällen passiert.
Deshalb bin ich ein Skeptiker ...
 
lucifuge:
Mak:
IMHO lohnt es sich nicht, mit Netzen zu dampfen :)

Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Sie verstehen also "Übertraining" als "Untertraining"? Ich denke, das sind Antonyme =) Bitte klären Sie das.
Mit Übertraining meine ich das so genannte CurveFitting.
Sie tritt auf, wenn es viele Optimierungsparameter und wenig Daten gibt.
 
Mak:
lucifuge:
Mak:
IMHO lohnt es sich nicht, mit Netzen herumzudampfen :)

Beim NS-Lernen geht es um die Optimierung einer Funktion mit einer großen Anzahl von Parametern (Hunderte und Tausende).
Ich weiß nicht, was ich in diesem Fall tun kann, um Übertraining zu vermeiden,
Die einzige Lösung besteht darin, eine Trainingsstichprobe von 1-100 Millionen Proben zu nehmen.
Aber es gibt keine Garantie...
Sie meinen also "übertrainiert" als "untertrainiert"? Das sind Antonyme =) klären Sie bitte auf.
Mit Übertraining meine ich das so genannte CurveFitting.
Sie tritt auf, wenn es viele Optimierungsparameter und wenig Daten gibt.

Dies wirft jedoch die Frage nach der Größe des Netzes auf. Was ein Netz speichern kann, hängt von seiner Größe und Architektur ab. Wenn Sie zu viele Proben trainieren, die sich das Netz nicht merken kann, kommt es zum Überlern-Effekt - das Netz erkennt nicht mehr, was es weiß.