Einsatz neuronaler Netze im Handel. - Seite 12

 
registred >> :

... Was, niemand hat jemals das Problem der neuronalen Netze im Devisenhandel gelöst?

Warum niemand?

Diejenigen, die sich entschieden haben, schweigen :)

1.

2.

Und der Rest muss mit Eiweißneuronen arbeiten :(

 
goldtrader >> :

Warum niemand?

Diejenigen, die sich entschieden haben, schweigen :)

1.

2.

Und der Rest muss mit Eiweißneuronen arbeiten :(

Das, worüber Sie hier diskutieren, ist also nutzlos, es stellt sich heraus, dass es tatsächlich... Ich persönlich habe Neuronics nicht im Devisenhandel eingesetzt, aber ich habe mit ihnen in anderen Angelegenheiten zu tun gehabt. Ich würde sie gerne sozusagen zum Tauschen ausprobieren, aber ich habe noch keine Zeit. Deshalb kann ich zum Thema Devisen nichts sagen. Die Ausbildung eines Netzes ist eine sehr komplexe Angelegenheit. Ich meine damit, dass es oft sehr schwierig ist, eine qualitative Verallgemeinerung zu finden. Natürlich müssen wir viele Experimente durchführen, indem wir die Anzahl der Neuronen in der versteckten Schicht erhöhen, den Stichprobenumfang vergrößern, schauen, wie das Netzwerk in einem flachen lokalen Minimum gefangen ist, und versuchen, es dort herauszuholen. Und nach all dem kann es passieren, dass nichts passiert. Im Allgemeinen sind sie in der Tat eine Menge Schwierigkeiten.

 
registred >> :

Das, worüber Sie hier diskutieren, ist also nutzlos, es stellt sich wirklich heraus...

In meinem obigen Beitrag finden sich unter den Nummern 1 und 2 Links, denen Sie, Ihrer Antwort nach zu urteilen, nicht gefolgt sind.

Die Berater des neuronalen Netzes sind dort tätig.

NS ist nicht das einfachste Instrument, um auf den Finanzmärkten Gewinne zu erzielen, aber in den richtigen Händen funktioniert es gut.

 
goldtrader >> :

In meinem obigen Beitrag finden sich unter den Nummern 1 und 2 Links, denen Sie, Ihrer Antwort nach zu urteilen, nicht gefolgt sind.

Das ist der Bereich, in dem die Berater für neuronale Netze tätig sind.

NS ist nicht das einfachste Instrument, um auf den Finanzmärkten Gewinne zu erzielen, aber in geschickten Händen funktioniert es gut.

Das war ich, ich treibe mich dort oft auf euroflood herum. Ich habe meine eigenen Prognosesysteme, die nicht auf neuronalen Netzen basieren. Eigentlich sind neuronale Netze nur ein interessantes Thema. Ich weiß ungefähr, was ich von einem Netzwerk verlangen würde, aber wie gesagt, ich habe noch keine Zeit für diese ganze Programmierung. Umso mehr bin ich mit meinem System bisher zufrieden. Die Schwierigkeit besteht darin, dieses gesamte neuronale Netz einzurichten. Wie ich schon sagte, dauert es zu lange, um es zu lernen. Ich würde andere Dinge als die Gradientenmethode der Optimierung anwenden.

 
registred писал(а) >>

Ich würde andere Methoden als die Gradientenmethode der Optimierung anwenden.

Wenn nicht ein Geheimnis, welches dann?

 
registred писал(а) >> Netzwerktraining ist eine sehr komplizierte Sache. Man kann ein Netz über- oder untertrainieren, d.h. es ist oft schwierig, eine qualitative Generalisierung zu finden. Man muss viele Experimente durchführen, indem man die Anzahl der Neuronen in einer versteckten Schicht erhöht, den Stichprobenumfang selbst erhöht, schaut, wie das Netz in ein flaches lokales Minimum gerät und versucht, es da herauszuholen. Und nach all dem kann es passieren, dass nichts passiert. Im Allgemeinen sind sie sehr komplex.

Dies ist praktisch eine grundlegende Sache für neuronale Netze. Ich habe versucht, dieses Problem anzusprechen, aber wie sich herausstellt, sind nicht viele daran interessiert. Ich interessiere mich mehr für die Architektur und die Raffinesse neuronaler Netze, obwohl gerade diese Frage schon vor langer Zeit gelöst wurde und es keinen Sinn hat, ihr nachzugehen. Die Erhöhung der Anzahl der Neuronen in einer versteckten Schicht führt zu einer Erhöhung des Stichprobenumfangs - die Erhöhung des Stichprobenumfangs führt zu einem Untertraining des Netzes, da es zu viele Regeln für größere historische Stichproben gibt, die das Netz nicht verstehen und lernen kann. Infolgedessen bleibt es in einem lokalen Minimum stecken, aus dem es nicht mehr herauskommt - es lernt entweder zu viel oder zu wenig. Es ist wahrscheinlicher, dass sie übertrainiert ist. Folglich wirkt sich eine Erhöhung der Zahl der Neuronen negativ auf die künftige Funktionsweise des neuronalen Netzes aus.

 
LeoV писал(а) >>

Dies ist praktisch eine grundlegende Sache für neuronale Netze. Ich habe versucht, dieses Problem anzusprechen, aber wie sich herausstellt, sind nicht viele daran interessiert. Ich interessiere mich mehr für die Architektur und die Raffinesse neuronaler Netze, obwohl gerade diese Frage schon vor langer Zeit gelöst wurde und es keinen Sinn hat, ihr nachzugehen. Die Erhöhung der Anzahl der Neuronen in einer versteckten Schicht führt zu einer Erhöhung des Stichprobenumfangs - die Erhöhung des Stichprobenumfangs führt zu einem Untertraining des Netzes, da es zu viele Regeln für größere historische Stichproben gibt, die das Netz nicht verstehen und lernen kann. Das Ergebnis ist, dass es in einem lokalen Minimum stecken bleibt, aus dem es nicht mehr herauskommt - es ist entweder über- oder unterlernend. Überlernen ist wahrscheinlicher. Folglich wirkt sich eine Erhöhung der Zahl der Neuronen negativ auf den künftigen Betrieb des Neuronetzes aus.

Haben Sie als erfahrener Praktiker die Grenzen kennengelernt? Was ist Ihrer Meinung nach die optimale Größe der Trainingsmenge, Struktur und Anzahl der Eingaben?

 
StatBars >> :

Wenn es kein Geheimnis ist, welches ist es dann?

Wenn Sie neuronale Netze nehmen, sind neuronale Netze mit Kernel-Approximation besser, sie lernen schnell.

 
LeoV >> :

Dies ist praktisch eine grundlegende Sache für neuronale Netze. Ich habe versucht, dieses Problem anzusprechen, aber wie sich herausstellt, sind nicht viele daran interessiert. Ich interessiere mich mehr für die Architektur und die Raffinesse neuronaler Netze, obwohl gerade diese Frage schon vor langer Zeit gelöst wurde und es keinen Sinn hat, ihr nachzugehen. Die Erhöhung der Anzahl der Neuronen in einer versteckten Schicht führt zu einer Erhöhung des Stichprobenumfangs - die Erhöhung des Stichprobenumfangs führt zu einem Untertraining des Netzes, da es zu viele Regeln für größere historische Stichproben gibt, die das Netz nicht verstehen und lernen kann. Das Ergebnis ist, dass es in einem lokalen Minimum stecken bleibt, aus dem es nicht mehr herauskommt - es ist entweder über- oder unterlernend. Es ist wahrscheinlicher, dass sie übertrainiert ist. Folglich wirkt sich die Erhöhung der Anzahl der Neuronen negativ auf die künftige Funktionsweise des neuronalen Netzes aus.

Das Netz findet fast immer ein lokales Minimum, das in der Regel tief genug und minimal notwendig ist, um eine bestimmte Aufgabe zu lösen. Was die verborgene Schicht betrifft, so hängt alles von der Dimensionalität der Eingabeparameter ab, die im Wesentlichen die Komplexität eines zu lösenden Problems darstellen. D.h. es kann sein, dass es nicht genügend Neuronen in der versteckten Schicht gibt, oder dass es nicht genügend Beispiele für eine bestimmte Dimensionalität der Eingaben gibt. Es ist also notwendig, Tests durchzuführen, bei denen die Anzahl der Neuronen in der versteckten Schicht schrittweise erhöht wird, beginnend mit dem ersten Neuron und so weiter, bis der erforderliche Generalisierungsfehler erreicht ist.

 

Angenommen, wir haben eine einparametrige Abhängigkeit wie y(x)=F(x), wobei uns die allgemeine Form dieser Abhängigkeit F nicht bekannt ist und die Preisreihe bzw. die Abhängigkeit des erwarteten Preisanstiegs vom Wert einiger unserer Indikatoren erzeugt. In dieser Situation können wir davon ausgehen, dass die Abhängigkeit linear ist, und wenn wir mehrere frühere Werte der Preissteigerungen y[i] und der Indikatorwerte x[i] kennen, können wir das Problem der Suche nach der optimalen (im Sinne der geringsten Abweichung) linearen Annäherung an das unbekannte Gesetz F durch das Polynom ersten Grades y(x)=a*x+b leicht lösen. Dann werden die Koeffizienten a und b nach der Methode der kleinsten Quadrate gesucht und sind gleich:

Wir können noch weiter gehen und die unbekannte Abhängigkeit (Gesetz) durch ein Polynom zweiten Grades y(x)=a2*x^2+a1*x+a0 oder sogar n-ten Grades approximieren! Aber all dies bezieht sich auf die Funktion einer Variablen oder, in unserem Fall, eines Indikators... Wenn wir davon ausgehen, dass wir zwei Indikatoren verwenden werden, ist es bereits schwieriger, eine analytische Lösung für die Annäherung der Eingabedaten durch eine Ebene (Funktion zweier Variablen) zu erhalten, und wir können keinen analytischen Ausdruck mehr für die nächstgelegene Fläche n-ter Ordnung zu F(x1,x2) im Falle eines zunehmenden Grades des Polynoms finden. Dieses Problem lässt sich jedoch leicht durch NS mit zwei Eingängen x1,x2, einer versteckten Schicht und genügend Neuronen darin lösen. Außerdem erhöhen wir die Anzahl der Eingaben auf 10-20 und haben eine Gipper-Oberfläche beliebiger Ordnung im 10-20-dimensionalen Merkmalsraum - ein Traum!

Tatsächlich basiert unsere Wahrnehmung der Welt auf demselben Prinzip - wir bauen unbewusst einige Oberflächen in unserem Kopf auf, die die Realität - unsere Erfahrung - optimal widerspiegeln. Jeder Punkt auf einer solchen imaginären Blattfläche ist eine verantwortungsvolle Entscheidung in der einen oder anderen Lebenssituation, nicht immer genau, aber fast immer optimal...

Richtig, ich übertreibe ein wenig. Kurzum, es ist schwierig, wenn nicht gar unmöglich, sich etwas Besseres als Neuronka für die Preisanalyse vorzustellen, außer für Insiderinformationen.

Grund der Beschwerde: