Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2828

 
Ja, ich werde mir Adam in Ruhe ansehen und ein paar Tests machen.
 
Andrey Dik #:
Ja, ich werde mir adam mal in Ruhe anschauen und ein paar Tests machen.
Die Artikel sind top, nur nicht qualifiziert genug, um etwas zu behaupten :)
 
Maxim Dmitrievsky #:
Die Artikel sind top, nur nicht qualifiziert, etwas zu beanstanden :)

danke))))

dann sehe ich die Notwendigkeit, auch Algorithmen, die traditionell mit Neuronen verwendet werden, in die Überprüfung einzubeziehen.

 
Andrey Dik #:

In der Praxis bedeutet dies, dass das Neuron nicht ausreichend trainiert wird.

Nun, das ist nur ein kleiner Nachtrag.

Es gibt verschiedene Arten von AO, lokale Optimierung und globale Optimierung...

lokal sind Gradienten, derselbe Adam usw., global ist Genetik usw.

Netze werden mit lokaler AO trainiert, weil es schnell ist, "es gibt eine Menge Gewichte".

und es ist einfach nicht effektiv, globale AO zu trainieren...


Und die Hauptsache ist, dass man, wenn man ein normales Neuron, das etwa eine Milliarde Gewichte hat, mit globaler AO trainiert, erstens sehr lange warten muss und zweitens in keiner Weise garantieren kann, dass man ein globales Minimum gefunden hat....

Dieses ganze Gerede ist also eine Entweihung des reinen Wassers, SUPER naiver Glaube, dass diejenigen, die Deep Learning entwickelt haben, keine Ahnung von globalen Optimierungsalgorithmen und ihren Eigenschaften haben, das ist so offensichtlich, dass es nicht einmal lustig ist....


Sie werden lernen, globale Optimierungsalgorithmen von lokalen Optimierungsalgorithmen zu unterscheiden, und dann gibt es die diskrete Optimierung, die kontinuierliche Optimierung, die multikriterielle Optimierung usw. ....

Und jeder von ihnen hat seine eigenen Aufgaben, alles auf einen Haufen zu werfen und irgendetwas zu testen ist Profanierung.

 
mytarmailS #:

Nun, das ist ein bisschen ein nachträglicher Einfall.

Es gibt verschiedene Arten von AO, lokale Optimierung und globale Optimierung...

lokal ist Gradienten, die gleiche Adam, usw. global ist Genetik, usw...

Netze werden lokal trainiert, weil das schnell ist, "es gibt viele Skalen".

und es ist einfach nicht effizient, globale AOs zu trainieren...


Und die Hauptsache ist, dass man, wenn man ein normales Neuron, das etwa eine Milliarde Gewichte hat, mit globaler AO trainiert, erstens sehr lange warten muss und zweitens in keiner Weise garantieren kann, dass man das globale Minimum gefunden hat....

Dieses ganze Gerede ist also eine Entweihung des reinen Wassers, SUPER naiver Glaube, dass diejenigen, die Deep Learning entwickelt haben, keine Ahnung von globalen Optimierungsalgorithmen und ihren Eigenschaften haben, das ist so offensichtlich, dass es nicht einmal lustig ist....

Es ist furchtbar.

Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.

Es gibt hochspezialisierte Vergleiche traditioneller AOs für Neuronen, man kann danach suchen. Algorithmen werden in der Regel für bestimmte Aufgaben verwendet, aber ausnahmslos alle Algorithmen können in Bezug auf die Konvergenzqualität verglichen werden.

 
Andrey Dik #:

danke)))

dann sehe ich die Notwendigkeit, auch die Algorithmen, die traditionell mit Neuronen verwendet werden, in die Überprüfung einzubeziehen.

Ich habe einmal gelesen, dass, wenn sich der Fehler über mehrere Zyklen hinweg nicht wesentlich ändert, d. h. um ein Extremum herum, ein starker Parametersprung gemacht wird, um zu prüfen, ob er lokal ist, um aus diesem Extremum herauszuspringen. Wenn er lokal ist, wird er bei den nächsten Sprüngen nicht dorthin zurückkehren, wenn er global ist, wird er zurückkehren. Das kann man mehrmals wiederholen. Im Allgemeinen ist es notwendig, den Raum weiter zu erkunden.
 
Andrey Dik #:

Das ist furchtbar.

Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.

Es werden Gradientenabstiegsalgorithmen verwendet, die im Allgemeinen nicht für Neuronen geeignet sind, und die einen riesigen Bart haben. Googeln Sie es und stellen Sie keine kindischen Fragen, nachdem Sie gelernt haben, wie der Gradientenabstieg verschiedene Arten von Fallen mit lokalen Extrema überwindet. Das ist etwas, was die Leute schon seit Jahren gezielt tun.

 
elibrarius #:
Ich habe einmal gelesen, dass, wenn sich der Fehler einige Zyklen lang nicht wesentlich ändert, d. h. um ein Extremum kreist, zur Überprüfung, ob er lokal ist, ein starker Sprung in den Parametern gemacht wird, um aus diesem Extremum herauszuspringen. Wenn es lokal ist, kehrt es bei den nächsten Sprüngen nicht dorthin zurück, wenn es global ist, kehrt es zurück. Das kann man mehrmals wiederholen. Im Allgemeinen müssen Sie den Raum weiter ausdehnen.
Ja, das stimmt. Das ist ein Weg, um nicht stecken zu bleiben. Übrigens habe ich mir neulich Levis Flug angesehen, der zu diesem Thema gehört.
 
Hier ein interessanter Vergleich, z. B. Adam vs. Genetik oder Ameisenstaat, zum Beispiel. Ein Händler könnte vor einem Dilemma stehen: Was soll er verwenden, MT5-Optimierer oder NS. Selbst wenn er sich für etwas entscheidet, wird er den effizientesten Algorithmus wählen wollen
 
Andrey Dik #:

Das ist furchtbar.

Es gibt keine Unterteilung von Algorithmen in "lokal" und "global". Wenn ein Algorithmus in einem der lokalen Extrema stecken bleibt, ist das ein Fehler, keine Eigenschaft.

Es gibt hochspezialisierte Vergleiche traditioneller AOs für Neuronen, Sie können danach suchen. Algorithmen werden in der Regel für bestimmte Aufgaben verwendet, aber alle Algorithmen ohne Ausnahme können in Bezug auf die Konvergenzqualität verglichen werden.

Nun, es sind alle 5 )))))))))

Waren Sie auf der gleichen Universität wie Maximka?