Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2829

 
Sicherlich nicht an einer ptu oder mit liberalen Werten.
 
СанСаныч Фоменко #:

Wir verwenden Algorithmen des Gradientenabstiegs, der im Allgemeinen nicht für Neuronen geeignet ist und der einen riesigen Bart hat. Wir googeln es und stellen keine kindischen Fragen, nachdem wir gelernt haben, wie der Gradientenabstieg verschiedene Arten von Fallen mit lokalen Extrema überwindet. Das ist etwas, was die Leute schon seit Jahren gezielt tun.

Sie wurden gebeten, das Lernen/Optimieren an einigen repräsentativen Funktionen zu testen, das ist eine gute Übung.

Wenn Sie glauben, dass neuronale Netze dies perfekt tun, liegen Sie wahrscheinlich falsch.

 
Maxim Dmitrievsky #:

Es wurde vorgeschlagen, das Lernen und die Optimierung an einigen repräsentativen Funktionen zu testen, was eine gute Praxis ist.

Wenn Sie glauben, dass neuronale Netze dies perfekt tun, liegen Sie wahrscheinlich falsch.

Ja... offen gesagt bin ich überrascht, dass nicht jeder einfache Wahrheiten angemessen wahrgenommen hat - alles sollte getestet werden, und der Glaube an Dogmen, die von jemandem geäußert werden, bedeutet Stagnation und Verschlechterung.

und gradient descent und bekprop sind so uralte und erbärmliche methoden, dass es seltsam ist, dass sie von manchen leuten noch ernst genommen werden können.

übrigens ist genetics heutzutage nicht der robusteste algorithmus. er sollte in die tabelle aufgenommen werden, weil... Nun, nur um klarzustellen, dass es immer Raum für Verbesserungen gibt.

 
Andrey Dik #:

Ja... ehrlich gesagt bin ich überrascht, dass nicht jeder die einfachen Wahrheiten angemessen wahrgenommen hat - alles sollte überprüft werden, und der Glaube an Dogmen, die von jemandem geäußert werden, bedeutet Stagnation und Degradierung.

und Gradient Descent und Bekprop sind so uralte und erbärmliche Methoden, dass es seltsam ist, dass sie immer noch von irgendjemandem ernst genommen werden können.

Die Wahrnehmung dort ist spezifisch, auf der Ebene des Kargo-Kultes und des Glaubens an das göttliche R, das die Gaben der Zivilisation bringt.

 

Einerseits ist Lernen ein Spezialfall der Optimierung, andererseits gibt es aber auch einige Besonderheiten.

1) Die Optimierung in der MO impliziert in der Regel eine Optimierung in einem unendlich-dimensionalen Funktionsraum. Dies geschieht in expliziter Form( z.B.Gradientenbusting), kann aber auch implizit sein. Dies führt zu einer unglaublichen Flexibilität der Modelle, aber die Klarheit und Einfachheit, die man bei der endlichen Optimierung findet, geht verloren. So kann sich beispielsweise jedes Extremum in einem endlich-dimensionalen Unterraum als Sattelpunkt in einem Unterraum höherer Dimensionalität (die beliebig hoch sein kann) erweisen.

2) Es wird ein endlicher Satz von gut funktionierenden Verlustfunktionen verwendet. Dies vermeidet die Probleme, die sich aus dem ersten Punkt ergeben. Wenn man die Verlustfunktion jedoch anpassen möchte, ist dies entweder unmöglich oder sehr schwierig.

 
Aleksey Nikolayev #:

Einerseits ist das Lernen...

Alexej, weißt du etwas über die Optimierung einer verrauschten Funktion?
 
Es gibt eine vollständige Suche und es gibt eine Optimierung. Sie wird benötigt, um die Zeit bis zum Finden einer optimalen Lösung zu verkürzen. Da das so ist, ist es immer ein Kompromiss. Man kann mit der stochastischen Gradientenmethode optimieren und erhält ein besseres Ergebnis als mit Adam, muss aber Zeit opfern. Und man muss sich entscheiden. Bei manchen Aufgaben kann die Genauigkeit wichtiger sein als die Geschwindigkeit, zum Beispiel, um die Erwartung von TC zu erhöhen.
Hier ist es interessant, sich die visuellen Ergebnisse anzusehen.
 
Andrey Dik #:

Das ist furchtbar.

Der Horror ist, dass eine Person zu Artikeln über Optimierung kommt und das Thema nicht einmal zu 20% kennt, so dass sie das allgemeine Wissen nicht erkennt und davon überrascht wird....

Das Grauen ist, dass Menschen mit noch weniger Qualifikation sich Eiter in den Kopf schütten und es für das Wissen von Gurus halten, das Ergebnis ist ein Haufen intellektueller Krüppel ...


Und alle Arten von Nicht-Gurus stimmen fröhlich zu, weil sie bereits verkrüppelt sind und selbst Eiter in ihre Köpfe gießen, indem sie ihre Egos als Artikel bezeichnen....

das ist das wahre Grauen!!!

 
Du solltest deinen Rotz kauen, bevor du pathetische Reden schwingst, ptuschik.

So gut ist das nicht.
 
mytarmailS #:

Das Schlimme ist, dass eine Person zu Artikeln über die Optimierung kommt und das Thema nicht einmal zu 20% kennt, so dass sie das allgemeine Wissen nicht erkennt und davon überrascht wird....

Das Grauen ist, dass Menschen mit noch weniger Qualifikation Eiter in ihre Köpfe schütten, es für Wissen von Gurus halten, das Ergebnis ist ein Rudel intellektueller Krüppel....

Sie sollten besser schweigen, dann wirken Sie viel klüger oder zumindest besser erzogen.