Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3394

 
СанСаныч Фоменко #:

Ich schaue mir meinen Code an.

Mehrere Modelle befinden sich in der Mitte(?) des gesamten R-Codes. Wenn Sie die Modelle aus dem R-Code herausnehmen und woanders unterbringen, wäre es ein völlig anderer Code, der noch einmal von Grund auf neu getestet werden müsste!

Und warum?

Es gibt µl und R mit offensichtlicher funktionaler Trennung der TCs. Das Bündel mcl und R funktioniert stabil ..... und wo gehört ONNX hier hin ?

Versuchen Sie, Ihr Skript auf dem Marktplatz zu verkaufen
 

Requiem für RL und Ode an den Kausaltransformator

*jeder RL-Algorithmus kann als globaler Optimierer betrachtet werden

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

 
Maxim Dmitrievsky #:

Requiem für RL und eine Ode an den Kausaltransformator

*jeder RL-Algorithmus kann als beliebiger globaler Optimierer aufgefasst werden

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

Leider ... auch kein Schwätzer

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

LLMs sind derzeit wahrscheinlich das Lieblingsspielzeug von Linguisten :)


 
Maxim Dmitrievsky #:
Willst du damit sagen, dass du cooler bist als ich?

Da der Kumpel sagte, es sei der Gral,

gib mir bitte eine objektive Einschätzung.

in den Trailer-Informationen

und Link:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: Ein Surrogat-basierter Optimierungsrahmen unter Verwendung von Neuronalen Netzwerken und Genetischen Algorithmen

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 
Renat Akhtyamov #:

weil der Kumpel sagte, es sei der Gral,

bitte eine objektive Bewertung abgeben

in der Trailer-Info

und Link:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: Ein Surrogat-basierter Optimierungsrahmen unter Verwendung von Neuronalen Netzwerken und Genetischen Algorithmen

Es ist unmöglich, etwas zu sagen, wenn man nicht weiß, was optimiert wird und warum. Die Methode selbst ist gut, aber sie kann langsam sein, wie die stochastische Abstiegsmethode. Das heißt, es kann sehr lange dauern, bis sie konvergiert.

 
Maxim Dmitrievsky #:

Es ist unmöglich, etwas zu sagen, wenn man nicht weiß, was optimiert wird und warum. Die Methode selbst ist gut, aber sie kann langsam sein, wie die stochastische Abstiegsmethode. Das heißt, es kann sehr lange dauern, bis sie konvergiert.

Genetische Algorithmen + neuronale Netze = das Beste aus beiden Welten (skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

Ja Hut

höchstwahrscheinlich

ein Kumpel hatte ein Signal, das mit natürlichem Erfolg an Livantos ging.

 
Renat Akhtyamov #:

höchstwahrscheinlich

ein Kumpel hatte ein Signal, das mit natürlichem Erfolg in die Livantos ging.

Erst heißt es, es würde die Lernkurve beschleunigen. Dann heißt es, dass es eine Menge absetzbarer Ressourcen benötigt. Das ist Ihre Art von Information.


Normalerweise wird Hyperparameter-Optimierung über ein Gitter verwendet, NN+GA ist anders, dort sollten die Gewichte über GA ermittelt werden, nicht über einen Standard-Solver wie Adam.

Der Artikel im Link ist verwirrend.