L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3394

 
СанСаныч Фоменко #:

Sto guardando il mio codice.

Diversi modelli si trovano nel mezzo(?) di tutto il codice R. Se si tolgono i modelli dal codice R e li si mette da un'altra parte, si otterrebbe un codice completamente diverso che dovrebbe essere sottoposto a debug da capo!

E perché?

Esistono µl e R con un'ovvia separazione funzionale delle TC. Il pacchetto mcl e R funziona in modo stabile ..... e dove si colloca ONNX?

Cercate di vendere il vostro script sul mercato
 

Requiem per RL e ode al trasformatore causale

*Qualsiasi algoritmo RL può essere pensato come un qualsiasi ottimizzatore globale

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

 
Maxim Dmitrievsky #:

Requiem per RL e un'ode al trasformatore causale

*Qualsiasi algoritmo RL può essere percepito come un qualsiasi ottimizzatore globale.

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

Purtroppo... non c'è nemmeno schmooze

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

I LLM sono probabilmente i giocattoli preferiti dai linguisti in questo momento :)


 
Maxim Dmitrievsky #:
Stai dicendo che sei più figo di me?

visto che il compagno ha detto che è il Graal,

ti prego di darmi una valutazione obiettiva.

nelle informazioni del trailer

e link:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimisation Framework Using Neural Network and Genetic Algorithm (Rete Neurale e Algoritmo Genetico )

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 
Renat Akhtyamov #:

perché il compagno ha detto che è il Graal,

per favore, date una valutazione obiettiva

nelle informazioni sul trailer

e il link:

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimisation Framework Using Neural Network and Genetic Algorithm (Struttura di ottimizzazione basata su surrogati utilizzando reti neurali e algoritmo genetico )

È impossibile dire qualcosa quando non si sa cosa si sta ottimizzando e perché. Il metodo in sé va bene, ma può essere lento, come il metodo della discesa stocastica. Cioè, può richiedere molto tempo per convergere.

 
Maxim Dmitrievsky #:

È impossibile dire qualcosa quando non si sa cosa si sta ottimizzando e perché. Il metodo in sé va bene, ma può essere lento, come il metodo di discesa stocastica. Cioè, può richiedere molto tempo per convergere.

Algoritmi genetici + reti neurali = il meglio dei due mondi (skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

Si cappello

molto probabilmente

un compagno aveva un segnale che andava a livantos con successo naturale.

 
Renat Akhtyamov #:

molto probabilmente

un compagno ha avuto un segnale che è entrato nel livantos con successo naturale.

Prima dice che accelererà la curva di apprendimento. Poi dice che richiede molte risorse deducibili. Questo è il suo stile di informazione.


Di solito si usa l'ottimizzazione degli iperparametri su una griglia, NN+GA è diverso, i pesi devono essere raccolti tramite GA, non con un solutore standard come adam.

L'articolo nel link è confuso.