Discusión sobre el artículo "Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (Final)"
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese

.

Artículo publicado Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (Final):
Entrenaremos los 3 modelos en un punto temporal, mientras que los resultados de la prueba de la política entrenada del Actor serán los siguientes. El modelo se ha probado con datos históricos reales para enero de 2024, manteniendo los otros parámetros utilizados en el entrenamiento del modelo.
Pero antes, merece la pena decir unas palabras sobre el entrenamiento de modelos. En primer lugar, la optimización de SAM implicará suavizar el paisaje de la función de pérdida. Y esto, a su vez, nos permitirá considerar la posibilidad de utilizar una tasa de aprendizaje más elevada. Antes se utilizaba principalmente la tasa de aprendizaje de 3,0e-04 para entrenar los modelos, pero en este caso la aumentaremos a 1,0e-03.
Además, el uso de una sola capa de atención ha reducido el número de parámetros que había que entrenar y, al mismo tiempo, ha compensado el coste de repetir la pasada directa al realizar el algoritmo SAM para la optimización de los parámetros.
Autor: Dmitriy Gizlyk