Discusión sobre el artículo "Características del Wizard MQL5 que debe conocer (Parte 29): Continuación sobre las tasas de aprendizaje con MLP"

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Características del Wizard MQL5 que debe conocer (Parte 29): Continuación sobre las tasas de aprendizaje con MLP:
Concluimos nuestro análisis de la sensibilidad de la tasa de aprendizaje al rendimiento de los Asesores Expertos examinando principalmente las Tasas de Aprendizaje Adaptativo. Estas tasas de aprendizaje pretenden personalizarse para cada parámetro de una capa durante el proceso de entrenamiento, por lo que evaluamos los beneficios potenciales frente al peaje de rendimiento esperado.
Volvemos a examinar y concluimos nuestro análisis del papel que desempeñan los distintos formatos de tasas de aprendizaje en el rendimiento del Asesor Experto examinando las tasas de aprendizaje adaptativo y la tasa de aprendizaje de un ciclo. El formato de este artículo seguirá el enfoque que teníamos en el último artículo al tener informes de pruebas en cada sección de formato de tasa de aprendizaje en lugar de al final del artículo.
Antes de entrar en materia, nos gustaría mencionar otras consideraciones críticas sobre el diseño del aprendizaje automático que pueden influir enormemente en el rendimiento de un modelo. Una de ellas es la normalización por lotes de los datos de entrada. Ya he mencionado este tema en artículos anteriores sobre por qué es importante, sin embargo, nuestro próximo artículo se centrará directamente en este tema. Por ahora, sin embargo, al diseñar el modo y formato de una red, la normalización por lotes se considera junto con los algoritmos de activación que empleará el modelo o la red. Por ejemplo, a diferencia de las activaciones TANH o sigmoidea, que producen resultados en los rangos de -1,0 a +1,0 y de 0,0 a 1,0 respectivamente, la activación suave puede producir a menudo resultados que no superen la prueba de validez y, por tanto, invalidar el proceso de formación y previsión.
Autor: Stephen Njuki