Discusión sobre el artículo "Un nuevo enfoque para los criterios personalizados en las optimizaciones (Parte 1): Ejemplos de funciones de activación"

 

Artículo publicado Un nuevo enfoque para los criterios personalizados en las optimizaciones (Parte 1): Ejemplos de funciones de activación:

El primero de una serie de artículos que analizan las matemáticas de los criterios personalizados, con especial atención a las funciones no lineales utilizadas en las redes neuronales, el código MQL5 para su implementación y el uso de compensaciones específicas y correccionales.

La capacidad de definir un criterio personalizado, e incluso utilizar el criterio complejo con su metodología opaca, ha introducido la posibilidad de reducir el análisis sintáctico o, al menos, el análisis de los resultados en Excel, Python, R o en software propietario, para obtener la mejor permutación de parámetros.

El problema es que todavía no es raro ver el uso de return(0) en criterios personalizados publicados. Esto conlleva peligros reales o potenciales, entre ellos la posibilidad de descartar resultados (apenas) no deseados o, lo que es peor, desviar el proceso de optimización genética de vías potencialmente productivas.

En un intento por volver a algunos principios básicos, tras realizar algunos experimentos muy empíricos, traté de encontrar algunas ecuaciones de curvas. Para ello, consulté la publicación «Activation Functions in Neural Networks» y adopté y modifiqué algunas para utilizarlas aquí. Además, tras haberlos aclarado, he sugerido algunos métodos para ponerlos en práctica.

El plan para esta serie de artículos es el siguiente:

  1. Introducción y funciones de activación estándar con código MQL5
  2. Modificaciones, escalado y ponderación, y ejemplos reales.
  3. Una herramienta para explorar diferentes curvas, escalas y ponderaciones.
  4. Cualquier otro punto que surja...


Autor: Andrew Thompson