Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2301

[Eliminado]  

Hay algunas características que, curiosamente, dificultan la generalización (me refiero al catbust en particular, probablemente también se aplique a otros). Parece extraño, porque simplemente se añaden nuevas características, y el modelo produce más errores que sin ellas.

por ejemplo, se entrenó con unas cuantas mezclas, luego se eliminaron algunas y la precisión fue mayor

 
mytarmailS:

No, una capa es primitiva, es sólo una multiplicación de peso

Esa es tu teoría.

no la mía.

 
Maxim Dmitrievsky:

Hay algunas características que, curiosamente, dificultan la generalización (me refiero al catbust en particular, probablemente también se aplique a otros). Parece extraño, porque simplemente se añaden nuevas características, y el modelo produce más errores que sin ellas.

Por ejemplo, me entrené con algunas mezclas, luego eliminé algunas y el error fue mayor

Hace tiempo describí este efecto

https://www.mql5.com/ru/blogs/post/725189

Se detecta mediante un reentrenamiento completo del modelo.

Es el ruido que perturba su trabajo.

Еще про оценку предикторов
Еще про оценку предикторов
  • www.mql5.com
Пробую оценить важность предикторов для обученного леса, удаляя 1 из них и обучая лес снова. После чего из ошибки полного леса вычитаю ошибку леса c удаленным  предиктором. Если ошибка
[Eliminado]  
elibrarius:

Hace mucho tiempo se describió tal efecto

https://www.mql5.com/ru/blogs/post/725189

Identificado por un reentrenamiento completo del modelo.

Es el ruido, que se interpone en el camino.

Sí, pero aquí puedes ver cómo interactúan las características. Lástima que esté ligado a un marco específico de MO

porque la importancia puede ser subestimada por la multicolinealidad.

Por supuesto, no es bueno buscar a mano cuando hay tantas señales
 
mytarmailS:

No, una capa es primitiva, es sólo una multiplicación de peso

Esa es tu teoría.

Aquí está: el teorema de Tsybenko.

La fórmula presentada y = x1/x2. - es continua y sólo bidimensional.


https://www.mql5.com/ru/code/9002

Recomendaciones:

  • Una red con tres capas (numLayers=3: una de entrada, una oculta y una de salida) suele ser suficiente en la gran mayoría de los casos. Según el teorema de Tsybenko, una red con una capa oculta es capaz de aproximar cualquier función continua multidimensional con cualquier grado de precisión deseado. Una red con dos capas ocultas es capaz de aproximar cualquier función discreta multidimensional.
Ценовой прогноз с использованием нейронных сетей
Ценовой прогноз с использованием нейронных сетей
  • www.mql5.com
Индикатор, который использует нейронные сети для прогнозирования ближайших нескольких цен открытия. Сеть обучается методом обратного распространения ошибки. Обучение проходит автоматически, результат — самообученная сеть и самообучающийся индикатор.
 
elibrarius:

La fórmula presentada y = x1/x2. - es continua y sólo bidimensional.

¿Es discreto o continuo?

 
mytarmailS:

¿Es discreto o continuo?

Es continuo. ¿Tiene huecos y agujeros? ¿Has mirado el dibujo de ejemplo?


 
elibrarius:

Continuo. ¿Tiene huecos y agujeros? ¿Has mirado el dibujo de ejemplo?

Sí....

Una función continua es unafunción que cambia sin "saltos" momentáneos (llamadoshuecos), es decir, aquella cuyos pequeños cambios enel argumento conducen a pequeños cambios en el valor de la función.La gráfica de una función continua es unalínea continua.

 
mytarmailS:

Sí....

Una función continua es unafunción que cambia sin "saltos" instantáneos (llamadosdiscontinuidades), es decir, aquella cuyos pequeños cambios en el argumento dan lugar a pequeños cambios en el valor de la función.La gráfica de una función continua es unalínea continua.

¿En qué momento se rompey = x1/x2?
 
elibrarius:
¿Dónde se interrumpey = x1/x2?

x2=0