Uso de redes neuronales en el comercio. - página 12

 
registred >> :

... ¿Qué, nadie ha resuelto el problema de las redes neuronales en Forex?

¿Por qué nadie?

Los que se hayan decidido, que se callen :)

1.

2.

Y el resto tiene que trabajar con neuronas proteicas :(

 
goldtrader >> :

¿Por qué nadie?

Los que se han decidido se callan :)

1.

2.

Y el resto tiene que trabajar con neuronas proteicas :(

Así que lo que se discute aquí es inútil, resulta de hecho... Personalmente no he utilizado neuronas en forex, he tratado con ellas en otros asuntos. Me gustaría probarlos para comerciar, por así decirlo, pero aún no tengo tiempo. Por eso no puedo decir nada en relación con el mercado de divisas. El entrenamiento de una red es algo muy complejo. Quiero decir que a menudo es muy difícil encontrar una generalización cualitativa, por supuesto, hay que realizar muchos experimentos aumentando el número de neuronas en la capa oculta, aumentando el tamaño de la muestra, mirar cómo la red queda atrapada en un mínimo local poco profundo e intentar sacarla de ahí. Y después de todo esto puede ocurrir que no pase nada. En general, tienen muchas dificultades.

 
registred >> :

Así que lo que se discute aquí es inútil, resulta realmente...

En mi post anterior, en los números 1 y 2, hay enlaces que no has seguido, a juzgar por tu respuesta.

Los asesores de la red neural están operando allí.

La NS no es la herramienta más fácil para obtener beneficios en los mercados financieros, pero funciona bien en las manos adecuadas.

 
goldtrader >> :

En mi post anterior, en los números 1 y 2, hay enlaces que no has seguido, a juzgar por tu respuesta.

Ahí es donde operan los asesores de redes neuronales.

La NS no es la herramienta más fácil para obtener beneficios en los mercados financieros, pero funciona bien en manos hábiles.

Lo era, a menudo paso por allí en euroflood. Tengo mis propios sistemas de predicción, no están basados en redes neuronales. En realidad, las redes neuronales son un tema interesante. Sé aproximadamente lo que requeriría de una red, es sólo que, como dije, no tengo tiempo para toda esta programación todavía. Además, estoy contento con mi sistema hasta ahora. La dificultad estriba en la configuración de toda esta red neuronal. Como he dicho, se tarda mucho en aprender. Yo aplicaría otras cosas además del método de gradiente de optimización.

 
registred писал(а) >>

Yo aplicaría otras cosas además del método de optimización del gradiente.

Si no es un secreto, ¿cuál?

 
registred писал(а) >> La formación en red es algo muy complicado. Puedes hacer que una red esté sobreentrenada, infraentrenada, es decir, suele ser difícil encontrar una generalización cualitativa, tienes que hacer muchos experimentos aumentando el número de neuronas en una capa oculta, aumentando el propio tamaño de la muestra, mirar cómo la red entra en un mínimo local poco profundo e intentar sacarla de ahí. Y después de todo esto puede ocurrir que no pase nada. En general, son muy complejas.

Esto es prácticamente algo fundamental para las redes neuronales. He intentado plantear este problema, pero resulta que no hay mucha gente interesada en él. Me interesa más la arquitectura y la sofisticación de las redes neuronales, aunque justo esta cuestión se ha resuelto hace tiempo y resulta que no tiene sentido perseguirla. El aumento de neuronas en una capa oculta lleva a un aumento del tamaño de la muestra - el aumento del tamaño de la muestra lleva a un subentrenamiento de la red, ya que hay demasiadas reglas en una muestra histórica más grande que la red no puede entender y aprender. Como resultado, se queda atascado en algún mínimo local del que es imposible salir: está sobreaprendiendo o subaprendiendo. Es más probable que esté sobreentrenado. En consecuencia, el aumento del número de neuronas afecta negativamente al funcionamiento de la red neuronal en el futuro.

 
LeoV писал(а) >>

Esto es prácticamente algo fundamental para las redes neuronales. He intentado plantear este problema, pero resulta que no hay mucha gente interesada en él. Me interesa más la arquitectura y la sofisticación de las redes neuronales, aunque justo esta cuestión se ha resuelto hace tiempo y resulta que no tiene sentido perseguirla. El aumento de neuronas en una capa oculta lleva a un aumento del tamaño de la muestra - el aumento del tamaño de la muestra lleva a un subentrenamiento de la red, ya que hay demasiadas reglas en una muestra histórica más grande que la red no puede entender y aprender. Como resultado, se queda atascado en algún mínimo local del que es imposible salir: está sobreaprendiendo o subaprendiendo. El sobreaprendizaje es más probable. Como resultado, el aumento del número de neuronas afecta negativamente al funcionamiento de la red neuronal en el futuro.

Como profesional experimentado, ¿ha llegado a los límites? ¿Cuál es, en su opinión, el tamaño óptimo del conjunto de entrenamiento, la estructura y el número de entradas?

 
StatBars >> :

Si no es un secreto, ¿cuál es?

Si tomas las redes neuronales, las redes neuronales de aproximación del núcleo son mejores, aprenden rápidamente.

 
LeoV >> :

Esto es prácticamente algo fundamental para las redes neuronales. He intentado plantear este problema, pero resulta que no hay mucha gente interesada en él. Me interesa más la arquitectura y la sofisticación de las redes neuronales, aunque justo esta cuestión se ha resuelto hace tiempo y resulta que no tiene sentido perseguirla. El aumento de las neuronas en una capa oculta lleva a un aumento del tamaño del muestreo - el aumento del tamaño del muestreo lleva a un subentrenamiento de la red, ya que hay demasiadas reglas en un muestreo histórico mayor que la red no puede entender y aprender. Como resultado, se queda atascado en algún mínimo local del que es imposible salir: está sobreaprendiendo o subaprendiendo. Es más probable que esté sobreentrenado. Como resultado, el aumento del número de neuronas afecta negativamente al funcionamiento de la red neuronal en el futuro.

La red casi siempre encuentra un mínimo local, suele ser lo suficientemente profundo y mínimamente necesario para resolver una tarea determinada. En cuanto a la capa oculta, todo depende de la dimensionalidad de los parámetros de entrada, que representan esencialmente la complejidad de un problema a resolver. Es decir, puede que no haya suficientes neuronas en la capa oculta, o que no haya suficientes ejemplos para una dimensionalidad dada de entradas. En una palabra, es necesario realizar pruebas, aumentando gradualmente el número de neuronas en la capa oculta desde la 1ª neurona y así sucesivamente, hasta alcanzar el error de generalización requerido.

 

Supongamos que tenemos alguna dependencia de un solo parámetro, como y(x)=F(x), donde la forma general de esta dependencia F nos es desconocida y que genera la serie de precios, o mejor dicho, la dependencia del incremento de precios esperado de la lectura de alguno de nuestros indicadores. En esta situación podemos suponer que la dependencia es lineal, por ejemplo, y conociendo varios valores anteriores de los incrementos de precio y[i] y de las lecturas del indicador x[i], podemos resolver fácilmente el problema de buscar la aproximación lineal óptima (en el sentido de la menor desviación) de la ley desconocida F por el polinomio de primer grado y(x)=a*x+b . Entonces, los coeficientes a y b se buscan por el método de mínimos cuadrados y son iguales:

Podemos ir más allá, y aproximar la dependencia (ley) desconocida por un polinomio de segundo grado y(x)=a2*x^2+a1*x+a0 o incluso ¡enésimo! Pero todo esto es para la función de una variable o, en nuestro caso, un indicador... Si esperamos utilizar dos indicadores, la obtención de la solución analítica para la aproximación de los datos de entrada por el plano (función de dos variables) ya es más difícil, y ya no podemos encontrar la expresión analítica para la superficie de orden n más cercana a F(x1,x2) en caso de grado creciente del polinomio. Pero este problema se resuelve fácilmente con NS con dos entradas x1,x2, una capa oculta y suficientes neuronas en ella. Además, aumentamos el número de entradas a 10-20 y tenemos una superficie de gipper de orden arbitrario en un espacio de características de 10-20 dimensiones: ¡es un sueño!

De hecho, nuestra percepción del mundo que nos rodea se basa en el mismo principio: construimos inconscientemente en nuestra cabeza algunas superficies de gipper que reflejan la realidad y nuestra experiencia de forma óptima. Cada punto de esa hoja-superficie imaginaria es una decisión responsable en una u otra situación de la vida, no siempre exacta, pero casi siempre óptima...

¡Claro! Me estoy dejando llevar. En resumen, es difícil, si no imposible, pensar en algo mejor que Neuronka para el análisis de precios, excepto para la información privilegiada.

Razón de la queja: