Asesores en redes neuronales, compartiendo experiencias. - página 3

 
Maxim Dmitrievsky:

Nadie me lo propuso, sólo me pareció interesante).

Nadie discute que sea interesante.

Pero no puedes saltarte unos pasos en el aprendizaje de una especialidad, no servirá de nada...

Una red neuronal, por sí misma, no dará el "resultado correcto" - no es una varita mágica. Se necesita la idea correcta de una estrategia de negociación, que dará un resultado decente incluso sin una red neuronal...

 
Serqey Nikitin:

Nadie discute que sea interesante.

Pero no puedes saltarte unos cuantos escalones en la enseñanza de una especialidad, no servirá de nada...

Una red neuronal por sí misma no le dará el "resultado correcto", no es una varita mágica. Necesita la idea correcta de una estrategia de negociación, que dará un resultado decente incluso sin una red neuronal...

No estoy discutiendo la idea, por supuesto que es necesaria. Pero una red neuronal también ayudará a probar rápidamente una idea, o al menos a encontrar formas de avanzar. Yo, por ejemplo, ya veo que 11 entradas de osciladores estándar, que todos muestran +- lo mismo, no da nada. Exactamente igual que puede operar con una sola entrada.

Tienes razón en lo de los saltos, no es para nada mi especialidad, ni siquiera soy matemático o programador. Afortunadamente, basta con entender de forma figurada lo que es una red neuronal y lo que hace, porque ya existen soluciones preparadas, como esta clase. Y luego sólo tienes que experimentar, utilizando tu conocimiento del mercado para probar algunas ideas.

 
Алексей:

Voy a buscar mi tema de la red neuronal ahora.... Fue en el cuatro y hace mucho tiempo.

http://forum.mql4.com/ru/38550

La entrada era la diferencia de precio con cierto desfase (del orden de unas horas). El resultado es una previsión para varias horas por delante binaria más o menos.

Todas las redes se obtuvieron mediante la fuerza bruta de la arquitectura.

El principal problema fue pegar varias pruebas de avance. Esto debería automatizarse de forma adecuada.

De todo esto entendí que lo más importante son las entradas correctas, debemos pensar en ello... Algún tipo de dependencia oculta es bastante difícil de encontrar con una red neuronal, hay que tener una idea de alguna dependencia inicialmente y luego procesarla con una red.
 
Maxim Dmitrievsky:
De todo esto entendí que lo más importante son los aportes correctos, debo pensar en ello... Es bastante difícil encontrar algún tipo de dependencia oculta con una red neuronal, hay que tener una idea de algún tipo de dependencia inicialmente y luego procesarla con una red.

Sobre las entradas, sí. Pero la cuestión es que no se puede hacer un conjunto de entradas "buenas" a simple vista. ¿Cómo descubrirlos? Deberíamos hacer un montón de entradas y luego hacer un procedimiento de selección de un vector informativo de entradas. Y deberíamos entrenar la red en ello. Y si se encuentran entradas informativas (el 90% de los casos), entonces la red no es necesaria en absoluto porque el modelo puede basarse en un algoritmo de formación de reglas de algún tipo y no en una caja negra.

Sobre la dependencia. La red no permite conocer la forma de la dependencia. En primer lugar, no está destinado a este fin. Y de nuevo volvemos al punto anterior: es necesario encontrar características informativas y utilizarlas para construir reglas estadísticamente relevantes.

Si quieres descifrar te puedo decir más). Realmente estoy de servicio ahora y no puedo dedicar mucho tiempo a las explicaciones, pero es bueno, que hoy es viernes. ))

 
Алексей:

Sobre las entradas, sí. Pero la cuestión es que no se puede hacer un conjunto de entradas "buenas" a simple vista. ¿Cómo descubrirlos? Deberíamos hacer un montón de entradas y luego hacer un procedimiento de selección de un vector informativo de entradas. Y deberíamos entrenar la red en ello. Y si se encuentran entradas informativas (el 90% de los casos), entonces la red no es necesaria en absoluto porque el modelo puede basarse en un algoritmo de formación de reglas de algún tipo y no en una caja negra.

Sobre la dependencia. La red no permite conocer la forma de la dependencia. En primer lugar, no está destinado a este fin. Y de nuevo volvemos al punto anterior: es necesario encontrar características informativas y utilizarlas para construir reglas estadísticamente relevantes.

Si quieres descifrar te puedo decir más). Realmente estoy de servicio ahora y no puedo dedicar mucho tiempo a las explicaciones, pero es bueno, que hoy es viernes. ))

En realidad, mi idea era originalmente: entrenar las redes en diferentes plazos, y luego filtrar las señales de los pequeños por los grandes, es decir, para obtener la ventaja estadística en que teniendo en cuenta que las redes producirán algún porcentaje de entradas erróneas, digamos, 50 a 50. Las redes neuronales en sí mismas implican el procesamiento de una gran cantidad de datos, esa es su ventaja, por lo que se puede ir no de cualquier patrón cualitativo específico, sino para manchar un gran número de señales a través de la placa. Y no importa lo que ocurra en su interior, lo importante es que la red neuronal tratará de ordenarlo todo. Pero no podrás hacerlo sin OpenCl, te llevaría demasiado tiempo. Probablemente, necesitamos redes de tercera generación, como se describe en el artículo.

Sin embargo, por supuesto, sus comentarios son interesantes. Intentaré probar el indicador sugerido anteriormente. Emparejado con el zigzag (2 salidas), da algo incomprensible. Reduciré el número de entradas y lo dejaré sólo en la salida.

 
Maxim Dmitrievsky:
No he oído hablar de nadie que gane dinero fijo con muwings).
"Es cierto que hoy en día apenas se puede ganar dinero con los muwings. Pero, como filtro de señal, los muwings son bastante adecuados.
 
Serqey Nikitin:

Es consciente de que todos los patrones tienen un retraso con respecto a los indicadores de línea, en cuyo caso una red neuronal es inútil.

Hmm... En mi opinión, los patrones son la entrada más rápida. Cualquier oscilador es más lento. Y más aún para los muwings.
 
Maxim Dmitrievsky:

En general, tuve esta idea desde el principio: entrenar las redes en diferentes TFs, y luego filtrar las señales de los TFs pequeños por los grandes, es decir, obtener una ventaja estadística en esto, teniendo en cuenta que las redes producirán un cierto porcentaje de entradas erróneas, digamos, 50 a 50. Las redes neuronales en sí mismas implican el procesamiento de una gran cantidad de datos, esa es su ventaja, por lo que se puede ir no de cualquier patrón cualitativo específico, sino para manchar un gran número de señales a través de la placa. Y no importa lo que ocurra en su interior, lo importante es que la red neuronal tratará de ordenarlo todo. Pero no podrás hacerlo sin OpenCl, te llevaría demasiado tiempo. Probablemente, necesitamos redes de tercera generación, como se describe en el artículo.

Sin embargo, por supuesto, sus comentarios son interesantes. Intentaré probar el indicador sugerido anteriormente. Emparejado con el zigzag (2 salidas), da algo incomprensible. Reduciré el número de entradas y lo dejaré sólo en la salida.

Lea sobre la selección de atributos o características informativas. Alimentar la red con información oscura no es el mejor enfoque.

He aquí un ejemplo:

En el trabajo desarrollé un modelo clasificador binario para 10 variables discretas por entrada. Los seleccioné de forma inteligente a partir de 76 características. La predicción es la llamada mayoritaria - si la fracción de unos es fuertemente superada, entonces uno. La calidad del clasificador resultó no ser peor que la de un bosque aleatorio de 150 árboles utilizando todo mi vector de características de 76 variables. Además, el modelo simple construye reglas legibles para el ser humano, mientras que el bosque es una caja oscura.

Por cierto, se puede utilizar un perceptrón multicapa normal para seleccionar características analizando los pesos de una red entrenada. Probablemente sepa que la red aprende peor con entradas correlacionadas, con pares de entrada-salida que se contradicen. Por lo tanto, para descartar las malas aportaciones hay que cribarlas.

 
Алексей:
Lea sobre la selección de carteles informativos o características. No es un buen enfoque alimentar la red con mucha incertidumbre.

He aquí un ejemplo:

He desarrollado un modelo clasificador binario en el trabajo con 10 variables discretas como entradas. Los seleccioné de forma inteligente de entre 76 características. La predicción es la llamada mayoritaria - si la fracción de unos es fuertemente superada, entonces uno. La calidad del clasificador resultó no ser peor que la de un bosque aleatorio de 150 árboles utilizando todo mi vector de características de 76 variables. Además, el modelo simple construye reglas legibles para el ser humano, mientras que el bosque es una caja oscura.

Por cierto, se puede utilizar un perceptrón multicapa normal para seleccionar características analizando los pesos de una red entrenada. Probablemente sepa que la red aprende peor con entradas correlacionadas, con pares de entrada-salida que se contradicen. Por lo tanto, para descartar las malas aportaciones hay que cribarlas.

Sí, eso parece llamarse la maldición de la dimensionalidad :) De hecho, en mi caso, un montón de osciladores idénticos en la entrada, todo esto tiene que ser eliminado y una izquierda.

Otra pregunta: al normalizar los datos de las entradas, ¿es mejor normalizar todos los vectores simultáneamente, en un solo ciclo, considerando los valores máximos y mínimos de todo el conjunto, o normalizar para cada entrada por separado, considerando los máximos y mínimos de cada vector en particular?

 
Serqey Nikitin:

Nadie discute que sea interesante.

Pero no puedes saltarte algunos pasos en el aprendizaje de una especialidad, no servirá de nada...

Una red neuronal, por sí sola, no dará el "resultado correcto", no es una varita mágica.

Usted necesita la idea correcta de una estrategia de comercio, que dará un resultado decente, incluso sin la red neuronal...

Lo hará. Uno mágico. Hay que saber preparar los datos de entrada.

Entonces no necesitas una red neuronal.
Razón de la queja: