Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 362

 
Dr. Trader:

Un resumen de las cien páginas anteriores :)

Las neuronas y casi todos los demás modelos populares están muy lejos de la inteligencia artificial. Simplemente pueden encontrar esas combinaciones de valores de los predictores que logran la precisión de aprendizaje deseada, y en las previsiones futuras como que interpolan (o extrapolan) los resultados pasados para obtener una nueva previsión.

Esto significa que si tomamos, por ejemplo, Ma, Rci y Estocástico como predictores y entrenamos la red neuronal utilizando las inversiones en zigzag como objetivo de entrenamiento, le diremos a la red neuronal "estos tres predictores pueden predecir las inversiones". Y la propia red neuronal no sabrá si estos predictores encajan realmente. Recordará estos datos con una precisión aceptable y en el trading esperaremos que se guarden las mismas combinaciones de Ma, Rci y Estocástico antes del retroceso. Pero no lo harán, y fracasará.

Un modelo entrenado con predictores inútiles fallará aunque sea gbm, aunque sea red neuronal, aunque sea regresión. Incluso puedes generar series aleatorias y utilizarlas como predictores, las neuronas encontrarán combinaciones recurrentes entre ellas y las recordarán.
La tarea de un minero de datos humano es seleccionar los predictores y el propósito del entrenamiento, utilizando otras herramientas. Y el entrenamiento del modelo (la neurona) es un minúsculo penúltimo paso.

Los predictores deben mantener la correlación con el objetivo en los datos de entrenamiento, tanto en el pasado como en el futuro. Por eso SanSanych habla de probar el modelo en diferentes archivos, para asegurarse de que las dependencias encontradas no desaparecen con los nuevos datos.
Es decir, estudiamos y recogemos cuidadosamente los predictores y el objetivo, entrenamos el modelo y lo probamos. Luego lo probamos con datos completamente nuevos para el modelo. Si la precisión del pronóstico en ambos casos no coincide, los predictores o el objetivo no son adecuados. Deberíamos buscar otro.


En mi opinión, las neuronas no son adecuadas para predecir series temporales no estacionarias. El comportamiento de los precios cambia constantemente, los patrones encontrados dejan de funcionar a deshoras, todo es caótico. Y entonces alguien coge una neuroncu, le da precios durante un par de meses y pide encontrar las dependencias que se repiten durante este tiempo. Pero no hay dependencias que se repitan y lo que la neurona pueda encontrar y recordar será sólo una coincidencia 100% aleatoria.

Si tomamos una neurona, entonces podemos darle sólo precios procesados (y no ohlc puro), como indicadores.


Por qué eres tan estrecho de miras, todos escriben aquí como si nunca hubieran visto algo más dulce que una zanahoria )) No te molestes con los predictores, enseña a la neurona a encontrar estos predictores, enseña a la neurona a enseñar a la neurona, experimenta :) Obviamente es muy tonto tomar indicadores simples, alimentarlos a la entrada y a la salida por un zigzag, no sé por qué todo el mundo lo discute :) Y, por supuesto, esto no es IA, es sólo clasificación, ¡no se necesita una neurona para nada! Puede hacer con un clasificador bayesiano
 
Maxim Dmitrievsky:

Por qué pensar tan estrechamente, todo el mundo aquí escribe como si nunca hubiera visto nada más dulce que una zanahoria )) Joder con los predictores, enseñar a la neurona a encontrar estos predictores, enseñar a la neurona a enseñar a la neurona, experimentar :)
Creo que neuronka debería poner a 0 los predictores inútiles, ¡y no afectarán a la salida! La única diferencia será la velocidad de cálculo entre todos los predictores y con la mitad de los más importantes. Pero esto también es importante.
 
elibrarius:
Pues a mí también me parece que las neuronas deberían factorizar a 0 los predictores inútiles, ¡y no afectarán a la salida! La única diferencia sería la velocidad de cálculo entre todos los predictores y la mitad de los más importantes.

Así es como se crearon las neuronas para las tareas que consumen muchos recursos, el único problema es que en mt5 es muy limitado. Puedes crear modelos muy complejos, originales y no obvios, sólo entonces el potencial de la aplicación de NS será revelado, pero ciertamente no en esas técnicas, que se discuten aquí, es como lo básico para los principiantes :) Si no tiene suficiente capacidad, hay servidores para la formación de NS... Todo lo que se puede entrenar en 5-30 minutos en un PC normal es, en mi opinión, poco neuronal y primitivo :)
 
Maxim Dmitrievsky:

Así es como se crearon las neuronas para las tareas que consumen muchos recursos, el único problema es que en mt5 es muy pobre ahora mismo. Se pueden crear modelos muy complejos, originales y no obvios, sólo entonces se desvelará el potencial de la aplicación NS, pero ciertamente no en esas técnicas, que se discuten aquí, es como lo básico para los principiantes :)

¿Por qué? Estoy planeando utilizar neuronas en MQL puro para la optimización (para elegir los parámetros de los indicadores) y ejecutarlo en una red o en la nube. 20000 agentes pueden contar - es imposible comparar con cualquier R en lo que respecta a la velocidad. Aunque parece que R también tiene distribución de tareas a la nube de Azure

 
elibrarius:

Bueno, ¿por qué? Estoy planeando usar neuronas en MQL puro para la optimización (para seleccionar los parámetros para los indicadores) y ejecutarlo en una red o en la nube. 20000 agentes pueden contar - ninguna R puede compararse con ninguna otra por su velocidad.


Me refiero a que las neuronas en mt5 no son suficientes, solo una :)
 
Maxim Dmitrievsky:

Me refería a que las neuronas en mt5 son pocas, sólo una :)
Bueno, lo más importante sigue siendo la calidad de los datos de entrada, si los tienes, entonces incluso 1 neurona resolverá el problema
 
elibrarius:
Bueno, lo más importante siguen siendo los datos cualitativos de entrada, si los tienes, entonces 1 neurona resolverá el problema.

No, no lo hará. Si aumentas la muestra tu neurona se encogerá por el estrés y estallará :) No será capaz de aproximarse a dicha muestra y emitirá permanentemente 0,5
 
Maxim Dmitrievsky:

No, no lo hará. Si aumentas la muestra tu neión se encogerá por el estrés y estallará :) No podrá aproximarse a dicha muestra y generará constantemente 0,5 en la salida

0,5 será 0,5 si todas las entradas tienen un multiplicador de 1. Pero si la red aprende y establece el multiplicador para las entradas insignificantes en 0, y para las más importantes en 1, entonces todo estará bien. La salida, por supuesto, no será 1, pero por ejemplo reacciona si la salida es >0,8

Pero desgraciadamente no hay indicadores que se correlacionen con los resultados correctos. Por lo tanto, las detracciones se producirán con toda seguridad. Sólo tienes que doblar la probabilidad hacia tu lado
 
elibrarius:

0,5 será si todas las entradas tienen multiplicador = 1. Y si la red aprende y pone las entradas insignificantes a 0 y las más importantes a 1, entonces todo irá bien. La salida, por supuesto, no será 1, pero por ejemplo reacciona si la salida es >0,8

Pero desgraciadamente no hay indicadores que se correlacionen con los resultados correctos. Por eso, las detracciones son inevitables. Sólo tienes que inclinar la probabilidad a tu favor.

No es que no estén correlacionadas, se van a contradecir cuando la muestra aumente, sí, al final o la salida es siempre 0 o 1, o 0,5... además para 1 neurona. Así que si >0,5 vender y <0,5 comprar. Usted establece predictores correctos (en su opinión) y respuestas correctas, es decir, si psi está sobrevendido y el mercado crece en las próximas n barras, entonces salida 0, y si psi está sobrecomprado y el mercado baja, entonces salida 0. Pero habrá muchos casos en los que sea al revés y se embote, se mezclen las señales y se entre en trance. Como resultado la salida siempre estará en torno a 0,5 con desviaciones muy pequeñas en una u otra dirección... y así será con todos los osciladores, porque no son predictores en absoluto, son derivados del precio :)
 
Dr. Trader:

Así que si tomamos, por ejemplo, Ma, Rci y Stochastic como predictores, y entrenamos la red neuronal utilizando las inversiones en zigzag como objetivo de entrenamiento, le decimos a la red neuronal "estos tres predictores pueden predecir las inversiones". Y la propia red neuronal no sabrá si estos predictores encajan realmente. Recordará estos datos con una precisión aceptable y en el trading esperaremos que se guarden las mismas combinaciones de Ma, Rci y Estocástico antes del retroceso. Pero no lo harán, y fracasará.

En mi opinión, es mejor pensar en la clasificación y la regresión como diferentes tipos de puntos de media en N-d, en las proximidades de algún núcleo, como ocurre por ejemplo en kNN que se dice que es un aproximador "ideal" pero lento y poco práctico. En la clasificación sólo se promedian las respuestas, en la regresión se promedian las fichas y las respuestas. Obviamente, si este promedio mezcla puntos contradictorios, el resultado será ruidoso, no pronunciado.

Razón de la queja: