Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 593

 
Maxim Dmitrievsky:

Redes de propagación hacia delante enfocadas con retrasos temporales

En el reconocimiento de patrones estructurales, es habitual utilizar redes neuronales estáticas. En cambio, el reconocimiento del patrón temporal requiere el procesamiento de imágenes que cambian con el tiempo, y la generación de una respuesta en un punto concreto del tiempo que depende no sólo del actual, sino también de varios valores anteriores.

¿Hay alguno de esos? :) Exactamente el tipo de tales arquitecturas funcionará en Forex, en teoría... pero hay que experimentar. Es fácil de hacer, sólo hay que añadir un par de neuronas "interesantes" a MLP, o conectar 2 modelos.

¿De dónde sacas el modelo?
 
Yuriy Asaulenko:
¿De dónde sacas el modelo?

Lo haré yo mismo ) aún no he terminado de leerlo, hay muchas cosas interesantes en los libros, como resulta

Pero la idea de la "memoria" para los mercados debería ser buena... pero no la recurrencia superlenta, sino algo más sencillo y especializado

 

El ejemplo más sencillo:

Por un "desplazador" externo podemos entender alguna f- de, por ejemplo, operaciones anteriores, volatilidad, o algunos otros hiperparámetros del sistema

Pero sería mejor si el cambiador estuviera incrustado en 1 o más neuronas, entonces sería como si fuera no lineal

 

No esperes que aparezca un nuevo tipo de paquete neuronkey o python que resuelva todos los problemas - y no habrá sobreajuste del modelo, y no tendrá miedo a la no estacionalidad, etc.

Por muy sofisticado que sea el modelo, se basará en un principio simple: toma datos para el entrenamiento preparados por un humano, y el modelo sólo crea una descripción simplificada de cómo calcular el resultado a partir de los datos de entrada. Esto no está muy lejos de la predicción del vecino más cercano, pero los modelos convencionales predicen órdenes de magnitud más rápido (aunque tardan mucho en aprender), por lo que son más apreciados.

La frase clave es "datos formados por humanos". Si el experto prepara correctamente los datos, entonces los utilizará para entrenar el modelo y operar de forma rentable, mire por ejemplo esas tablas para el entrenamiento y las pruebas que fueron compartidas por SanSanych, Vizard, Michael.
Me sorprenden cuando los miro. Y nada de asombrosas neuronas rnn con filtros de entrada no lineales y docenas de capas lo harán por ti.

 
Dr. Trader:

No esperes que aparezca un nuevo tipo de paquete neuronkey o python que resuelva todos los problemas - y no habrá sobreajuste del modelo, y no tendrá miedo a la no estacionariedad, etc.

Por muy sofisticado que sea el modelo, se basará en un principio simple: toma datos para el entrenamiento preparados por un humano, y el modelo sólo crea una descripción simplificada de cómo calcular el resultado a partir de los datos de entrada. Todo esto no está muy lejos de la predicción del vecino más cercano, pero los modelos habituales predicen órdenes de magnitud más rápido (aunque se necesita mucho tiempo para entrenar), por lo que gustan más.

La frase clave es "datos para el aprendizaje preparados por el hombre". Si el Asesor Experto prepara correctamente los datos, entonces los utilizará para enseñar el modelo y operar de manera rentable. Tome por ejemplo esas tablas para el entrenamiento y las pruebas que fueron publicadas por SanSanych, Vizard, Michael.
Me sorprenden cuando los miro. Y nada de asombrosas neuronas rnn con filtros de entrada no lineales y docenas de capas lo harán por ti.


Por desgracia (quizá sólo para mí), la mayor parte de lo que se discute aquí es neuroestática. Realmente necesita datos muy bien preparados, cuyas propiedades estadísticas no cambien con el tiempo, de ahí que haya tantas formas de seleccionar y filtrar los predictores. Este enfoque me parece muy difícil debido al preprocesamiento.

Pero podemos ver la neurodinámica con diferentes variantes de "memoria" y cosas adaptativas... me parece un enfoque más sencillo y natural, y no estoy seguro de la eficiencia, depende de cómo se haga.

Depende del punto de vista con el que se vea el mercado: como un conjunto de patrones o como un sistema que evoluciona según ciertas leyes.

 
Maxim Dmitrievsky:

Pero se podría mirar la neurodinámica con diferentes variantes de "memoria" y cosas adaptativas... me parece un enfoque más sencillo y algo natural, y no estoy seguro de la eficiencia, depende de cómo lo hagas.
...
evolucionando según ciertas leyes.
...

Hay que estudiarlo, sin duda. Pero la humanidad aún no ha inventado una herramienta adecuada (al menos no de dominio público).

Las neuronas lstm son bastante interesantes para este hilo, pueden describir series temporales con más precisión que las neuronas habituales utilizando menos neuronas. Pero el problema con ellos es el sobreajuste.
Supongamos que al entrenar la neuronka regular se pueden extraer algunos datos para la validación cruzada, y así hacer frente a la sobrealimentación. Pero para la neurona lstm es importante el orden de llegada de los datos, cada nueva predicción utiliza el estado interno de la neuronaka y lo cambia. Como resultado, toda la serie temporal se predice en orden estricto, cada predicción depende del pasado y afecta al futuro. Si se eliminan al azar algunos ejemplos para utilizarlos posteriormente en la validación cruzada, la secuencia se rompe, lo que es malo y pone en duda todo el entrenamiento. Si dividimos los datos en dos partes de forma secuencial para el entrenamiento y la prueba, volvemos a tener un sobreajuste porque no ayuda en el forex.
Lo único que se puede hacer es entrenar a Istm con la máxima precisión y esperar. Pero el forex no perdona esa irresponsabilidad.

Cuando se resuelva este problema será posible crear un grial.

 

El MQL por sí mismo no es ni malo ni bueno. Su sintaxis es similar a la de C++. En general, es una lengua estándar. El problema está en la disponibilidad de las bibliotecas necesarias para ello. Pero no existen o son de mala calidad. Por eso tenemos que integrar Python. Ya he citado un enlace a su integración con MQL. Te daré una más. La biblioteca es ahora bastante utilizable. Puede descargarlo ahora.

 
Dr. Trader:

Esto debe ser estudiado, sin duda. Pero la humanidad aún no ha inventado una herramienta adecuada (al menos no de dominio público).

Las neuronas lstm son bastante interesantes para este hilo, pueden describir series temporales con más precisión que las neuronas habituales utilizando menos neuronas. Pero el problema con ellos es el exceso de ajuste.
Digamos que al entrenar la neuronka regular se pueden seleccionar algunos datos para la validación cruzada, y así luchar con la sobrealimentación. Pero para la neurona lstm es importante el orden de llegada de los datos, cada nueva predicción utiliza el estado interno de la neuronaka y lo cambia. Como resultado, toda la serie temporal se predice en orden estricto, cada predicción depende del pasado y afecta al futuro. Si se eliminan al azar algunos ejemplos para utilizarlos posteriormente en la validación cruzada, la secuencia se rompe, lo que es malo y pone en duda todo el entrenamiento. Si dividimos los datos en dos partes de forma secuencial para el entrenamiento y la prueba, volvemos a tener un sobreajuste porque no ayuda en forex.
Lo único que se puede hacer es entrenar a Istm con la máxima precisión y esperar. Pero forex no perdonará esa irresponsabilidad.

Se necesitan años de trabajo académico sobre el tema de la anulación de las neuronas lstm, cuando se resuelva este problema entonces podremos empezar a crear el grial.


necesitas un ns que juegue consigo mismo en forex :) no es lstm. lstm no utiliza BP como agente externo que le da una patada en la frente cuando se equivoca

Yuri ya escribió sobre ello, sólo para resumirlo.

 
Grigoriy Chaunin:

El MQL por sí mismo no es ni malo ni bueno. Su sintaxis es similar a la de C++. En general, es una lengua estándar. El problema está en la disponibilidad de las bibliotecas necesarias para ello. Pero no existen o son de mala calidad. Por eso tenemos que integrar Python. Ya he citado un enlace a su integración con MQL. Te daré una más. La biblioteca es ahora bastante utilizable. Descárgalo.


¡Gracias por el esfuerzo! Lo usaremos más tarde, lo he guardado para mí.

 

No puedo dormir, he leído un poco en Internet. Este me ha gustado:

"El hecho de que se utilicen incrementos no es realmente tan malo en el contexto general, la mayoría de los precios logarítmicos se alimentan de la entrada, los incrementos son un paso adelante, aunque ambos son adecuados.

Conozco gente que sacó el grial de NS, pero esos tipos son tan cerrados para la comunicación e incluso las pistas sobre lo que hacen, soy un principiante así que seguro que no tengo ninguna posibilidad. Sólo sé que todo es complicado, no es Vels, no es Metatrader e incluso no es S#, y C++ y MatLab con unos chips que decodifican e interpretan los datos que vienen de los caliders, resultó que es una misma metodología, me enteré y me asusté, están trabajando con el tío que molía terabytes al día en el CERN buscando nuevas partículas en el caos cuántico.

Es curioso. Me mantengo en mi opinión - es necesario alimentar el más puro, como una lágrima, los incrementos de precios a la entrada de NS. Los incrementos son la clave de todo. Son la base de la solución a este problema. De hecho, en Forex seguimos un proceso pseudoestacionario de movimiento de un paquete de ondas ( función de densidad de probabilidad) de estos incrementos. Y nada más. (Ya he escrito este párrafo :)))