Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2645

 
Aleksey Nikolayev #:

En general, la idea está clara. En cualquier caso, primero tenemos que pensar en un algoritmo para dividir un conjunto continuo de predictores en elementos discretos a partir de los cuales se formen reglas. Si esos buenos predictores y su buena partición existen realmente y se encuentran, el resto es cuestión de técnica.

Al principio escribí algo mal, estaba pensando en algo equivocado.
Todo depende de lo que quieras hacer. Si lo que buscas son unos niveles claros, yo me limité a normalizar y redondear un poco el precio para encontrar un patrón de rebote, pero el espacio de búsqueda es grande y la repetibilidad es pequeña. Pero si es otra cosa, la agrupación normal es una buena solución.
 

Experimentando con regresión simbólica...

Básicamente, se implementan reglas asociativas secuenciales, pero en lugar de elementos estáticos - reglas lógicas. Esto da más profundidad al algoritmo, puede entender sus observaciones de forma mucho más sutil. Este concepto permite describir cualquier tipo de regularidad, porque la complejidad y el tipo de reglas no están limitados por nada.

Hay una cucharada de alquitrán, el algoritmo no puede permitirse el lujo de estudiar grandes matrices de datos, ya que es muy largo debido a las peculiaridades de su arquitectura.

Por lo tanto, se me ocurrieron algunos enfoques para reducir la dimensionalidad de la búsqueda.

1) Sólo me interesan los extremos, concentrándonos en ellos reducimos el espacio de búsqueda 10-20 veces, y realmente lo único que necesitamos del mercado es saber si es una reversión o no, tendencias-schmends, flatts-schmets... esto es basura subjetiva que nos impide concentrarnos en lo principal.

2) He inventado e implementado algo así como "one shot learning" tal y como yo lo veo, ahora no necesito calcular todo el histórico para aprender algo, no es un know-how guay, es más bien una desesperación, porque aprender sobre todo el histórico no va a funcionar, al menos de momento.

Hasta ahora sólo hay los primeros experimentos, pero puedo decir con certeza que el algoritmo no es completamente estúpido y algo que aprender.


El algoritmo de negociación en sí se compone de patrones, un patrón es un conjunto de reglas para una situación específica.

Esto es lo que parece un patrón para una situación.

Las reglas son primitivas, pero apenas estamos entrando en calor).

El patrón se negocia como forrest, hay muchas reglas en el patrón, si cierta cantidad umbral de reglas se activa, URAH reconocemos la inversión y la negociamos.

Se ve algo como esto.

Es así.


¿Cuál es la belleza del algoritmo?

1) Profundiza en el patrón, si se me permite decirlo.

2) No está ligado a índices y no trabaja con datos tabulares, por lo que es resistente a la no estacionariedad, así como a las reglas asociativas.

 

Por cierto, puede ser interesante para alguien.

Muy a menudo si el rebote no funciona, entonces la resistencia se convierte en soporte.

como en la imagen.

Y se puede explicar, por lo que los niveles están ahí, no pueden no estar ahí.

 
Aleksey Nikolayev #:

Estoy pensando en la posibilidad de combinar mi idea con la del algoritmo PRIM. No tengo mucho de lo que presumir.

Curiosamente, este PRIM contiene las mismas ideas que estoy tratando de realizar.

He leído el artículo, pero hay algunas confusiones:

1. ¿Cuál es el proceso de cuantificación allí para la partición de límites? ¿Es una partición uniforme con un paso determinado?

2. Está claro con los límites - lo hago yo mismo, pero tienen un recorte adicional en la imagen - es el segundo recorte una exclusión estúpida de muestreo?

3. Si he entendido bien, ellos, como yo, consideran cada predictor por separado - encontrando las llamadas "cajas", pero no entendí de la descripción cómo se combinan estos diferentes predictores.

La desventaja de este método es que evalúa la estabilidad de los indicadores a través del muestreo bootstrap(tomando al azar un porcentaje determinado de la muestra de toda la muestra), que no da una comprensión de la dinámica de la estabilidad de los indicadores, que a su vez es importante para el comercio, porque el patrón puede existir al principio de la muestra, pero desaparecer por completo por su final.

¿Tiene alguna mejora con este método?

 
mytarmailS #:

Experimentación con la regresión simbólica.....

Básicamente, se implementan reglas asociativas secuenciales, pero en lugar de elementos estáticos - reglas lógicas. Esto da más profundidad al algoritmo, puede entender sus observaciones de forma mucho más sutil. Este concepto permite describir cualquier tipo de regularidad, porque la complejidad y el tipo de reglas no están limitados por nada.

¿Entiendo bien que es la misma tabla con predictores, pero las desigualdades se construyen no sólo por puntuaciones de los predictores, sino también por desigualdades de los propios predictores entre sí?

mytarmailS #:


2) He inventado e implementado algo así como "one shot learning" como yo lo veo, ahora no necesito calcular toda la historia para aprender algo, no es un "cool know-how", es más bien una desesperación, porque aprender sobre toda la historia no es posible, al menos no todavía.

Es decir, tomar un ejemplo, generar muchas variantes de hojas (patrones) que consisten en desigualdades y luego probarlos en una muestra más grande, los que muestran resultados aceptables - dejarlos, ¿no?

mytarmailS #:

¿Cuál es la belleza del algoritmo?

1) Profundiza en el patrón, si se me permite decirlo.

2) No está ligado a índices y no trabaja con datos tabulares, por lo que es resistente a la no estacionariedad, así como a las reglas asociativas.

Y aquí no entiendo, si los datos no están en tablas, ¿entonces en qué lo alimentas para que trabaje?

 
Aleksey Vyazmikin #:
1. Cualquier cosa, el límite de la fantasía
2. Sí
3. así como las reglas asociativas, pero más profundas
 
mytarmailS #:
1. Cualquier cosa, el límite de la fantasía
2. Sí
3. Igual que las reglas asociativas, pero más profundo

1. Puedes ser más específico: qué otra cosa podría ser, por ejemplo.

2. ¿Es claro, y qué tan rápido se generan estas reglas? Tal vez tenga sentido para subirlos a MQL5 y ejecutarlos a través de la historia - puede ser más rápido debido a los agentes. Ya he hecho algo similar, que escribí hace mucho tiempo, pero tomé las hojas de los árboles genéticos.

3. No entiendo la respuesta - lo que usted alimenta a la entrada - esa es la cuestión.

 
secret grial ya hecho, el autor empezará a explicar en respuesta lo tonto que es)

Hay algo de verdad en esta explicación, porque NO existe una definición del concepto "GRAIL en el trading", para que TODOS podamos estar de acuerdo con esta definición.....

Y si no hay definición, entonces empieza el "cisne, el cangrejo de río y el lucio"....

 
Aleksey Vyazmikin #:

Curiosamente, esta PRIM incorpora las mismas ideas que estoy intentando realizar.

He leído el artículo, pero hay algunas confusiones:

1. ¿Cuál es el proceso de cuantificación allí para la partición en los límites? ¿Es una partición uniforme con un cierto paso?

2. Está claro con los límites - lo hago yo mismo, pero tienen un recorte adicional en la imagen - el segundo recorte es sólo la exclusión de muestreo?

3. Si he entendido bien, ellos, como yo, consideran cada predictor por separado - encontrando las llamadas "cajas", pero no entendí de la descripción cómo se combinan estos diferentes predictores.

La desventaja de este método es que evalúa la estabilidad de los indicadores a través del muestreo bootstrap(tomando al azar un porcentaje determinado de la muestra de toda la muestra), que no da una comprensión de la dinámica de la estabilidad de los indicadores, que a su vez es importante para el comercio, porque el patrón puede existir al principio de la muestra, pero desaparecer por completo al final de la misma.

¿Tiene alguna mejora con este método?

Según tengo entendido, se trata de una modificación de lo que se suele hacer cuando se construye un árbol de decisión. En cada paso se busca una variable y un trozo que se pueda morder de ella -lo llaman pelar-. De todos esos pasos posibles eligen los que construyen una "trayectoria óptima", es decir, la dependencia del objetivo medio del número de puntos restantes. La trayectoria también se utiliza para determinar el momento en que el algoritmo se detiene (cuando no hay ninguna mejora apreciable al reducir la caja).

El planteamiento es interesante, en primer lugar, porque demuestra que los algoritmos de construcción de árboles pueden y deben modificarse.

 
Aleksey Nikolayev #:

Según tengo entendido, se trata de una modificación de lo que se suele hacer al construir un árbol de decisión. En cada paso se busca una variable y un trozo que se pueda morder de ella -lo llaman pelar-. De todos esos pasos posibles, eligen los que construyen una "trayectoria óptima", es decir, la dependencia del objetivo medio del número de puntos restantes. La trayectoria también se utiliza para determinar el momento en que el algoritmo se detiene (cuando no hay ninguna mejora apreciable al reducir la caja).

El planteamiento es interesante, en primer lugar, porque demuestra que los algoritmos de construcción de árboles pueden y deben modificarse.

Veo que se limpian los datos, pero no se menciona el método de construcción del árbol, que, digamos, se modifica. Así que se supone que, tras la limpieza de datos, el árbol simplemente se construye. ¿Se construye por divisiones de cajas - por sus límites o lo que no está incluido en la caja se sustituye por ceros (u otra variable que agregue tales estados)?

Razón de la queja: