Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1488

 
Aleksey Vyazmikin:

Tenemos que asumir que todo lo que podemos hacer es desarrollar un algoritmo que se ajuste lo mejor posible a los datos, porque no conocemos el futuro y hay muchas variaciones, incluso basadas en los valores de predicción disponibles. Y si tenemos suerte, podemos detectar un patrón que seguirá existiendo durante algún tiempo, por eso es importante buscar ese patrón con ciertos criterios, y la lógica dice que al menos debe ser un patrón que se dé en toda la muestra.

Sólo hay un patrón en el mercado y siempre será - ciclos de tiempo, períodos: sesión de negociación, día, semana, ..., y sus semiperíodos. Estos ciclos son, en principio, indestructibles, forman una estructura temporal compleja y determinan el volumen de una muestra para trabajar. Al identificar el comportamiento de los precios dentro de esta estructura jerárquica, el sistema de negociación siempre funcionará.

 
El mercado no es fractal en sí mismo. Sólo tiene las propiedades de autosimilaridad dentro de los periodos de tiempo, formando ciertas estructuras dentro de ellos. El volumen de garrapatas o cualquier otra muestra por globo no puede ser elegido - debe ser algún valor definido que satisfaga los ciclos de tiempo anidados.
 
Aleksey Vyazmikin:

Los algoritmos estándar están diseñados para trabajar con fenómenos estacionarios, sistemas cerrados, por lo que allí cualquier información se considera a priori útil y no se evalúa en términos de aleatoriedad, sino sólo la posibilidad de utilizarla para la tarea en cuestión (clasificación por objetivos), mientras que nosotros tenemos mucho ruido y sugerí una forma lógica de tratarlo.

¿Es decir, la uniformidad de los oficios con éxito en el área de formación?
Está bien allí como está, pues el ajuste es exactamente para el aprendizaje, hasta el 0% de error.

Supongo que debería serlo al regularizar/reparar el modelo mediante la reducción de profundidad u otros métodos. Y detenerse, por ejemplo, en el 20% de error en el área de formación.

Creo que sólo hay una manera - después de cada versión de nodo añadido, ejecutar todos los datos a través de la parte resultante del árbol y analizar la línea de equilibrio.

Número de versiones = (número de características * número de nodos en el árbol * 3 (si se divide por cuartiles)) * número de árboles

Tardará mucho tiempo en computar, me temo que incluso más que NS.

 
Alexander_K:

Hay un patrón en el mercado y siempre será - ciclos de tiempo, períodos: sesión de negociación, día, semana, ... así como sus semi-períodos. Estos ciclos son, en principio, indestructibles, forman una estructura temporal compleja y determinan el volumen de la muestra con la que hay que trabajar. Al identificar el comportamiento del precio dentro de esta estructura jerárquica, el sistema de negociación siempre funcionará.

No niego la importancia del tiempo, pero no es suficiente para crear un modelo: se necesitan otras variables que influyan en el precio.

 
Aleksey Vyazmikin:

No niego la importancia del tiempo, pero no es suficiente para crear un modelo: se necesitan otras variables que afecten al precio.

Es suficiente.

Es dentro de los ciclos de tiempo donde se encuentra el Grial. La estructura de un ciclo temporal forma parte de la estructura de otro.

Si trabaja con lo mismo tamaños de muestra que corresponden a diferentes estrictamente definidos, estas estructuras anidadas están como en la palma de la mano.

¿No puede la NS manejarlo? Lo hice en mi TS sin red neuronal.

 
elibrarius:

¿Es decir, la uniformidad de los oficios con éxito en el área de formación?

Personalmente, evalúo el resultado financiero de cada año (actualmente 5 años), teniendo en cuenta el factor de detracción y recuperación, y otros criterios de evaluación. De momento ni siquiera miro la clasificación, ya que hay una estrategia de tendencia, e incluso con un 35% de clasificación correcta puede ser un beneficio de final de año (otro periodo).

elibrarius:


Está bien allí como está, porque el ajuste es exactamente para el aprendizaje, hasta el 0% de error.

La cuestión es cuántos árboles se utilizan para ello, y esencialmente qué memoria tiene el modelo. Un árbol, con una profundidad de 6 divisiones, no puede hacer tal ajuste...


elibrarius:

Supongo que tiene que ser mediante la regularización/carga del modelo con reducción de profundidad u otros métodos. Y detenerse, por ejemplo, en el 20% de error en la sección de formación.

Ya utilizo la restricción de divisiones y de integridad, y sí, debería utilizarse en el entrenamiento.


elibrarius:

Creo que sólo hay una manera - después de cada versión de nodo añadido, ejecutar todos los datos a través de la parte resultante del árbol y analizar la línea de equilibrio.

Número de versiones de un nodo = (número de características * número de nodos en el árbol * 3 (si se divide por cuartiles)) * número de árboles

Esto llevará mucho tiempo de cálculo, me temo que incluso más que la NS.

Esto será más eficiente, lo que es más importante, y al final habrá más modelos comercializables.

Por el momento, dedico unos 15 días al cálculo: obtengo unas 800 hojas únicas y, por término medio, 8 de ellas, la mitad de las cuales son similares, que muestran resultados estables en los intervalos de tiempo (y la comprobación sigue llevando no poco tiempo de máquina). Es decir, ralentizar el cálculo de 800/8 por un factor de 100 produciría incluso un resultado comparable.

 
Alexander_K:

Ya es suficiente.

Es dentro de los ciclos de tiempo donde se encuentra el Grial. La estructura de un ciclo temporal forma parte de la estructura de otro.

Si trabaja con lo mismo tamaños de muestra que corresponden a diferentes periodos de tiempo estrictamente definidos, entonces estas estructuras anidadas están justo en la palma de su mano.

¿No puede la NS manejarlo? Lo hice en mi TS sin una red neuronal.

No me sale un grial, aunque estoy trabajando sólo con las estructuras y la similitud de los fractales, es decir, la anidación del tiempo en diferentes TFs. No es suficiente, quizás no me he dado cuenta de todo.

La NS es una herramienta, el cerebro humano puede o no encontrar una solución más rápida y precisa...

 
Aleksey Vyazmikin:

Personalmente, evalúo el resultado financiero de cada año (actualmente 5 años), teniendo en cuenta el factor de detracción y recuperación, y otros criterios de evaluación. De momento ni siquiera miro la clasificación, ya que hay una estrategia de tendencia, e incluso con un 35% de clasificación correcta puede ser un beneficio de final de año (otro periodo).

La cuestión es cuántos árboles se utilizan para ello, y esencialmente qué memoria tiene el modelo. Un árbol, con una profundidad de 6 divisiones, no puede hacer tal ajuste...


La restricción de división y de integridad es algo que ya utilizo, y sí, debería utilizarse en la formación.


Será más eficiente, que es lo más importante, y el resultado final serán modelos más comercializables.

En este momento dedico unos 15 días a calcular - obtengo unas 800 hojas únicas y de ellas una media de 8, de las cuales la mitad son similares, que muestran resultados estables en los intervalos de tiempo (y la comprobación sigue llevando no poco tiempo de máquina). Es decir, ralentizar el cálculo de 800/8 por un factor de 100 dará incluso un resultado comparable.

Parece que estás haciendo pruebas de avance de valvulería.
Yo también, pero a mano. Creo que esta es la mejor manera de evaluar los modelos.

Todavía no he encontrado un modelo estable en el tiempo. Adelantando/retrasando medio año los modelos ya empiezan a tener un mal rendimiento o a drenar. Incluso recién entrenado con las mismas características y con los mismos parámetros del modelo. Es decir, la importancia de las características también cambia.

 
elibrarius:

Parece que estás haciendo pruebas de avance de valking.
Yo también, pero manualmente. Creo que es la mejor manera de evaluar los modelos.

Todavía no he encontrado un modelo estable en el tiempo. Adelantando/retrasando medio año los modelos ya empiezan a tener un mal rendimiento o a drenar. Incluso recién entrenado con las mismas características y con los mismos parámetros del modelo. Es decir, la importancia de las características también cambia.

Por eso es necesario tener todo esto en cuenta en el entrenamiento, y hacer divisiones, teniendo en cuenta si no el equilibrio, sí la evaluación de la probabilidad de la precisión de la clasificación. La parte que es cuestionable debe ir simplemente a la prohibición de comercio o al 99% de probabilidad, entonces puede ser filtrada al aplicar el modelo.

 
Aleksey Vyazmikin:

Por eso es necesario tener todo esto en cuenta en el entrenamiento, y hacer divisiones teniendo en cuenta si no el equilibrio, sí la evaluación de la probabilidad de la precisión de la clasificación. La parte que es dudosa debe ser prohibida para el comercio o el 99% de probabilidad, y entonces puede ser filtrada al aplicar el modelo.

Las divisiones se realizan en función de la probabilidad de clasificación. Más exactamente, no por probabilidad, sino por error de clasificación. Porque todo se sabe en el simulacro de entrenamiento, y tenemos la evaluación exacta, no la probabilidad.
Aunque existen diferentes fi rmas de separación, es decir, medidas de impureza (muestreo izquierdo o derecho).
Razón de la queja: