Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 45

 
Andrey Dik:

OK, ¡es un muy buen rendimiento comercial en la historia! Enhorabuena.

¿Alguien ha visto distribuido abiertamente o a la venta el sistema de Forex, donde a futuro da ganancias en cinco años? Puede que publique este producto aquí o en la base de código como prueba. No me interesan las curvas planas durante un par de años por cientos de euros del mercado. Ya que todos ellos son de ajuste duro. Me hago a mí mismo y evito encajar. Y se pueden hacer suficientes mejoras en este sistema para mejorar el FS en un factor de uno y medio o dos.

Y de todos modos, este hilo trata del aprendizaje automático, que implica la creación de productos no entrenados. Y el recuento de porcentajes es otra cosa.

Probaré otro método para entrenar la máquina y creo que aún puede mejorar.
 
Alexey Burnakov:
¿Cómo se hacen varios predictores a partir de los rangos de un predictor? No lo entiendo.

Oh, es muy simple ) la agrupación...

1) Tomemos cada predictor y clustericémoslo en, digamos, 50 clusters (además podemos y debemos hacerlo en dos tipos 1) clusterización "tal cual" para clusterizar el predictor por valores numéricos y el segundo tipo 2) clusterización del predictor normalizado para clusterizarlo como imagen) juntos obtendremos todo como en la visión humana, conoceremos no sólo valores numéricos "reales" del predictor sino también la imagen - curvas, pendientes

2) Creamos una tabla donde las columnas son clusters, 50 clusters ---> 50 columnas ---> 50 predictores, comprobamos la importancia de estos predictores utilizando algún algoritmo y vemos que de los 50 predictores sólo 1-5 son importantes, los mantenemos

3) tomar el siguiente predictor, agruparlo y repetir los pasos 1 y 2

Esta selección dentro del predictor debería aumentar teóricamente la calidad del reconocimiento en órdenes de magnitud...

pero hay algunas desventajas

1) cálculos costosos

2) si cada predictor se divide uno por uno y su contenido se evalúa por separado del contenido de otros predictores, será imposible evaluar la correlación entre los predictores, por lo que habrá que resolverlo de alguna manera

 
mytarmailS:

Oh, es muy simple ) la agrupación...

1) Tomamos cada predictor y lo agrupamos en, digamos, 50 clusters (mientras que la agrupación puede y debe hacerse en dos tipos 1) agrupación "tal cual" para agrupar el predictor según los valores numéricos y el segundo tipo 2) agrupación del predictor normalizado para agruparlo como una imagen) juntos obtenemos todo como la visión humana, conoceremos no sólo los valores numéricos "reales" del predictor sino también la imagen - curvas, pendientes

2) Creamos una tabla en la que las columnas son clusters, 50 clusters ---> 50 columnas ---> 50 predictores, comprobamos la importancia de estos predictores utilizando algún algoritmo y vemos que de los 50 predictores sólo 1-5 elementos son importantes, los mantenemos

3) tomar el siguiente predictor, agruparlo y repetir los pasos 1 y 2

Esta selección dentro del predictor debería aumentar teóricamente la calidad del reconocimiento en órdenes de magnitud...

pero hay algunas desventajas

1) cálculos costosos

2) si cada predictor se desglosa uno por uno y su contenido se evalúa por separado del contenido de otros predictores, será imposible evaluar la correlación entre los predictores, lo que debe resolverse de alguna manera

Es una forma de probarlo. En realidad hay un método. Se hace un gráfico de puntos de la salida-predicción. Lo ideal es que haya una buena dependencia. Pero si en algún segmento (normalmente en las colas) la dependencia es borrosa, estas observaciones se excluyen.
 
Alexey Burnakov:
Puedes probarlo así . En general, hay un método. Se hace un gráfico de puntos de salida-predicción. Lo ideal es que haya una buena dependencia. Pero si la dependencia es borrosa en algún segmento (normalmente en las colas), estas observaciones se excluyen.

¿cómo se llama este método?

¿hay alguno en el rc?

¿Cómo resolver el problema nº 2?

Me gustaría discutirlo, puede ser muy efectivo.
 
mytarmailS:

¿cómo se llama este método?

¿hay alguno en el rc?

¿Cómo resolver el problema nº 2?

me gustaría que se discutiera, podría ser muy eficaz
2. Se resuelve así. La variable se lleva a una forma discreta. Supongamos que hay 50 niveles. Creamos 49 nuevas variables y codificamos los niveles en ellas. Luego aplicamos, por ejemplo, la regresión lineal y observamos la importancia.
 
Alexey Burnakov:

Por cierto, a alguien le interesa esto o no, no lo entiendo. ¿Necesitas un robot entrenado que pase la validación en 5 años con beneficios?

Tal

Ya he vuelto de las vacaciones. Puedo preparar los archivos y publicarlos, y quien lo necesite lo mejorará por sí mismo.

Me interesa saber cómo has creado el robot punto por punto, si no es difícil...

1) seleccionar las características según su método

2) Has hecho el modelo

¿y eso es todo?

 
mytarmailS:

Me interesa saber cómo has creado el robot punto por punto, si no es difícil...

1) Seleccione las características según su método

2) Has construido el modelo

¿y eso es todo?

Este es un esquema general que siempre funciona.

Selecciono las características a través de la importancia después de la ejecución de GBM. Y pruebo diferentes números de selecciones. La máquina está entrenada mediante GBM y he probado diferentes funciones de fitness. Se utiliza la validación cruzada. Sus parámetros también varían. Y hay más matices.

En general, obtuve un resultado que demuestra que más complejo no siempre es mejor. En el caso del EURUSD, el modelo utiliza sólo 5 predictores y sólo dos faltas de validación cruzada.

 
Muy interesante la red neuronalhttp://gekkoquant.com/2016/05/08/evolving-neural-networks-through-augmenting-topologies-part-3-of-4/ ¿crees que se puede hacer que opere por sí misma y que aprenda de sus errores? Y si es así, cómo, son bienvenidos a discutir
Evolving Neural Networks through Augmenting Topologies – Part 3 of 4
  • 2016.05.09
  • GekkoQuant
  • gekkoquant.com
This part of the NEAT tutorial will show how to use the RNeat package (not yet on CRAN) to solve the classic pole balance problem. The simulation requires the implementation of 5 functions: processInitialStateFunc – This specifies the initial state of the system, for the pole balance problem the state is the cart location, cart velocity, cart...
 
mytarmailS:
Muy interesante la red neuronalhttp://gekkoquant.com/2016/05/08/evolving-neural-networks-through-augmenting-topologies-part-3-of-4/ ¿crees que se puede hacer que opere por sí misma y que aprenda de sus propios errores? Y si es así, cómo hacerlo.

Si el desarrollador dice que la red puede sustituir a un algoritmo de aprendizaje por refuerzo, esto es prometedor.

Es necesario experimentar. Pero el tema es interesante.

 
Vladimir Perervenko:

Si el desarrollador dice que la red puede sustituir a un algoritmo de aprendizaje por refuerzo, eso es prometedor.

Es necesario experimentar. Pero es un tema interesante.

Estoy de acuerdo, es interesante... Pero no tengo casi nada claro, empezando por la ideología y terminando por el propio código, hay demasiadas cosas y muchos operadores que ni siquiera conozco.

Si alguien pudiera explicarlo todo, al menos con ejemplos elementales, cómo utilizarlo en el trading, sería un buen experimento para gente tan inexperta como yo

Razón de la queja: