Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 512

 
elibrarius:

Pregunta para aquellos que han solucionado problemas de regresión para NS:

¿Qué se introduce como valor de entrenamiento (y qué se predice entonces)?

Hay variantes:

1) 1 salida con incremento de precio de la siguiente barra (me parece poco interesante, porque el incremento de precio de 1 barra suele ser insignificante)

2) 10-20 salidas con incrementos de precio para 10-20 barras (parece que consume recursos y tiempo, pero da mayor precisión)

3) 1 salida con el precio incremental de un extremo a lo largo de un zigzag (por ejemplo, en el zigzag habrá un extremo en 15 barras y su precio)

¿Qué opción es mejor en su opinión? ¿Tal vez haya algo mejor?

Si la previsión se hace para varias barras por delante (p.2 y 3), es obvio que la probabilidad de su ejecución disminuye. ¿Qué número sería el óptimo?

He probado el punto 1, el modelo encuentra algunas regularidades.

Alexey (el autor de este tema) sugirió mirar no 1 barra por delante sino varias barras, seleccionando experimentalmente hasta dónde mirar. En su caso hubo una clasificación, pero en mi caso para la regresión también este método mejora ligeramente los resultados en comparación con el punto 1. Es similar al punto 2, pero exactamente con un montón de salidas no entrené el modelo, sólo hice uno para cada nuevo objetivo.

Lo del zigzag no lo puedo asegurar, a mí no me funcionó nada, pero he leído en este hilo que es lo contrario.

 
Elibrarius:
Me preguntaba si tiene sentido perder el tiempo en MO si la previsión es de un 50%. Creo que será lo mismo en los macerados.
Si no hay diferencia en la predicción, ¿por qué dedicar el mismo tiempo a cosas más complejas con resultados sencillos?

En general, antes de dedicar tiempo a los MO-NS, hay que decidir primero para qué sirven y por qué son necesarios.

He decidido que son un complemento de la CT clásica, no un sustituto de los métodos clásicos. Todavía no he llegado a los sistemas preparados, pero los resultados de los modelos son muy buenos.

 
Yuriy Asaulenko:

En general, antes de dedicar tiempo a los MO-NS, hay que decidir primero para qué sirven y por qué son necesarios.

He decidido que son un complemento de la CT clásica, no un sustituto de los métodos clásicos. Todavía no he llegado a los sistemas preparados, pero los resultados de los modelos son muy buenos.


Antiguo como un huevo de mamut y una afirmación correcta. El NS puede ser un complemento del TC, pero no en su lugar, y sobre el mismo número de ceros y unos en estas clasificaciones se habló hace más de un año en este hilo. Simplemente no quieres escuchar....

 

¿Por qué necesita el perro una quinta pata? Es decir, TC NS.

 

Sigo el tema y siempre veo lo mismo


 
Vitaly Muzichenko:

Sigo el tema, y una cosa que siempre veo



¡es el NEUROSET!

está "entrenando" al agua, para que "recuerde" y se vaya por sí sola.

Después de un tiempo, el agua "aprenderá" y se recogerá sola.


Así es como se crea la IA: hay que actuar en contra de la lógica, y entonces se encontrará un camino.


Así que estoy buscando en .... es claramente una verdadera neurona esta primicia)

 

A menudo se escribe...la red neuronal inventa cosas - las dibuja, las crea... y es algo que desafía la lógica humana....


Digamos que sí.

Pero el amorfo -superinteligente- sin su "Creador" es incapaz de crear nada en absoluto. "Eso" (la IA) necesita ser imitado. Sin ella no habrá desarrollo.

De repente encontrará un folleto online de islamistas del ISIS en la red y será el fin de la humanidad.


Así que debemos educar a la IA, en el marco de la moralidad.

De lo contrario, será 10000000000 veces peor que un wahabí.

 

Una vez intenté crear una IA en Basic, allá por los años 1998. En un ordenador -ZX_SPECTRUM.

 
 
Mihail Marchukajtes:

¡¡¡¡Vamos!!!! Yo tuve uno, pero sólo a principios de los noventa, al final tendía a convertirse en una rareza, aunque también escribí mis primeros programas en BASIC....


la cosa es que todo el mundo tiene un promedio de bateo.

Razón de la queja: