Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3074

 
Los comentarios no relevantes para este hilo se han movido a "Off Topic".
 
Valeriy Yastremskiy #:

Sí, la M5)

Lo repetiré ahora) Menos mal que tengo enidesk y acceso al ordenador de mi trabajo))))

270 dolares. y mejor sl 11500, en general 5200 sl y 350 tp es casi el mismo resultado.

Igual el spread es grande. Tengo más ganancias, en general la curva es la misma. Un poco dura la curva de aprendizaje de los últimos años, sí. Pero las anteriores son mejores.

 
Andrey Dik #:
Cómo sería todo si el mundo no fuera liso.....
interesante, pero de entrada surgen muchas preguntas, sí, todos los "seres" son ciegos en cuanto a tomar la siguiente decisión, pero si se conoce (se ve) una decisión mejor, entonces desaparece el sentido de tomar una decisión - desaparece el libre albedrío... extraño rompecabezas lógico.
hay muchas estrategias de búsqueda, abiertas o no todavía, pero se sabe que orientarse hacia el óptimo conocido por la sociedad no siempre permite encontrar una solución mejor (la paradoja de la trampa del pensamiento colectivo otra vez).

En el mercado este óptimo cambia constantemente -como el terreno del planeta después de un terremoto.... por lo que nuestra tarea consiste en predecir cuándo ocurrirá, o después, pero sobre todo el momento en que es necesario buscar un nuevo óptimo....

 
Documento en el que se comparan diferentes métodos. Además de los vídeos y el libro. Tiene muchas referencias a otros trabajos.
No está en las secciones de estadística ni en los libros de MOE. Como debería haber estado en econometría, pero tampoco está ahí. De alguna manera, se sostiene por sí solo.
Uno de los investigadores (al que se le ocurrió el doble machine learning, en 2018 creo) es nuestro emigrante Chernozhukov. Su trabajo también está en inglés. Prado también adoptó sus meta modelos de allí, al parecer. Pero muy superficialmente.

 
Maxim Dmitrievsky #:
Documento en el que se comparan diferentes métodos. Además de los vídeos y el libro. Tiene muchas referencias a otros trabajos.
No está en las secciones de estadística ni en los libros de MOE. Debería estar en econometría, pero tampoco está ahí. Es como si estuviera solo.
Uno de los investigadores (al que se le ocurrió el doble machine learning, en 2018 creo) es nuestro emigrante Chernozhukov. Su trabajo también está en inglés. Prado también adoptó sus meta modelos de allí, al parecer. Pero muy superficialmente.

h ttps://arxiv.or g/pdf/2201.12692.pdf


De esta imagen.

Para MO, el muestreo secuencial no es aceptable - sólo el muestreo aleatorio, y no sólo al azar.

 
СанСаныч Фоменко #:

De esta foto.

Para MO, el muestreo secuencial no es aceptable - sólo el muestreo aleatorio, y no sólo el muestreo aleatorio.

Maxim Dmitrievsky #:
Documento que compara diferentes métodos. Además de los vídeos y el libro. Tiene muchas referencias a otros documentos.
No está en las secciones de estadística ni en los libros de MOE. Debería haber estado en econometría, pero tampoco está ahí. Como que se mantiene solo.
Uno de los investigadores (al que se le ocurrió el doble machine learning, en 2018 creo) es nuestro emigrante Chernozhukov. Su trabajo también está en inglés. Prado también adoptó sus meta modelos de allí, al parecer. Pero muy superficialmente.

h ttps://arxiv.or g/pdf/2201.12692.pdf


¡Maravilloso artículo!

Según he entendido las aplicaciones, el resultado de la clasificación depende no sólo de la calidad de los datos originales, sino también de cómo formamos el conjunto de entrenamiento y evaluación. Y de algo más que aún no he entendido.

 
СанСаныч Фоменко #:

¡Maravilloso artículo!

Según he entendido las aplicaciones, el resultado de la clasificación depende no sólo de la calidad de los datos originales, sino también de cómo formamos el conjunto de entrenamiento y evaluación. Y de algo más, que aún no he entendido.

Jeje. Ver más vids antes de este, podría aclarar el panorama. La cuestión es encontrar esas muestras en los datos, digamos X con un vector de valores de características W, que reaccionan lo mejor posible al tritment (entrenamiento del modelo en nuestro caso) y asignarlas a la clase "to trade", cuando las otras es mejor no tocarlas, "not to trade", porque reaccionan mal al entrenamiento (en datos nuevos el modelo se equivoca al incluirlas en el grupo tritment). En marketing, se trata de ejemplos de usuarios. Donde una muestra de usuarios se verá impactada por una campaña publicitaria, pero en otros no merece la pena emplear el presupuesto de la campaña publicitaria.

Yo lo entiendo así en el contexto de la CT.

 
Maxim Dmitrievsky #:

Jejeje. Mira más vids antes de esto, quizás te aclare el panorama. La cuestión es encontrar esas muestras en los datos, digamos X con un vector de valores de características W, que reaccionan lo mejor posible al tritment (entrenamiento del modelo en nuestro caso) y asignarlas a la clase "to trade", cuando las otras es mejor no tocarlas, "not to trade", porque no reaccionan bien al entrenamiento (en datos nuevos el modelo se equivoca al incluirlas en el grupo tritment). En marketing, se trata de ejemplos de usuarios. Cuando una muestra de usuarios se verá afectada por una campaña publicitaria, pero es inadecuado utilizar el presupuesto de la campaña publicitaria en otros.

Yo lo entiendo así en el contexto de la CT.

Tu forma de entenderlo tiene un tufillo persistente a determinismo, mientras que el artículo es la apoteosis de la aleatoriedad e incluso sobre datos desequilibrados. No hay selección de muestras, es todo lo contrario. Recomendamos X-learner, que

estima primero las dos funciones de respuesta µ(x, 1) y µ(x, 0). A continuación, utiliza estas estimaciones para imputar los efectos de tratamiento individuales no observados para el tratado, ˜ξ 1 i , y el control, ˜ξ 0 i . Los efectos imputados se utilizan a su vez como pseudo-resultados para estimar los efectos del tratamiento en la muestra tratada, τ (x, 1), y la muestra de control, τ (x, 0), respectivamente. La estimación final del CATE τ (x) es entonces una media ponderada de estas estimaciones del efecto del tratamiento ponderadas por la puntuación de propensión, e(x). Así, el X-learner utiliza además la información de los tratados para aprender sobre los controles y viceversa en un estilo de regresión cruzada, de ahí el término X en su etiqueta de denominación.

Nada como una "buena" selección.

 
La puntuación de propensión se estima para cada objeto condicional, a partir de cuyas puntuaciones se forma una puntuación de cate general.
 
mytarmailS #:
Si, por ejemplo, hay un sistema de negociación que funciona con la historia....
¿qué pruebas de resistencia se le pueden aplicar para aumentar la probabilidad de que funcione con datos nuevos?

¿Y si tratamos de responder a esta pregunta en los términos del artículo que dio Maxim?

https://arxiv.org/pdf/2201.12692.pdf