Discusión sobre el artículo "Simulador rápido de estrategias comerciales en Python usando Numba" - página 5

 
Aleksey Nikolayev #:

En mi opinión, valdría la pena reformular esta oposición en términos de MOE. Hay dos modelos muy alejados en la curva de compensación entre sesgo y dispersión. Debido a un pequeño número fijo de parámetros, el TC tiene un desplazamiento hacia el aumento del sesgo (la regresión lineal es un ejemplo común de MO), mientras que el modelo complejo, por el contrario, tiene un desplazamiento hacia el aumento de la varianza.

Obviamente, si el modelo más sencillo capta el patrón real, es mejor. Si ninguno de los dos modelos lo capta, entonces, de nuevo, el más simple es mejor - es más difícil ver su falacia en el complejo debido a su mejor adaptabilidad al ruido) No es sorprendente que la complicación sólo tenga sentido si es beneficiosa. Esta es la respuesta teórica obvia.

Si es un poco más práctica, entonces esencialmente el segundo punto significa apilar modelos (al menos dos) - un modelo se descompone (en busca de discrepancias) y el otro toma decisiones comerciales. También puede haber un tercer modelo que active/desactive el modelo de negociación, etc. El apilamiento, como se le conoce, tiene fama de "magia negra" en MO) Por regla general, lo utilizan los ganadores de todo tipo de competiciones, pero no hay teoría ni recetas para ello. Si tienes la suerte de encontrar un apilamiento que funcione, bien por ti). En mi opinión, apilar modelos más sencillos suele tener más sentido que intentar meterlo todo en uno más complejo.

Sí, hay que resolver el problema de la descomposición, ya que nuestras series no son estacionarias. Pero yo no haría hincapié en ello, porque se resolverá de todos modos, ya sea explícita o implícitamente.)

Así que lo llamaremos magia por ahora, ya que no podemos encontrar una definición más significativa :)

El apilamiento es una buena analogía, aunque parezca un poco diferente.
 
Maxim Dmitrievsky #:
Así que por ahora lo llamaremos magia, ya que no podemos encontrar una definición más significativa :)

El apilamiento es una buena analogía, aunque parezca un poco diferente.

Me he encontrado con que el apilamiento es una construcción bastante complicada de varios modelos, nada parecido a lo que se suele llamar apilamiento. No sé hasta qué punto está aceptado.

Por alguna razón me siento más cómodo con "stacking", probablemente porque es un "stack". Pero que sea "apilamiento" en aras de la coherencia.

 
Aleksey Nikolayev #:

Me he encontrado con que el estaquillado es una construcción bastante tramposa de varios modelos, nada que ver con lo que se suele llamar estaquillado. No sé lo común que es.

Por alguna razón me siento más cómodo con "stacking", probablemente porque es un "stack". Pero que sea "stacking" por coherencia.

Es un diptongo ae, puedes ir en cualquier dirección. Se puede apilar). Sí, yo también me he dado cuenta de que muchas cosas se llaman con esa palabra.
 
Maxim Dmitrievsky #:
Std en una ventana deslizante con diferentes períodos, período predeterminado es 20. Desde mi teléfono, puede que no vea algo, pido disculpas.

¿No sería más correcto leer z-score?

 
ys_mql5 #:

¿No sería más correcto considerar la puntuación z?

No sé, ¿qué es mejor?

 
Maxim Dmitrievsky #:

No sé, ¿qué es mejor?

Es un valor normalizado

 
ys_mql5 #:

es el valor normalizado

Continúa hasta que te hagas una idea.
 
Maxim Dmitrievsky #:
Continúa hasta que te hagas una idea.

Bueno, la desviación estándar en una ventana deslizante de valor fijo tendrá un rango de variación no normalizado dependiendo de la volatilidad. Por lo que yo sé, normalmente se utiliza z-score para esto ya que es un valor normalizado. Ese es el final del pensamiento )

 
ys_mql5 #:

Bueno, la desviación estándar en una ventana deslizante de valor fijo tendrá un rango de variación no normalizado dependiendo de la volatilidad. Por lo que yo sé, normalmente se utiliza z-score para este propósito, ya que es un valor normalizado. Hasta aquí la reflexión )

Lo tengo, tomo min / max sobre toda la historia disponible y establecer como límites, a continuación, dividir en rangos aleatorios en cada iteración del optimizador. También puede hacer zscore. Pensé que tal normalización podría ser mejor para el optimizador (deshacerse de los valores pequeños con un gran número de ceros después del punto decimal), pero no creo que deba ser.

 
Hola maxim, creo que eres la persona más inteligente del foro, espero ver una descripción detallada en el segundo artículo. agradecido