Discusión sobre el artículo "Simulador rápido de estrategias comerciales en Python usando Numba" - página 3
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Reentrenamiento fuerte del modelo básico como en el artículo. Dos versiones antes y después:
Optimizar ahora no sl/tp, sino entradas por meta_etiquetas (comercio/no comercio):
Parece una optimización por ruido
Optimización por rangos de volatilidad. Dónde operar y dónde no.
Optimización por rangos de volatilidad.
¿Cómo se calcula este parámetro?
Dónde operar y dónde no.
¿Se busca un intervalo de valores de volatilidad o varios intervalos?
¿Cómo se calcula este parámetro?
¿Se busca un único intervalo de valores de volatilidad o varios intervalos?
Un intervalo de anchura fija. Es decir, la optimización de los límites del intervalo.
A continuación, una matriz con las mejores variantes se guarda, como en MT5 optimizador, usted puede elegir.
Incluso hay un filtro para el número mínimo de operaciones.
Si se está versado en estadística, la cuestión es cuál es mejor:
Si hay algún estadístico versado, la pregunta es cuál es mejor:
Respuesta de Claude. Los otros modelos respondieron francamente mal (excepto gpt-o1, no lo tengo):
Desde un punto de vista estadístico matemático, analicemos ambos enfoques:
1. Optimización con n parámetros:
- Pros:
* Búsqueda directa de los parámetros óptimos
* Posibilidad de establecer restricciones específicas
- Desventajas:
* Problema de la "maldición de la dimensionalidad" cuando n es grande
* Alto riesgo de sobreentrenamiento
* Dificultad para validar los resultados
2. Construcción de un modelo sobreentrenado seguido de la búsqueda de intervalos robustos:
- Pros:
* Mejor comprensión de los patrones estables.
* Capacidad para identificar dependencias realmente estables.
* Validación más fiable de los resultados
- Desventajas:
* Dificultad para definir criterios de robustez.
* Riesgo de pasar por alto interacciones no lineales importantes.
Desde el punto de vista de matstat, el segundo enfoque es preferible por las siguientes razones:
1. Significación estadística:
- Permite una mejor evaluación de la significación estadística de los patrones encontrados.
- Da la oportunidad de aplicar métodos de comprobación de hipótesis
2. 2. Resistencia de los resultados:
- Los intervalos robustos son, por definición, más resistentes a los cambios en las condiciones del mercado.
- Reduce el riesgo de sesgo por fisgoneo de datos
3. Generalizabilidad:
- Лучше работает principle of parsimony ([бритва Оккама](https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9B%D0%B5%D0%B2%D0%B5%D0%BD%D1%88%D1%82%D0%B5%D0%B9%D0%BD%D0%B0))
- Mayor probabilidad de descubrir patrones que realmente funcionen
4. Control del sobreaprendizaje:
- Separación explícita en una fase de construcción de modelos y otra de extracción de áreas estables
- Возможность применения [кросс-валидации](https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%BE%D1%81%D1%81-%D0%B2%D0%B0%D0%BB%D0%B8%D0%B4%D0%B0%D1%86%D0%B8%D1%8F)
En general, el segundo enfoque es más sólido desde el punto de vista científico y se ajusta mejor a los principios de la inferencia estadística, aunque requiere una metodología más rigurosa.
Construcción de un modelo sobreajustado y búsqueda de intervalos robustos
Imaginemos que las citas constan de pequeños intervalos con patrones y grandes intervalos de ruido. Entrenarlos todos juntos es una detección de patrones muy débil. Así que incluso si encuentras estos intervalos más tarde, habrá un modelo de mierda allí - lejos de ser óptimo como si el modelo se construyó sobre estos intervalos.
Así que es mejor buscar primero los intervalos y luego entrenar sobre ellos. Esta es la tercera opción.
Imaginemos que las citas constan de pequeños intervalos con patrones y grandes intervalos de ruido. Entrenarlos todos juntos es una detección muy débil de regularidades. Así que incluso si encuentras estos intervalos más tarde, habrá un patrón de mierda allí.
Respuesta de Claude.
Desde un punto de vista matstat, el segundo enfoque es preferible