Necesito ayuda sobre el resultado de la optimización - página 4

 
sergeyrar:

Muchas gracias por su tiempo. Realmente aprecio esto

por lo que por los siguientes resultados de la prueba sólo he sido extremadamente afortunado ??

la cantidad máxima de operaciones perdedoras consecutivas para todo este período (de aproximadamente 23 grupos de 50 operaciones - no podía exprimir todo en una prueba) fue 41 (que puede dividir entre 2 grupos de 50 operaciones)

¿Debería haber visto ese tipo de reducción con más frecuencia?

eventualmente si continúo "jugando" a este juego conseguiré el 9% de las veces ese tipo de pérdidas ?

Ahora una cosa más

según este informe

la probabilidad media de tener una operación rentable es del 8,85% y una operación perdedora es del 91,15%.

por lo que según esto la posibilidad de tener 50 pérdidas consecutivas es : 0.9115^50 = 0.97% ...

que está bastante lejos del 9% ... ¿cómo puede ser esto?

Si perdiera el 95,3% de las veces sería correcto, y con ese porcentaje mi expectativa sería negativa O_O

Ex= 0.953*(-23)+0.047*(247) = -10.31 pips de beneficio por operación


Es importante entender que las estadísticas calculadas y presentadas en el informe automatizado son "específicas de la serie temporal". Esto significa que, literalmente, sólo son relevantes para pronosticar las características de las operaciones futuras, siempre que el propio mercado tenga las mismas características de la serie temporal...., lo que, por razones obvias, nunca sucede.

Realmente puede perderse al tratar de adivinar el futuro a partir de las estadísticas de un informe de backtesting. En el peor de los casos, los resultados del backtesting son total y absolutamente inútiles; en el mejor de los casos, si se ha preparado correctamente la forma de realizar el backtesting, se pueden generar algunas pepitas de datos que permitan hablar de cosas que no deberían estar correlacionadas con las series temporales utilizadas en el backtesting.

Sólo recuerde que NO está tratando con un proceso estacionario. Prácticamente todas las estadísticas que pueda calcular basándose en el backtesting son irrelevantes para proporcionar una indicación de los resultados futuros, ya que la distribución matriz nunca está totalmente muestreada (no puede estarlo porque todavía no existe, el tiempo crea más espacio sin muestrear) y las estadísticas de la distribución cambian, como la media y la desviación estándar.

Teniendo esto en cuenta, se supone que hay que considerar los cálculos del riesgo de pérdida como un resultado del "mejor caso", ya que es más probable que la desviación estándar sea más amplia en la realidad que la generada a partir del muestreo limitado encontrado durante el backtesting.
 

hola de nuevo :)

He cambiado el período de la muestra de grupos de 50 operaciones para el cálculo por mes y llegó a los siguientes resultados :

asumiendo que estos valores se distribuyen normalmente ( que puede no ser el hecho aquí )

1. ¿Existe una forma de tener en cuenta la asimetría y la curtosis en el cálculo de la ROR?

2. ¿Es realmente una distribución normal? Si no es así, ¿cómo se puede tratar?

 
sergeyrar:

hola de nuevo :)

He cambiado el período de la muestra de grupos de 50 operaciones para el cálculo por mes y llegó a los siguientes resultados :

asumiendo que estos valores se distribuyen normalmente ( que puede no ser el hecho aquí )

1. ¿Existe una forma de tener en cuenta la asimetría y la curtosis en el cálculo de la ROR?

2. ¿Es realmente una distribución normal? Si no es así, ¿cómo se puede tratar?


Una frase con la que quizá no estés familiarizado es "therein lies the rub" (ahí está el problema), que supongo que se traduce vagamente en algo así como "el diablo está en los detalles", en el sentido de que una vez que te das cuenta de los detalles que importan, te das cuenta de que es un diablo con el que hay que lidiar.

Sí, estás asumiendo una distribución normal cuando en realidad tus resultados no son representativos de una distribución normal.

Por cierto, es un tema totalmente secundario, pero puedes encontrar que tus histogramas te sirven mejor si optimizas el tamaño de la bandeja.

Optimización del ancho de la bandeja del histograma

He implementado este código en MQL, puede que incluso lo haya subido aquí si revisas mis posts. Pero voy a decir que si usted decide seguir esto es una de esas cosas que realmente necesita para bucear en y enseñar a ti mismo de lo contrario no va a entender realmente por qué un histograma optimizado bin-ancho es útil o especial.

Volviendo a tu tema, el punto clave que has descubierto es que cuando realizas análisis estadísticos sobre tus resultados de backtesting a menudo utilizarás estadísticas que sólo son rigurosamente ciertas si tus datos son muestras tomadas de una distribución gaussiana. Donde la gente tiende a fallar en sus esfuerzos en esa coyuntura es en la comprobación de esta suposición, verificando que tienen alguna legitimidad en la aplicación de las estadísticas de la distribución normalizada a sus análisis.

En este punto se llega a una bifurcación del camino... se puede optar por perseguir resultados "estadísticamente caracterizables", descartando quizás los resultados aparentemente óptimos por razones de que no se ajustan a la estadística de distribución normalizada, o se buscan métodos más generalizados de análisis de los resultados de las pruebas retrospectivas de manera que los métodos sean robustos y proporcionen métricas significativas y útiles para predecir los resultados futuros.

Aquí hay un ejemplo de un análisis que realicé a partir del cual tuve mi epifanía con respecto a la tontería de usar estadísticas de distribución normalizadas en mis caracterizaciones de backtest:



Los puntos rojos son puntos de datos, la línea verde sólida es la función gaussiana mejor ajustada a los puntos de datos rojos, la línea azul claro es la función de distribución gaussiana generalizada mejor ajustada.

¿Tiene usted inclinación por las matemáticas y no le intimida adentrarse en el campo de los análisis estadísticos más allá de la distribución tradicional basada en la gaussiana? ¿O es más probable que no sea su pasión ni su estilo y que, por tanto, prefiera descartar e ignorar estos resultados aparentemente extraños y seguir caracterizando los que se ajustan a las métricas más fácilmente interpretables?

En este punto no hay consenso en el camino que debes elegir, es más una cuestión de personalidad y pasión. Haz lo que te parezca natural y fácil.

 
zzuegg:

El beneficio no es un buen parámetro de optimización, el factor de beneficio y el drawdown dicen más sobre una estrategia...

Voy a secundar eso y tal vez reenfocar el pensamiento en el hilo...
Una estrategia sólida no debería necesitar mucha optimización...?

Si usted está scalping, debe haber un nivel observado de TP y SL que va a ir para
Si se trata de grid-trading, el TP y el SL son evidentes, al igual que con el range-trading
Las operaciones de oscilación necesitarán paradas basadas en el ATR o en el Fibo
Las operaciones deposición serán demasiado escasas para producir estadísticas significativas de optimización, así que...
¿Qué es lo que buscamos?
Si una estrategia no es (realmente) completa, ¿la optimización realmente va a compensar la diferencia?

FWIW

-BB-

 
@BarrowBoy "Una estrategia sólida no debería necesitar mucha optimización..." La optimización no puede hacer que una estrategia sea buena de una mala, pero ¿no crees más bien que la optimización se hace para encontrar los ajustes que están revelando las oportunidades del momento?
Razón de la queja: