Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Vuelve a leer sobre OLAP. Puede que lo esté entendiendo mal, pero ahí no se encuentra el óptimo.
¿Qué sentido tiene trazar sólo esas secciones de datos?
Foro sobre trading, sistemas de trading automatizados y prueba de estrategias de trading.
Bibliotecas: BestInterval
fxsaber, 2018.10.12 16:24
Así que, si he entendido bien, la generalización a la biblioteca no lado, por desgracia.
Pero la generalización es posible, por supuesto.
He estado pensando y pensando, pero no se me ocurre nada que pueda filtrarse con tanta eficacia como el tiempo.
Es algo que no debería formar parte de la estrategia y que debería influir directamente en el comportamiento del mercado.
¿una pila? ¿otros flujos de datos?
Y otra pregunta - ¿tiene sentido hacer hipercubos? Creo que individualmente también debería filtrarse bien.
Parámetros, símbolos, días de la semana (parecen ser "tiempo" también, pero no he visto que se utilicen en BestInterval), duración de la retención (parece ser "tiempo" también, pero no absoluto, sino relativo), tamaños de lote, número de operaciones con un resultado determinado en el historial de cierres, etc.
Hypercube permite evaluar los datos en diferentes combinaciones - proporciona un análisis multiparamétrico. De acuerdo con esta lógica, uno puede preguntarse por qué optimizamos el Asesor Experto para todos los parámetros a la vez, en lugar de uno a la vez - sería menos costoso, y algunas personas tienen que hacer esto cuando el número de parámetros es demasiado alto.
Vuelve a leer sobre OLAP. Puede que lo haya entendido mal, pero ahí no se encuentra el óptimo.
¿Qué sentido tiene trazar secciones transversales de datos?
Así que, si he entendido bien, la generalización no tiene nada que ver con la biblioteca, por desgracia.
Pero la generalización es posible, por supuesto.
Bueno, en este sentido se puede considerar el hipercubo como meta-datos intermedios, en los que es fácil encontrar un óptimo en el sentido del enfoque BestInterval - ¿no? Basta con "vincular" todas las entradas del hipercubo a algún valor a maximizar (como el beneficio) y filtrar el hipercubo (como BestInterval filtra el tiempo) para obtener los mejores valores para otros parámetros, no sólo el tiempo.
Imaginemos que el código de BestInterval sigue siendo el mismo, pero en lugar del tiempo se han introducido otros números -al programa no le importa- seguirá encontrando el mejor "Intervalo".
Me refería a la posibilidad de sustituir el tiempo. No entiendo por qué la tabla debe ser llamado un hipercubo?
BestInterval en sí sólo maximiza el beneficio por el filtro. No se trata del filtro, se trata de encontrar el beneficio con un rechazo consistente.
En cuanto al filtro en forma de tiempo de apertura, es muy conveniente para TS en órdenes pendientes. Se puede utilizar en el Probador sin ningún problema.
Si consideramos otros filtros, entonces allí se requieren órdenes de mercado, ya que por lo general es imposible predecir el valor del filtro en un momento dado.
Me refería a la posibilidad de sustituir el tiempo. No entiendo por qué una tabla debe ser llamado un hipercubo?
BestInterval en sí sólo maximiza el beneficio por el filtro. No se trata del filtro, se trata de encontrar beneficio con rechazo consistente.
En cuanto al filtro en forma de tiempo de apertura, es muy conveniente para TS en órdenes pendientes. Se puede utilizar en el Probador sin ningún problema.
Si consideramos otros filtros, entonces allí se requieren órdenes de mercado, ya que por lo general es imposible predecir el valor del filtro por un momento de antemano.
Cuando hay muchas dimensiones "espaciales", obtenemos un hipercubo, podemos llamarlo simplemente una matriz multidimensional. Una tabla es su caso especial, el más simple. Por supuesto, se puede atornillar en cualquier algoritmo de "encontrar el beneficio con el rechazo sucesivo".
No entiendo lo de predecir el filtro por adelantado. Hay datos reales, los hemos procesado, recibido recomendaciones - ¿dónde están las predicciones aquí?
Cuando hay muchas dimensiones "espaciales", obtenemos un hipercubo, podemos llamarlo simplemente matriz multidimensional. Una tabla es su caso particular, el más simple.
En el contexto de la aplicación a la historia del comercio, un hipercubo es una tabla. Su sección - hacemos otra tabla recorriendo las columnas de la inicial.
Por supuesto, se puede atornillar cualquier algoritmo de "búsqueda de beneficios con rechazo consecutivo".
Sólo queda atornillarlo. Por ejemplo, hacer una tabla es ~5% de la biblia. El resto es "atornillar" y aplicar.
Sobre predecir el filtro con antelación - no lo entiendo. Hay datos reales, los procesamos, obtenemos recomendaciones, ¿dónde están las predicciones?
La predicción es sólo sobre el tema de "aplicar". Si, por ejemplo, se dice que no se debe abrir una posición cuando RSI > 90, es imposible operar esta condición a través de órdenes pendientes, porque es impredecible.
Y a la hora de aplicar el filtro, no se puede prescindir del entorno virtual. Por lo tanto, "atornillar" es una tarea algo diferente.
En el contexto de la aplicación al historial de operaciones, un hipercubo es una tabla. Su sección - hacemos otra tabla recorriendo las columnas de la inicial.
Sólo queda atornillarla. Por ejemplo, hacer una tabla es ~5% de un hipercubo. El resto es "atornillar" y aplicar.
La predicción acierta en el tema de "aplicar". Si, por ejemplo, se dice que no se debe abrir ninguna posición cuando RSI > 90, entonces tal condición no se puede negociar a través de órdenes pendientes porque es impredecible.
Hay cierta confusión terminológica por todas partes - no creo que tenga sentido aferrarse a las palabras - parece que queremos decir lo mismo, pero "estudiamos en diferentes escuelas especiales" (para mí una tabla es siempre plana ;-), se forma cruzando un hipercubo con algún hiperplano; se puede llamar al conjunto una tabla multidimensional, pero ya que se ha introducido un término más conciso, lo prefiero). Acerca de la predicción - de manera similar (después de la explicación el significado original quedó claro, pero la redacción elegida me parece inapropiada, puramente imho).
Hice OLAP - para el análisis multifactorial (los gráficos anteriores con un desglose por períodos (y otros parámetros), imho, también son interesantes), y no resolví el problema de la optimización automática sobre la base del hipercubo directamente. Lo ideal sería poder meter el cubo en el optimizador estándar y utilizarlo en el modo de cálculo matricial.
En general, nos desviamos un poco: la idea (como resulta, no sólo para mí, sino también para usted) era que los mejores "intervalos" se pueden buscar no por una dimensión (segmentos de tiempo intrade), sino por un montón de diferentes.
En cuanto a la terminología, entendemos los espacios multidimensionales y los planos igual al 100%. Igual que una tabla es una matriz plana NxM.
Cualquier trozo de tu hipercubo se obtiene a partir de una tabla plana, de eso se trata.
Lo ideal es meter el cubo en el optimizador estándar y utilizarlo en el modo de cálculos mat.
Esto está más cerca de MO, pero no tiene nada que ver con BestInterval. Allí, para cada pasada del optimizador, se lanza el "modo matlab".
El valor es exactamente en el hecho de que para cada pase de optimización. Es decir, puede tirar completamente (antes de la optimización) los parámetros responsables de la gama de tiempo (u otro filtro) del comercio de la TS original.
Debido a esto, el número de pases disminuye en órdenes de magnitud durante una búsqueda completa y la genética deambula menos.