Discusión sobre el artículo "Sistema secuencial de Tom DeMark (TD SEQUENTIAL) con uso de inteligencia artificial" - página 3

 
Nexxtor:

Lee.

Bien hecho por decidir publicar su TS y explicar a grandes rasgos cómo funciona, además de explicar un poco de teoría en términos de sus pensamientos sobre el trabajo de las redes neuronales directamente con el mercado Forex.

Sin embargo, el artículo es demasiado "el trader puede adivinar", "el trader debe tomar una decisión basada en su propia experiencia", etc. Todo muy vago para un título tan alto del artículo.

Según tengo entendido, no eres programador, de lo contrario el artículo sería más informativo, sistemático, y afinarías tu TS para no invertir posiciones.

Entonces habrías publicado los resultados de operar en el probador durante un año o dos, pre-entrenando la red cada quince días.

La inversión es siempre a su propio riesgo, no hay un algoritmo claro - esto es una gran desventaja.

Ni siquiera es un artículo sobre redes neuronales, es sólo una descripción de su CT.


Esperaba más detalles, más palabras sobre el trabajo detallado de la red neuronal propuesta, ejemplos de muestras de prueba, ejemplos de entrenamiento, ejemplos de trabajo después del entrenamiento.

Los artículos metadológicos no son necesarios aquí, los principiantes nunca lo harán bien de todos modos, y la gente entendida no está interesada en ello. Las personas que llevan mucho tiempo en Forex, que saben programar, suelen buscar una idea interesante con una explicación detallada de por qué es una buena idea, cómo funciona y cómo utilizarla. Luego la adaptan a sus necesidades, la incorporan a sus Asesores Expertos, indicadores, etc.

Por ejemplo, tengo un clusterizador de datos basado en la Red Neuronal de Kohonen en C++:

En él, la imagen de la izquierda son los datos originales, la imagen de la derecha es después de la agrupación, con cada clase firmada con un nombre de clase de dos dígitos, y la distancia mínima en la clase. La red consta de 7 neuronas. Hay 49 clases en total.

No tienes ni un solo ejemplo, que datos exactamente das de entrada y en que formato, que obtienes como salida, etc, descripción del algoritmo de aprendizaje, etc.


Gracias por tu interés. He publicado una descripción del optimizador en la página anterior. Hay un enlace a la organización del optimizador escrito por el propio autor.

Estoy programando en MQL4. Todas las rejillas están en los archivos adjuntos al artículo. El punto es que la tarea es construir un polinomio tal, que lleva el efecto de la generalización de la variable de salida. El polinomio en sí puede no ser grande, lo principal es que entiende la esencia del mercado. Camine a su paso.

Dado que el clasificador divide la muestra en dos áreas. Así que comparamos sólo las dos últimas señales, conociendo el resultado de la anterior y viendo en qué grupo ha caído la señal actual, podemos sacar ciertas conclusiones.

Sí, efectivamente el artículo era un poco árido, pero su esencia era familiarizar a los lectores con el MÉTODO de construir sistemas de trading. Intenta aplicar el "contexto del día" para tu TS y es probable que la formación incluya paternos que aparecerán durante el día.

Respecto a los retrocesos, ya expliqué en el artículo cómo se hace.

Viendo las entradas, no es difícil adivinar qué datos se utilizan para entrar. La salida se organiza por beneficios.

Te voy a contar un secreto, sólo a ti a nadie.... bien????

 

La cuestión es que es posible prescindir de NS y se hace de forma muy sencilla.

Existe el concepto de perfil delta. Cuando hemos recibido una señal y conocemos su ventana. Tenemos que construir un perfil delta para esta ventana. Si el "Contexto del día" coincide por volumen y OI, es decir, ambos subieron o bajaron al mismo tiempo, entonces nos movemos de acuerdo con el perfil delta, si el perfil delta para el volumen máximo en la ventana de compra es positivo, entonces compramos, si es negativo, entonces consideramos esta señal de compra "Falsa". Pero si el "Contexto del día" es diferente. Es decir, el volumen ha caído, pero la OI ha crecido. Entonces tenemos que trabajar desde la dirección opuesta. Normalmente en esos días el precio crece desde el perfil delta negativo y cae desde el positivo. Es un lío. Aquí no hace falta ninguna N, todo funciona bastante bien como está. Porque la propia Sequenta es adaptativa, y también el perfil delta, que es la razón del cambio de precio. Por desgracia, no hay ningún indicador de perfil delta para una determinada ventana, por lo que el TS funciona bien, pero no muy bien. Pero si fuera posible proporcionar estos datos a la entrada del EA, el tema se resolvería coordinadamente.

Si hay un deseo de escribir un Asesor Experto de acuerdo a las condiciones, podemos tratar, pero la cuestión del perfil delta en la ventana debe ser resuelto de alguna manera.....

 
toxic:

No todas las muestras son un segundo, sólo aquellas en las que hay un objetivo, pero qué quieres que te explique... mi "Sharp-ratio" no baja de 3 desde hace 3 años y eso teniendo en cuenta que muy a menudo rehago todo, reorganizo y de ahí un montón de transiciones de sistema, y en el modelo actual, en el real, tengo 8 "Sharp-ratio". Por lo tanto, decirle a alguien acerca de sus 30 líneas en el "contexto del día".

Usted puede poner su conjunto de datos, por supuesto, siempre es interesante, pero te diré de una vez que en la cuantificación de más de un minuto, no hay peces en el mercado desde hace mucho tiempo ya (a excepción de información privilegiada clásica), y también tengo técnicas bastante eficaces de detección de sobreentrenamiento, mi sistema "30 muestras" no tomará en serio, dirá "no hay suficientes datos".

¿Está usted familiarizado con las estadísticas en absoluto? ¿Has oído hablar del teorema del límite central? Sobre el tamaño mínimo de la muestra, que 30 muestras es el valor umbral mínimo de representatividad potencial de la muestra, para UNA FIGURA, en caso de distribución cuasi-normal, y es mejor de 200 -t . En un multímetro, el límite mínimo del tamaño de la muestra crece hasta 30^(D\2) donde D es el número de fichas.

Me parece que usted está haciendo un simple fitting señor, deje esta actividad tan poco prometedora, cada vez hay menos carne, pronto será como en los "países desarrollados" inversores cualificados y todo eso, a los pringaos no les dejarán entrar en el mercado y usted tendrá que pelearse directamente con los hedge funds e institucionales, y esos no son 30 líneas para aprenderse sus modelos, le robarán con este enfoque)))).


Veo que usted y yo tenemos diferentes enfoques para trabajar en el mercado. No voy a hacer cambiar de opinión a nadie ni a demostrar nada. Expongo la esencia del enfoque y las posibilidades de mejora de la estrategia, espero que sea útil para alguien (no para ti, por supuesto, qué quieres que te diga). Sin embargo, el significado de la construcción polinómica es la capacidad de dividir un espacio multidimensional por una línea universal, que mantendrá su eficiencia durante un cierto período de tiempo.

Sabe que tengo unas 100 columnas o entradas en mi archivo de entrenamiento, lo publicaré, quiero ver cómo su IA construirá un modelo sobre él. ¡¡¡¡¡Si es tan amable!!!!!

Y sobre el ajuste, diré que considero los datos y analizo el trabajo del modelo exclusivamente en la parte fuera de muestra, lo que es el ajuste, no lo entiendo.....
Archivos adjuntos:
 
De nuevo, con semejante ratio de Sharpe y durante un periodo tan largo, ¿por qué no te veo en la revista Forbes? ¡¡¡¡Así que..... sólo curiosidad!!!!
 
Saludos a todos, neuronka interesaba hace tiempo mucho y entendía y ahora también creo que detrás de ella el futuro y el presente ya, por supuesto con sus propias peculiaridades, tengo tal pregunta de la esencia de neuronka, si no entiendo mal que al enseñarle ciertos algoritmos busca similares en el futuro y opera sobre ellos, por supuesto en el movimiento digital y estructural en el mercado nunca es idéntico, y siempre hay desplazamientos, es decir.Por ejemplo, se da una señal y en la historia se repite 100 veces, pero de 100 veces, naturalmente, sólo una pequeña cantidad trae beneficios, el resto están en el negativo. Por qué no hay neuronka que se hace exactamente en los patrones o en las señales claras, lo que es una señal clara, es decir, en ciertos ajustes de cualquier indicador neuronka debe encontrar en la historia tal repetición que dará una eficiencia positiva, como resultado aquí es el número de señales separadas en mí debe dar el resultado con buena rentabilidad. Es decir, cualquier indicador y rentable y no rentable en manos hábiles, ¿por qué no cruzar 1 o más indicadores en una estrategia, más por la selección de los mejores resultados de ajuste a través de neuronka no deducir los mejores resultados y el comercio más en ellos. ¿Hay alguien que pueda hacer esto o puede hacerlo, yo participaría.
 
alexsandr11:
Saludos a todos, neuronka interesaba hace tiempo mucho y entendía y ahora también creo que detrás de ella el futuro y el presente ya, por supuesto con sus propias peculiaridades, tengo tal pregunta de la esencia de neuronka, si no entiendo mal que al enseñarle ciertos algoritmos busca similares en el futuro y opera sobre ellos, por supuesto en el movimiento digital y estructural en el mercado nunca es idéntico, y siempre hay desplazamientos, es decir.Por ejemplo, se da una señal y en la historia se repite 100 veces, pero de 100 veces, naturalmente, sólo una pequeña cantidad trae beneficios, el resto están en el negativo. Por qué no hay neuronka que se hace exactamente en los patrones o en las señales claras, lo que es una señal clara, es decir, en ciertos ajustes de cualquier indicador neuronka debe encontrar en la historia tal repetición que dará una eficiencia positiva, como resultado aquí es el número de señales separadas en mí debe dar el resultado con buena rentabilidad. Es decir, cualquier indicador y rentable y no rentable en manos hábiles, ¿por qué no cruzar 1 o más indicadores en una estrategia, más por la selección de los mejores resultados de ajuste a través de neuronka no deducir los mejores resultados y el comercio más en ellos. ¿Hay alguien que pueda hacer tal cosa o puede hacerlo, yo participaría.

Tienes toda la razón, hay una variante de la red cuando busca patrones en el futuro, los estudia y luego hace el mismo movimiento en el futuro. Sin embargo, es muy difícil encontrar un patrón en el pasado que se interprete sin ambigüedades. Es decir, de 100 patrones en el pasado (un mismo patrón), 50 darán un más y 50 darán un menos. ¿Qué hacer entonces? ¿Qué debe hacer la SN? Al preparar los datos, es importante que no haya contradicciones cuando el mismo patrón produce resultados diferentes. Por lo tanto, el proceso de generalización es la solución, cuando ante la aparición de un patrón, basándose en la información de las entradas, se llega a una conclusión sobre la veracidad o falsedad de la señal.
 
Mihail Marchukajtes:


Veo que tú y yo tenemos planteamientos muy diferentes de trabajar en el mercado. No voy a hacer cambiar de opinión a nadie ni a demostrar nada. He expuesto la esencia del planteamiento y las posibilidades de mejorar la estrategia, espero que a alguien le sea útil (a ti no, claro, qué quieres que te diga). Sin embargo, el sentido de construir un polinomio es la capacidad de dividir un espacio multidimensional por una línea universal, que se mantendrá funcional durante un cierto periodo de tiempo.

¿Sabe usted que tengo alrededor de 100 columnas o entradas en mi archivo de entrenamiento, voy a publicarlo, quiero ver cómo su IA construirá un modelo en él. ¡¡¡¡¡Si es tan amable!!!!!

Y sobre el ajuste, te diré que yo considero los datos y analizo el trabajo del modelo exclusivamente sobre participantes fuera de muestra, qué ajuste hay ahí, no lo entiendo.....

Perdón por una ligera agresión, rara vez me comunico en foros y redes sociales, por lo que a veces puedo comportarme no políticamente correcto. Reacciones y citas a mis mensajes duros pueden ser eliminados o editados si lo desea.

Para compartir su enfoque, gracias, en nuestro negocio es raro, incluso si el enfoque es original, en realidad DEBE ser original, de qué otra manera, si nos robamos unos a otros y la muñeca. Aquí hay que ser original e inventivo))))))

Sobre el segundo conjunto de datos que ha publicado a decir nada no puedo decir nada por desgracia, para 100 fichas necesitan al menos 10k muestras para la formación y al menos mil en la prueba que diría algo definitivo. Pero mi modelo puede hacer frente tanto con un chip y 10k.

Voy a salir el modelo lineal de arriba, entrenado en 50 muestras, por la noche voy a comprobar, puramente por el bien de experimento, aunque IMHO la probabilidad de que dará al menos 51% en 14k muestras de prueba es cercana a cero.

Voy a publicar el resultado si lo desea.

 
toxic:

Perdonen la ligera agresividad, rara vez interactúo en foros y redes sociales, así que puede que a veces no me comporte de forma políticamente correcta.

Por compartir tu planteamiento, gracias, en nuestro negocio es raro, aunque el planteamiento sea peculiar, de hecho DEBE ser peculiar, cómo si no, si nos robamos unos a otros y al muñeco. Aquí hay que ser original e inventivo))))))

No puedo decir nada sobre el segundo conjunto de datos que has publicado, por desgracia, para 100 fichas que necesita por lo menos 10k muestras para la formación y por lo menos mil en la prueba, que diría algo definitivo.

Voy a salir el modelo lineal de arriba, entrenado en 50 muestras, por la noche voy a comprobar, puramente por el bien de la experimentación, aunque IMHO la probabilidad de que dará al menos 51% en 14k muestras de prueba es cercana a cero.

Publicaré el resultado si quieres.


Por supuesto. ¡Me alegraré mucho! Resultados interesantes.....
 
toxic:

Perdonen la ligera agresividad, rara vez interactúo en foros y redes sociales, así que puede que a veces no me comporte de forma políticamente correcta.

Por compartir tu planteamiento, gracias, en nuestro negocio es raro, aunque el planteamiento sea peculiar, de hecho DEBE ser peculiar, cómo si no, si nos robamos unos a otros y al muñeco. Aquí hay que ser original e inventivo))))))

Sobre el segundo conjunto de datos que has publicado para no decir nada no puedo decir nada por desgracia, para 100 fichas necesitan al menos 10k muestras para la formación y al menos mil en la prueba que diría algo definitivo. Pero mi modelo puede hacer frente tanto con una característica y 10k.

Voy a salir el modelo lineal anterior, entrenado en 50 muestras, por la noche voy a comprobar, sólo por el bien de experimento, aunque IMHO la probabilidad de que dará al menos 51% en 14k muestras de prueba es cercana a cero.

Si quieres posteo el resultado.


Es un poco confuso con las definiciones, pero me he dado cuenta de que con una matriz de 100 por 100, cuando tenemos 100 columnas (entradas) y 100 registros (señales) el modelo consigue un aumento de la generalizabilidad. Es decir, una matriz 100 X 100 entrenará mejor que una matriz 10X100 y peor que una matriz 100X10, donde el primer dígito es el número de entradas y el segundo dígito es el número de señales. Es decir, cuando el número de entradas supera significativamente el número de señales, el NS, como se suele decir, tiene mucho donde elegir y, por tanto, el modelo consigue un mayor nivel de generalización. Cuando el número de entradas es mucho menor que el número de señales, entonces el modelo no es muy bueno, porque se hace difícil elegir debido a la aparición de datos contradictorios. Además, puedo decirte un truco, pero esto ya está en privado. El truco no es muy importante, pero el efecto que trae es significativamente interesante.
 
Mihail Marchukajtes:


Entonces... por favor explícame un par de cosas, por ejemplo, tomo un archivo toad, ¿es un modelo entrenado? Hay cuatro métodos, no hay referencias a referencias y en los propios métodos los coeficientes están shardcoded, pero toman 5 fichas, y había 15, ¿qué fichas usaste o cómo redujiste la dimensionalidad de 15->5?

¿Y necesito el binario *.vrm para algo, si solo necesito hacer una prueba?