Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1249

 
Aleksey Vyazmikin:

Así que supongo que el sujeto es el mismo en todas partes: un comerciante y ¿por qué iba a cambiar su comportamiento en función del instrumento?

Al final has decidido en tu razonamiento que no hay diferencia si el caballo va por delante del carro o viceversa: ¡el carro va por delante del caballo! ))))

Un operador se adapta al mercado, porque no hay ningún participante en el mercado que pueda decir dónde estará el precio mañana, no hay ningún participante en el mercado que tenga toda la información sobre todos los participantes en el mercado


Aleksey Vyazmikin:
Si partimos de la base de que los mercados son todos iguales y el comportamiento de los precios tiene pautas similares, ¿por qué no combinar una docena de instrumentos en una muestra y buscar "señales" comunes para todos los mercados?

Supongo que entonces en el optimizador siempre tendrá su TS soluciones excelentes (espero que no considere operar con stop-loss y exceso de riesgo), pero normalmente todo es triste, lo que funciona en un mercado puede no funcionar en otro.

Este es el problema general: simplificar el modelo (el mercado) a las coordenadas cartesianas X e Y, sobre la base de su suposición de que todos los mercados son los mismos, entonces hay un coeficiente de transformación (lineal o no lineal) que le permite convertir algunos datos en otros - si es así, entonces es un problema para el NS, que resuelve el problema de encontrar la dependencia de los datos de entrada en la salida, una tabla de multiplicación no ha alimentado el NS sólo perezoso aquí ;)

 
Igor Makanu:

Supongamos, entonces en el optimizador siempre tendrá su TS encontrar grandes soluciones (espero que no estamos considerando el comercio con las pérdidas de rebasamiento y los riesgos de anulación), pero por lo general todo es triste, lo que funciona en un gráfico no funciona en el otro


Esto sólo indica que la red neuronal o lo que sea que esté usando ha encontrado otra mierda. Se aferra a la forma, se adapta en un área local, una de millones de implementaciones, pero es incapaz de "entender" la estructura global. Pero lo principal, ir, quiero decir ganar, ¿no?

Si estás tan empeñado en el modus operandi, queriendo desviar la responsabilidad de su propia cabeza y ojos, y desalmado tinker, pues aquí tienes un "criterio" para la evaluación final.Si encontró "algo" en los 15 minutos de la libra, debería funcionar igual en los minutos del oro y en el diario-semanal de los "chemos" domésticos, y en todo, incluyendo el azúcar y la soja de la época de Larry Williams.

Perdón por ser tan grosero (Igor Makanu: no tú personalmente, sino en general), abre los ojos y mira en los gráficos del libro "Long-Term Secrets"... O Linda Raschke tiene algunas fotos, ¿ves muchas diferencias de 15 minutos de la libra o relojes bitcoin :)

Si se juzga por el porcentaje de operaciones rentables, por el factor de ganancia, todo depende del instrumento, el marco de tiempo, la diferencia es más o menos 3-4 por ciento, no más. Con el crecimiento del marco de tiempo la estabilidad de los patrones está cayendo. Lo más preciso es en los "ticks", lo que se prueba con ellos, los parámetros del sistema son tan ajustados como antes. Pero la estructura del patrón no se "deshace", incluso en MN, sigue siendo el mismo patrón, la diferencia está en los porcentajes.

--

La base férrea de la "igualdad" de todos los gráficos del mercado está ahí, no pueden ser diferentes de forma puramente física. Tampoco pueden cambiar a lo largo del tiempo, ni siquiera por "un milímetro", bueno, a menos que, por ejemplo, cambie la velocidad de la luz o el número de PI.

He enlazado más de una vez un libro que dice por qué son iguales y por qué no pueden cambiar con el tiempo.

 
Aleksey Vyazmikin:

Tenía la formación de 2016-2017 y luego sólo revisé las fichas de 2014-2018 y seleccioné las que eran rentables todos los años y cumplían otra serie de criterios (crecimiento global/sin grandes detracciones). Así que me pregunto si se puede utilizar un modelo de este tipo.

En cuanto a la combinación de diferentes instrumentos, tanto predictor aquí es la ganancia en pips para diferentes intervalos de tiempo, y no va a funcionar con diferentes instrumentos ...

¿Qué es un paquete o un programa en el que se pueden ver las hojas individuales y sus estadísticas?

¿Enseñaste un árbol o un bosque allí?
 
Wizard2018:

Sólo muestra que la red neuronal o lo que sea que esté usando ha encontrado otra falsa. Se aferra a la forma, se ajusta en una sección local, una de las millones de variantes de implementación, pero no puede "entender" la estructura global.Pero lo principal es conducir, es decir, ganar, ¿no?

Si tanto se empeñan en el MOD, en querer desplazar la responsabilidad de su propia cabeza y ojos, a un bogie sin alma, pues aquí está el "criterio" para la evaluación final.Si ha encontrado "algo" en los 15 minutos de la libra, debería funcionar igual en los minutos del oro y en el diario-semanal de los "chemos" domésticos, y en todo, incluyendo el azúcar y la soja de la época de Larry Williams.

Perdón por ser tan grosero (Igor Makanu: no es para ti personalmente, sino en general), abre los ojos, mira los gráficos en el libro "Long-Term Secrets"... O Linda Raschke tiene algunas fotos, ¿ves muchas diferencias de 15 minutos de la libra o relojes bitcoin :)

Si se juzga por el porcentaje de operaciones rentables, por el factor de ganancia, todo depende del instrumento, del marco de tiempo, la diferencia es de más o menos 3-4 por ciento, no más. Con el crecimiento del marco de tiempo la estabilidad de los patrones está cayendo. Lo más preciso es en "ticks", cualquiera que sea la prueba, los parámetros del sistema son tan ajustados como antes. Cuanto más tiempo se tarda en formar un patrón, más fuerte tiembla la imagen.

--

La base férrea para que todos los gráficos del mercado sean "iguales" está ahí, no pueden ser diferentes de forma puramente física. Tampoco pueden cambiar a lo largo del tiempo, ni siquiera por un "milímetro", bueno, a menos que por ejemplo cambie la velocidad de la luz o el número de IPs.

Más de una vez he dado un enlace a un libro, lo dice todo, tanto por qué son iguales como por qué no pueden cambiar con el tiempo.

Lo siento, no siempre tengo tiempo para leer todas las discusiones en el hilo, lo leeré, no hay nada que leer ahora de todos modos

 

¿R o Python? ¿Por qué no ambos? Usando Anaconda Python dentro de R con {reticulado}

R or Python? Why not both? Using Anaconda Python within R with {reticulate}
R or Python? Why not both? Using Anaconda Python within R with {reticulate}
  • Econometrics and Free Software
  • www.r-bloggers.com
This short blog post illustrates how easy it is to use R and Python in the same R Notebook thanks to the package. For this to work, you might need to upgrade RStudio to the current preview version. Let’s start by importing : is an RStudio package that provides “a comprehensive set of tools for interoperability between Python and R”. With it...
 
Vizard_:

Fa, necesita un filtro normal como el JMA de Jurica, pero antes del 71.
Preferiblemente no muy complicado y en R. ¿Tienes alguna?

No.

Llevo mucho tiempo usando el JMA refinado en mcl4 en cuanto a la adaptación del periodo, pero no sirve de mucho: se desvanece como todo. De vez en cuando tenía que intervenir con mis manos.

Utilizo indicadores como predictores, pero no conozco ningún suavizado que tenga poder predictivo para mis variables objetivo.

Si se trata de filtros, hay un curioso paquete llamado smooth. Dentro del alisado se encuentra Kalman con espacio de estado. Proporciona mashups de muy buena calidad, y con extrapolación (previsión) para varios pasos adelante.


Pero de nuevo, lo principal para mí es: capacidad de predicción para el objetivo, y todo en este paquete es el mismo problema: no tiene capacidad de predicción.


Por eso he renunciado a todos los filtros, alisados y demás.

 
Igor Makanu:

¡en tu razonamiento has decidido finalmente que da igual que el caballo vaya por delante del carro o que el carro vaya por delante del caballo! ))))

Un operador se adapta al mercado, porque no hay ningún participante en el mercado que pueda decir dónde estará el precio mañana, no hay ningún participante en el mercado que tenga toda la información sobre todos los participantes en el mercado

El comerciante es una imagen colectiva, es una persona que expresa la voluntad de una persona (física o jurídica), que influye en el mercado aplicando sus habilidades para satisfacer las necesidades de un cliente. Por eso digo que colectivamente ganan las habilidades similares en todos los instrumentos, no por los conocimientos o las habilidades en sí, sino por la cantidad de activos de los interesados que se utilizan. Añádase a esto la religión global del análisis técnico, que es inaplicable a la mayoría de los participantes en el mercado (una vez que dejé caer un enlace a la exigencia del Banco Central de conocer estos postulados para un participante profesional en el mercado de valores)... No se puede saber dónde estará el precio, nuestra tarea es entender cómo se moverá el precio en función del vector de movimiento elegido y minimizar el coste de entrada en la operación, el precio del riesgo.


Igor Makanu:


Supongamos entonces que en el optimizador siempre tendrá su TS encontrará grandes soluciones (espero que el comercio con la pérdida de sobrecompensación y el exceso de riesgo, no consideramos), pero por lo general todo es triste, lo que funciona en un gráfico no funciona en el otro

Este es el problema general: simplificar el modelo (el mercado) a las coordenadas cartesianas X e Y, sobre la base de su suposición de que todos los mercados son los mismos, entonces hay una relación de transformación (lineal o no lineal), lo que le permite convertir algunos datos en otros datos - si es así, entonces es un problema para el NS, resuelve perfectamente el problema de encontrar la dependencia de los datos de entrada en la salida, la tabla de multiplicación no se alimenta a la NS por el perezoso ;)

Estoy trabajando más con predictores, que describen el mercado, y ya tengo más de 300 de ellos, y 300 entradas es demasiado complicado para SN... Por eso utilizo modelos arbóreos. En cualquier caso la tarea es convertir los puntos a unidades relativas para que los predictores no dependan del instrumento. Yo lo hago con el ATR diario, pero puede que haya un método mejor, no lo sé. En cualquier caso necesito probar diferentes métodos de transformación de datos, ya que mi muestra de entrenamiento es pequeña - no se tienen en cuenta todas las variaciones o se presentan de forma cuantitativa pequeña, lo que impide identificar la regla (formación de la lista).

 
elibrarius:

¿Cuál es el paquete o programa en el que se pueden ver las fichas individuales y las estadísticas de su trabajo?

¿Entrenó un árbol o un bosque allí?

Sí, es muy instructivo trabajar con el muestreo en Deductor Studio - puedes reconstruir ramas o construir un árbol desde cero - una herramienta muy buena para entender cómo funciona el árbol y para probar tus hipótesis. La desventaja es que el paquete se paga y no puedes descargar las reglas (hojas) tan fácilmente...

Uso el script de R para generar el árbol con la genética, luego uso el script para descargar los datos del árbol en cada iteración, y luego uso el programa parser, que fue escrito por separado, convierte los árboles en hojas en este formato:

            if(Test_P!=1245)if(DonProc>=5.5 && TimeH< 10.5 && Levl_High_H4s1< 1.5) CalcBuy=CalcBuy+1; //(0.22513089 0.30366492 0.47120419)
            if(Test_P!=2030)if(Povtor_Low_M1>=0 && TimeH>=10.5 && TimeH< 21.5 && BB_iD_Center_H1< 0 && Levl_Close_D1>=-2.5 && Levl_Support_W1s1< 4.5 && LastBarPeresekD_Down_M15< 4.5) CalcBuy=CalcBuy+1; //(0.09111617 0.51252847 0.39635535)
            if(Test_P!=2537)if(Povtor_High_M1>=0 && rLevl_Down_iD_RSI< -6.5 && TimeH< 14.5) CalcBuy=CalcBuy+1; //(0.1990172 0.3832924 0.4176904)
            if(Test_P!=3243)if(Levl_Close_H1>=0 && TimeH<10.5 && Levl_Support_W1<-3.5) CalcBuy=CalcBuy+1; //(0.1153846 0.1538462 0.7307692)
            if(Test_P!=3314)if(Levl_Close_H1>=0 && TimeH< 10.5 && Levl_Low_W1s1N< 4.5 && Levl_Support_W1< -3.5) CalcBuy=CalcBuy+1; //(0.1153846 0.1538462 0.7307692)
            if(Test_P!=3583)if(Povtor_Type_M1>=0 && TimeH< 10.5 && Levl_Close_W1< -3.5) CalcBuy=CalcBuy+1; //(0.11428571 0.20000000 0.68571429)
            if(Test_P!=3857)if(Povtor_Type_M1>=0 && TimeH<10.5 && Levl_Support_W1<-3.5) CalcBuy=CalcBuy+1; //(0.07142857 0.17857143 0.75000000)
            if(Test_P!=6546)if(Povtor_Type_H1< 0 && Levl_Close_H1s1N>=0 && Levl_Close_H1s1N< 2.5 && Levl_High_W1s1>=2.5 && DonProc_M15>=5.5) CalcBuy=CalcBuy+1; //(0.1228070 0.4210526 0.4561404)
            if(Test_P!=6676)if(Povtor_Type_H1< 0 && Levl_Close_H1s1N>=0 && Levl_Close_MN1< 4.5 && TimeH< 21.5 && BB_iD_Center_H1< 0 && Povtor_Type_M15>=0 && Levl_Down_DC_M15>=-2.5) CalcBuy=CalcBuy+1; //(0.10619469 0.42477876 0.46902655)
            if(Test_P!=8673)if(Levl_Close_H1s1< 0 && Levl_Close_H1s1N>=0 && Part_H4>=2.5 && TimeHG< 3 && Levl_first_W1s1>=0.5) CalcBuy=CalcBuy+1; //(0.11607143 0.40178571 0.48214286)
            if(Test_P!=8840)if(TimeHG>=1.5 && RSI_Open_M1< 0.5 && BB_Peresek_Last_M1< 0.5 && RSI_Open_M1>=-0.5 && Levl_Support_W1s1>=-4.5 && Povtor_Low_H1>=0 && Levl_Support_H4>=0 && RegressorSpeed< 1.5) CalcBuy=CalcBuy+1; //(0.1606218 0.4145078 0.4248705)
            if(Test_P!=10002)if(rOpen_WormsDown>=0 && BB_Peresek_Last_M1< 0.5 && rDeltaWorms< 2.5 && DonProcVisota< 4.5 && Part_D1< 3.5 && BB_iD_Center_H1< 0 && Levl_Close_H1s1N>=0) CalcBuy=CalcBuy+1; //(0.1890244 0.3963415 0.4146341)
            if(Test_P!=10395)if(rOpen_WormsDown>=0 && Povtor_Type_M15>=0 && Levl_Low_H1< -4.5 && Levl_Close_H1s1N>=0) CalcBuy=CalcBuy+1; //(0.1990741 0.3888889 0.4120370)
            if(Test_P!=14244)if(rPeresek_Up<0.5 && BB_Peresek_Last_M1<0.5 && Polozhenie_M1>=0 && Povtor_High_H1<-2.5) CalcBuy=CalcBuy+1; //(0.1948052 0.3506494 0.4545455)
            if(Test_P!=14462)if(rPeresek_Up<0.5 && BB_Peresek_Last_M1<0.5 && Polozhenie_M1>=0 && DonProc_M15<9.5 && Levl_Support_H4s1<4.5 && Povtor_High_H1<-2.5) CalcBuy=CalcBuy+1; //(0.2112676 0.3239437 0.4647887)
            if(Test_P!=17944)if(Levl_Low_H1s1N< -1.5 && Levl_Close_H4>=0 && Levl_Close_H1s1N>=0 && BB_iD_Center_H1< 0 && Part_H1< 2.5) CalcBuy=CalcBuy+1; //(0.1408451 0.3239437 0.5352113)
            if(Test_P!=18382)if(Povtor_Low_M15< 3.5 && LowPerekH1s1_1< 0.5 && Polozhenie_M1>=0 && BB_iD_Down_M1>=-5.5 && DonProcVisota>=3.5 && Povtor_Low_M15< 1.5 && BB_iD_Down_M1>=-1.5) CalcBuy=CalcBuy+1; //(0.1659389 0.3842795 0.4497817)
            if(Test_P!=19123)if(rPeresek_Down< 0.5 && Povtor_Low_M15< 3.5 && LowPerekH1s1_1< 0.5 && Polozhenie_M1>=0 && rCalcLvlWorms< 1.5 && DonProcVisota>=3.5 && rLevl_UpPeresek_iD_RSI< 1.5 && RegressorCalc_S1>=-1.5 && Levl_first_W1s1>=-0.5) CalcBuy=CalcBuy+1; //(0.1225490 0.4313725 0.4460784)
            if(Test_P!=26038)if(Levl_Support_H1s1>=-3.5 && Part_H4< 2.5 && LowPerekH1s1_0>=0.5 && Part_H1>=1.5) CalcBuy=CalcBuy+1; //(0.1912568 0.4153005 0.3934426)

Luego uso el EA que lee los predictores del archivo y el resultado financiero y aplica hojas sobre ellos en modo de optimización "Cálculos matemáticos" y dentro de él ya recojo estadísticas por cálculo de indicadores financieros y otras estadísticas, que se pasan de los agentes al EA en tramas y se reúnen en un archivo como resultado.


Luego miro la hoja correspondiente a cada periodo de información.

 
Aleksey Vyazmikin:

Sí, es muy instructivo trabajar con el muestreo en Deductor Studio - puedes reconstruir ramas o construir un árbol desde cero - una herramienta muy buena para entender cómo funciona el árbol y para probar tus hipótesis. La desventaja es que el paquete se paga y no puedes descargar las reglas (hojas) tan fácilmente...

Uso el script de R para generar el árbol con la genética, luego uso el script para descargar los datos del árbol en cada iteración, y luego uso el programa parser, que fue escrito por separado, convierte los árboles en hojas en este formato:

Luego uso el EA que lee los predictores del archivo y el resultado financiero y aplica hojas sobre ellos en modo de optimización "Cálculos matemáticos" y dentro de él ya recojo estadísticas por cálculo de indicadores financieros y otras estadísticas, que se pasan de los agentes al EA en tramas y se reúnen en un archivo como resultado.


A continuación, examino el comportamiento de la hoja en cada período de referencia.

Cielos, todo lo que se hace manualmente debería hacerlo una red neuronal, y así.... Pérdida de tiempo, y si el resultado es negativo, tienes mucha frustración y búsqueda de otros métodos.

 
Vizard_:

Martillo. Pruebe la retroiluminación para mayor comodidad (mapas de calor)

Sí, he visto implementaciones de este tipo con retroiluminación, pero es un algoritmo separado para escribir, y un lienzo para atraer, que no he tratado en absoluto. Por eso lo saco con fórmulas. Pero un mapa sería interesante, pero entonces es mejor usar multidimensional...

Ahora estoy pensando en lo que debe apuntar a la hora de recoger las hojas para un modelo, en primer lugar he seleccionado las hojas estables - ya he escrito, entonces viene hojas de filtro (tengo -1/0/1 clasificación - venta / no entrar / comprar), respectivamente filtro puede ser hojas de "no entrar" grupo y de "comprar" grupo para la venta, y de hecho son del grupo "vender" - ya que o bien el patrón era falso o el gráfico de aplicación de hojas a la entrada en el mercado no cubre esta superficie con la señal de entrada, pero filtra bien en términos de ignorar la entrada. Hasta ahora los criterios de los filtros son los siguientes - mejora de los beneficios, disminución del drawdown, disminución del número de entradas perdedoras seguidas, por lo que se pueden tomar 4-6 hojas, que en periodos de 3x/4x mejorarán todos estos índices a la vez, y los índices en general - beneficios y drawdown. Y luego, o bien centrar la atención de la selección en la rentabilidad y el porcentaje de entradas correctas, o creo que para tratar de encontrar un filtro individual para cada hoja (1-2), que es más caro, pero debe ser más eficaz en teoría.