Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1068
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Por cierto, estoy tratando de utilizar 1000 características y la formación está en 1 hora ahora.
puede establecer sólo 1 agenteCRLAgents *ag1=new CRLAgents("RlExp1iter",1,100,50,regularize,learn);
y en la biblioteca establecer #define _models 1
para que sea rápido
Claro que puede utilizar diferentes valores para cada predictor, es sólo un ejemplo simple, cada valor cercano = 1 valor de predictor divergente
Así que el número 100 o 1000 o 500 etc. tiene que ser el mismo en ambos códigos copyclose y en declaration.right?
Así que el número 100 o 1000 o 500 etc. tiene que ser el mismo en ambos códigos copyclose y en declaration.right?
sí
sí
Ok, pero en su actual código de muestra e implementación no estoy seguro de lo que sucede exactamente durante el entrenamiento y cuál es la diferencia entre los agentes y los modelos:))
Espero que lo explique en su artículo cuando lo publique. Me refiero a lo que hace un agente y a lo que hace un modelo usando núcleos...
Ok, pero en su actual código de muestra e implementación no estoy seguro de lo que sucede exactamente durante el entrenamiento y cuál es la diferencia entre los agentes y los modelos:))
Espero que lo explique en su artículo cuando lo publique. Me refiero a lo que hace un agente y a lo que hace un modelo usando núcleos...
cada agente RL puede tener predictores únicos, entonces promediamos el resultado de todos los agentes
número de modelos - número de iteraciones de transformaciones de oeature con cos. Olvídalo ahora, porque hacemos gdmh
cada agente RL puede tener predictores únicos, entonces promediamos el resultado de todos los agentes
número de modelos - número de iteraciones de transformaciones de oeature con cos. Ahora, la gente se pregunta, porque nosotros hacemos la GDMH.
Sí, claro... Puedes probar a usar GDMH y avisarme si progresas o te atascas en la implementación, porque de todas formas finalmente después de ver los resultados en VIVO podemos sacar algunas conclusiones sobre el algo.Pero mirando el algo de GDMH, parece muy prometedor.
Por cierto, intente utilizar el logaritmo natural en el caso de las fórmulas de optimización y formación. En mi experiencia, el uso de Mathpow() de los exponentes parece convertir una solución con bastante rapidez.
Sí, claro... Puedes intentar usar GDMH y avisarme si progresas o te quedas atascado en la implementación, porque de todas formas finalmente después de ver los resultados en VIVO podemos sacar algunas conclusiones sobre el algo.Pero mirando el algo de GDMH, parece muy prometedor...
Por cierto, intente utilizar el logaritmo natural en el caso de las fórmulas de optimización y formación. En mi experiencia, el uso de Mathpow() de los exponentes parece convertir una solución con bastante rapidez.
También puedes utilizar polinomios trigonométricos. Esto es algo así como "eiliminación recursiva de características", no realmente gdmh... algo medio )
porque gdmh su algoritmo cuadrático lineal, pero usamos RDFtambién puede utilizar polinomios trigonométricos. Esto será algo así como "eiliminación recursiva de características", no realmente gdmh... algo medio )
No sé nada de eso...tengo que leer para entender :))...De hecho, no sabía nada de GDMH y me lo acabas de decir ayer y acabo de aprender y escribir el código...creo que estoy aprendiendo rápido:)))))
a lo que me refiero es que cuando se aproxima una función aleatoria para obtener una solución, entonces al usar log natural o exponente generalmente converge rápidamente...¿por qué? porque esa es la definición y el propósito de log natural o ln o exponencial() o e
He aquí un código de ejemplo al que me refiero:
double x=MathRandomUniform(0,1,unierr);
doble probabilidad = 1/(1+exp(MathPow(x,3));
Comprendo un poco el GDMH... pero el RDF todavía no está claro al 100%. Estaba tratando de implementar monte carlo en lugar de RDF, pero si podemos hacerlo por RDF, entonces no veo el uso de Monte carlo. ¿Qué crees que es mejor, monte carlo o RDF?
Pero voy a resumir aquí lo que espero de este algo:
1.Tomará los indicadores o los precios de cierre y los dividirá en m trozos pequeños y creará polinomios o funciones aproximadas durante el entrenamiento
2.Cuando se ejecuta en el comercio, entonces para cada vela se comprueban los datos de entrenamiento anteriores y encontrar la pieza polinómica que coincide con nuestro precio actual y predecir lo que va a suceder a continuación y debe iterar
No lo sé... tengo que leer para entender:))
a lo que me refiero es a que cuando se aproxima una función aleatoria para obtener una solución, entonces al usar log natural o exponente generalmente converge rápidamente...¿por qué? porque esa es la definición y propósito de log natural o ln o exponencial() o e
He aquí un código de ejemplo al que me refiero:
double x=MathRandomUniform(0,1,unierr);
doble probabilidad = 1/(1+exp(MathPow(x,3));
Comprendo un poco el GDMH... pero el RDF todavía no está claro al 100%. Estaba tratando de implementar monte carlo en lugar de RDF, pero si podemos hacerlo por RDF, entonces no veo el uso de Monte carlo. ¿Qué crees que es mejor, monte carlo o RDF?
Pero resumiré aquí lo que espero de este algo:
1.Tomará los indicadores o los precios de cierre y los dividirá en m trozos pequeños y creará polinomios o funciones aproximadas durante el entrenamiento
2.Cuando se ejecuta en el comercio, entonces para cada vela se comprueban los datos de entrenamiento anteriores y encontrar la pieza polinómica que coincide con nuestro precio actual y predecir lo que va a suceder a continuación y debe iterar
RDF aproxima la polisemia del agente directamente, en cambio el q-learning con monte carlo o TD y las cadenas de Markov lo hacen con demasiadas iteraciones, por lo que puede llevar mucho más tiempo
1,2 sí, absolutamente correcto
RDF aproxima el polisilabio del agente directamente, en cambio q-learning con monte carlo o TD lo hace con demasiadas iteraciones, por lo que puede tardar mucho más
1,2 sí, absolutamente correcto.
Así que quieres decir que RDF es mejor y más rápido que Monte Carlo, que es definitivamente necesario para las decisiones comerciales instantáneas sobre el cierre de la vela .... Así que estamos en el camino correcto hacia la creación de la versión de forex
de "ALPHA ZERO" ...veamos:)))))))))