Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 927

 
Dr. Trader:


Programáticamente, el árbol puede describirse así:

Y no hay nombres exactos para los predictores - los modos de imagen los nombres sólo....

 

Aquí están los nombres completos:

Intentaré hacer lo mismo con mnogoVhodov_02. Dejaré que el script funcione durante la noche, mañana por la tarde mostraré lo que he conseguido.

Sin embargo, la precisión del modelo para malovhodov no es muy buena, hay muchas entradas falsas. Yo no operaría )

 
forexman77:

Mi bosque de marcas verdaderas y falsas atravesó.

La clase buscada está más de la mitad en otra clase en la prueba, pero estaba bien dividida en el entrenamiento)

Buen resultado. No utilizo el bosque, sino un árbol, por lo que probablemente tenga un resultado notablemente peor.

¿Y cuáles son los resultados de la prueba con los datos de otro archivo? (año diferente)

 
Dr. Trader:

Aquí están los nombres completos:

Intentaré hacer lo mismo con mnogoVhodov_02. Dejaré que el script funcione durante la noche, mañana por la tarde mostraré lo que he conseguido.

Sin embargo, la precisión del modelo para malovhodov no es demasiado buena, hay demasiadas entradas falsas. Yo no operaría )

Gracias por la pantalla completa del árbol, ahora lo probaré con el árbol del programa.

No creo que lo use por alguna razón, si empiezo a trabajar con él más adelante tengo muchas esperanzas en las maderas, el resultado debería llegar a ser mejor que el 15% y espero que sea bueno.

Y sobre las entradas bajas, para eso está el conjunto de filtros, la idea es mejorar las cosas en conjunto.
 
Dr. Trader:

¿Cuáles son los resultados de una prueba con datos de un archivo diferente? (año diferente)

Estos son mis datos (un archivo). La prueba allí es del 25%.

 
Dr. Trader:

Aquí están los nombres completos:

Intentaré hacer lo mismo con mnogoVhodov_02. Dejaré que el script funcione durante la noche, mañana por la tarde mostraré lo que he conseguido.

Sin embargo, la precisión del modelo para malovhodov no es demasiado buena, hay demasiadas entradas falsas).

He construido el árbol en el programa Deductor según el cual no se ha encontrado ninguno de los objetivos.

 
Se me ha ocurrido un algoritmo para encontrar combinaciones de predictores, pero no tengo ni idea de cómo hacerlo.
 

Veo que las pasiones siguen siendo altas... Mientras tanto, ha sido una semana de comparación de las dos redes en la batalla. Pensé, por qué debo alimentarlo con todo tipo de pruebas, etc... La mejor manera de resolver un problema es el combate y el resultado es este...

ELMNN- las redes construidas en R funcionaron durante una semana así...

jPredicción- A las Reshettes les gusta esto....

Es difícil juzgar quién es más guay. Creo que ambos optimizadores son buenos. Pero se ve mejor aquí.....

¡¡¡¡¡¡¡¡Y no hace falta restregárselo en la cara a la abuela!!!!!!!!

 

Siempre que Akello no vuelva a fallar la semana que viene.

Se me ocurre que mis estrategias básicas apestan. ¿Puede alguien aportar algunas estrategias básicas que pueda intentar mejorar con mis agentes?

 
Dr. Trader:

Intenté con Malovhodov para empezar.

Intenté enseñar a forest a predecir arr_Buy desde 2015 basándome en arr_Vektor_Week, arr_Vektor_Day, etc.

Las clases están muy desequilibradas (hay 10 veces más ejemplos con clase 0 que con clase 1), esto añade mucha dificultad.

Este es el árbol de 2015 formado en


y_pred
y_true01
09726886118
1552912256

La predicción en ambos casos es de baja precisión, pero la precisión es al menos superior al 50% en ambos casos.


He dejado de contar los errores de estas tablas como estándar.

Mi razonamiento es el siguiente: la clase inicial "0" dio una predicción de la clase "1" = 86118, y la clase "1" dio una predicción de la clase "1" = 12256. Esto significa que al operar, obtendremos una predicción de clase falsa = 86118, mientras que la predicción correcta = 12256, es decir, error = 86116/(86116+12256) = 87,5%9(!!), si la clase "1" = entrada/posición - esto es un desastre. Pero la posición de la clase "0" es muy buena: los ceros erróneos en la toma de decisiones serán sólo el 5,3%.

Razón de la queja: