Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 487

 
Ivan Negreshniy:

Se supone que los bosques aleatorios tienen un error pequeño, porque todas las variables se utilizan en los árboles de decisión y no hay ninguna restricción de uso de memoria como en las redes neuronales: el número de neuronas. Allí sólo se pueden utilizar operaciones separadas para "difuminar" el resultado, como la restricción de nivel, el recorte de árboles o el backgammon. No sé si la implementación de MQ de alglib tiene poda, el bagging sí

Si esta variable es menor que 1, el error debería aumentar.


lo es, pero el error seguía mostrando la media, como se describe arriba... ahora es normal

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

Por cierto, incluso disminuyendo r en o,1 el error aumenta mucho. Por encima de r 0,9 por debajo de 0,8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

Con r = 0,66 (como en la versión clásica de RF)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

Y los resultados muestran que la tabla de multiplicar ya resuelve mal

 
Ivan Negreshniy:

Se supone que los bosques aleatorios tienen un error pequeño, porque todas las variables se utilizan en los árboles de decisión y no hay ninguna restricción de uso de memoria como en las redes neuronales: el número de neuronas. Allí sólo se pueden utilizar operaciones separadas para "difuminar" el resultado, como la restricción de nivel, el recorte de árboles o el backgammon. No sé si hay poda en la implementación MQ de alglib, hay etiquetado

Si esta variable se ajusta a un valor inferior a 1, el error debería aumentar.

para que el error sea tan pequeño como el de @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
hay que hacer 1 operación errónea por cada 5000000000000000000.es imposible en cualquier instrumento.

mi respeto.
 
Andrey Kisselyov:
para que el error sea tan pequeño como el de @Maxim Dmitrievsky
necesito 1 trato erróneo por cada 5000000000000000000 . es imposible hacerlo en cualquier instrumento.

Sinceramente.

¿Qué tienen que ver las operaciones con esto? Te estoy diciendo que cada árbol de decisión prácticamente recuerda todos los patrones y puede no haber ningún error en un conjunto de entrenamiento con un muestreo del 100%, es decir, R=1.

Sí, es un sobreajuste, pero así es como funciona el algoritmo, por eso utilizan todo tipo de trucos en los bosques aleatorios.

 
Ivan Negreshniy:

Que sobre tratos, te digo que todo árbol de decisión prácticamente recuerda todos los patrones y no puede haber ningún error en el muestreo del 100% es decir R=1.


para esto hay que mirar fuera de la bolsa, para estimar el modelo, pero entonces hay que poner r=0,66 como máximo.

 
Ivan Negreshniy:

Que de tratos, te digo que todo árbol de decisión prácticamente recuerda todos los patrones y no puede haber ningún error en el 100% del muestreo es decir R=1.

Pero por tus palabras entiendo que cada árbol recordará algún patrón, que puede no repetirse después, pero al no haber repetición, no podemos decir cómo funcionará y tomar su probabilidad 1 como axioma, en lugar de tomarla 0,5 al no conocerse.

con respeto.
 
Maxim Dmitrievsky:

para esto hay que mirar fuera de la bolsa, para evaluar el modelo, pero entonces r=0.66 máximo puesto sí

Probablemente, hay que recogerlo, pero una bolsa no es una técnica muy fuerte para la predicción - IMHO
 
Ivan Negreshniy:
Probablemente, hay que mejorar, pero el etiquetado por sí solo no es una tecnología muy sólida para la predicción, en mi opinión.

Bueno, eso es todo por ahora... :) entonces si engancho un lib decente con diplinking, lo veré

¡pero la velocidad!

 
Maxim Dmitrievsky:

lo es, pero el error seguía mostrando la media, como se ha descrito anteriormente... ahora es normal

Por cierto, incluso cuando r se reduce en o,1 el error aumenta mucho. Por encima de r 0,9 por debajo de 0,8

Con r = 0,66 (como en la versión clásica de RF)

Y por los resultados veo que la tabla de multiplicar ya se resuelve muy mal.

Cuando aumenté el umbral de la señal NS lo compensé con el aumento de la cantidad de datos de entrada necesarios, como consecuencia el error disminuyó, pero también las variantes de entrada fueron menores.






Sinceramente.
 
Andrey Kisselyov:
No he entrado en cómo funciona el bosque. pero por tus palabras entiendo que cada árbol memoriza un patrón, que posteriormente puede no repetirse. en este caso (al no haber repetición), no podemos decir qué probabilidad tenía en el plus y tomarlo como un axioma de probabilidad de 1, en lugar de llevarlo a 0,5 porque es esencialmente desconocido.

con todo respeto.
R=1 significa que cada árbol puede memorizar todo el conjunto de patrones de entrenamiento y 0,66 significa que sólo el 66% y cada árbol selecciona patrones con retorno, es decir, los mismos patrones pueden ser repetidos por muchos árboles en el bosque.
 
Andrey Kisselyov:
Cuando aumenté el umbral de la señal NS lo compensé aumentando el número de entradas necesarias, como consecuencia, el error disminuyó, pero también hubo menos opciones de entradas.




Sinceramente.

Bueno es cuestión de acertar con las fichas y el objetivo, aunque parecería que lo que puede ser más sencillo que una tabla de multiplicar, pero ahí tampoco hay un pequeño error