¿Hay algún patrón en el caos? ¡Intentemos encontrarlo! Aprendizaje automático a partir de una muestra concreta. - página 8

 
Aleksey Vyazmikin #:

Sí, hay muchos datos, y tengo previsto añadir más, por lo que es necesario desarrollar una metodología de cribado antes de la ofuscación.

Justo ahora estoy entrenando, y voy a decir que mucho depende de la configuración, especialmente el número de divisiones en las tablas cuánticas.

Acabo de empezar un experimento en el que el entrenamiento se realiza con la configuración predeterminada de la tarjeta de vídeo - una pasada, sin tener en cuenta la evaluación del modelo y la prueba en la muestra de examen, tarda 2-3 minutos - dependiendo del número resultante de árboles en el modelo. En mi procesador FX-8350, bastante anticuado, es aproximadamente un 60% más lento.

Creo que la velocidad es bastante aceptable, suelo entrenar 100 modelos con semilla fija para promediar la eficiencia del método.

Si entrenas hasta el "final", el programa estima el tiempo hasta 2 horas.

¿2 ó 3 minutos con una profundidad de árbol de 6 y 1000 árboles?
 
spiderman8811 #:
No niveles, sino rangos, además de patrones de ondas y en velas. Esos no están en los libros. Debería funcionar.
También estoy interesado en más detalles)))) no está claro de qué rango y qué modelo).
 
elibrarius #:
2-3 minutos con una profundidad de árbol de 6 y 1000 árboles?

Se construyen los árboles 250-400, ya que hay un control de detención del entrenamiento en la muestra de prueba, es decir, si no hay mejora durante los últimos 100 árboles, el entrenamiento se detiene y el modelo se corta al último árbol con mejora.

 
Aleksey Vyazmikin #:

Aquí hay otra variante - me gusta aún más, ya que es un resultado estable en todas las muestras.



0,042 es el mejor resultado. Mejor que en todas las columnas y la curva de equilibrio es más bonita. Pero no tan bueno como en Catbusta.


 
Aleksey Vyazmikin #:

¿La primera columna es cero o "1"? :)

Es cero.

0,02400


 
Aleksey Vyazmikin #:

Probablemente cercano en significado a 1041-1489.

En 448 bares, el mejor 0.03000


 
elibrarius #:

0,042 es el mejor resultado. Mejor que todas las columnas y la curva de equilibrio es más bonita. Pero no tan bueno como lo hizo en Catbusta.


elibrarius #:

A 448 bares el mejor es 0,03000.


El resultado ya es claramente mejor, y parece que se ha conseguido gracias a la elección de predictores que mejoran el aprendizaje. Cuántos otros útiles hay y cómo sacarlos es la preocupación.

Trate de cambiar el objetivo haciendo "1" sólo si logra un beneficio de más de 50 pips (tal vez menos es mejor) - esto mejoró el aprendizaje en mis experimentos, aunque el número de objetivos positivos se hizo aún más pequeño ...

 
Aleksey Vyazmikin #:

El resultado ya es claramente mejor, y parece deberse a la elección de predictores que favorecen el aprendizaje. Cuántos más de ellos son útiles y cómo sacarlos es lo que preocupa.

Pruebe a cambiar el objetivo haciendo "1" sólo si el beneficio se obtiene por encima de 50 pips (tal vez incluso menos es mejor) - esto mejoró el aprendizaje en mis experimentos, aunque el número de objetivos positivos se hizo aún más pequeño...

La 2ª columna es el umbral de clase (pero no en la marca del profesor, sino en la previsión). 3ª ganancia.
El gráfico para la porgoa de 60 pt es el mejor.
 
elibrarius #:
La 2ª columna es el umbral de la clase (pero no en la marca del profesor, sino en la previsión). La 3ª es el beneficio.
El gráfico para 60 pts es el mejor.

¿Y cómo sabes el beneficio cuando pronosticas, o tienes un modelo de regresión?

Intenta cambiar al enseñar :)

 
Aleksey Vyazmikin #:

¿Y cómo en previsión se conoce el beneficio, o se tiene un modelo de regresión?

Trate de cambiar cuando la formación :)

Calculo el beneficio y el horario después del entrenamiento.
Razón de la queja: