Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2052

 
Maxim Dmitrievsky:

Está claro que no es un imbécil. La prueba es sencilla, pero probablemente esté desfasada.

Si es como en Idiocracy, también resultará complicado))

 
Rorschach:

Si es como en Idiocracy, también será difícil))

Se me ocurren muchas personas que conozco o competidores locales que no lo lograrán

 
Aleksey Vyazmikin:

Si da una predicción de una barra o más, eso no es suficiente para tomar una decisión, no es mucho mejor que un MA. Mientras que uno está interesado en las desviaciones de esta MA nocional para las ganancias.

hasta donde tú llegas, hasta donde llega.

Esta mañana he estado trasteando con el rnn con el probador, se está reajustando en los incrementos. En el tren es bueno, no en el probador es malo.

No sé para qué demonios lo necesitas si los resultados no son mejores que en el bosque. En general, es una cosa genial, pero todavía no sirve para nada.
 

Porno de Redes Neuronales... pronto subiré la parte 2 con las conclusiones, sobre RNN (GRU)

ч.2. Prueba normal al final del vídeo. Antes de eso, de ninguna manera quería entrenar adecuadamente.


Y una pequeña recapitulación de cómo funciona más o menos lo mismo con el catbust, donde el resultado es mejor:


 
Maxim Dmitrievsky:

Porno de Redes Neuronales... Pronto subiré la parte 2 con conclusiones, sobre RNN (GRU)

ч.2. Prueba normal al final del vídeo. Antes de eso, de ninguna manera quería entrenar adecuadamente.


Y una pequeña recapitulación de cómo funciona lo mismo con el catbust, donde el resultado es mejor:


¿No usas Numba para la aceleración?

 
Rorschach:

¿No usas Numba para acelerar las cosas?

Los bucles en sí son rápidos sin él, hasta ahora no lo necesito.

Si es posible, la vectorización está en todas partes, todo es rápido allí

Z.I. defecto obvio - no se puede enseñar por logloss o entropía cruzada, hay que atornillar una métrica por lo menos. Acabo de darme cuenta de esto. Por eso, los resultados no son muy buenos, probablemente.

¿La invitación vino de la ods? Tal vez haya otras formas, tendré que preguntar
 
Maxim Dmitrievsky:

los propios bucles funcionan rápidamente sin él, hasta ahora, no es necesario

si es posible, vectorización en todas partes, todo es rápido allí

Z.I. defecto obvio - no se puede enseñar por logloss o entropía cruzada, hay que atornillar una métrica de precisión por lo menos. Acabo de darme cuenta de esto. Por ello, los resultados no son muy buenos, probablemente.

¿recibiste la invitación de ods? tal vez haya otras formas, tendré que preguntar

A veces los arrays de numpy tardan más en calcularse que las listas de python. También me he dado cuenta de que envolver el código en una función provoca un aumento de velocidad.

Todavía no he llegado, no sé cuándo será mi próxima visita a NS.

 
Rorschach:

En a veces encuentro que los arrays de numpy tardan más en ser evaluados que las listas de python. También me he dado cuenta de que envolver el código en una función da una aceleración.

Todavía no me he puesto a ello, no tengo prisa, no sé cuándo será la próxima carrera en NS.

eso es raro. Probablemente contando elemento por elemento en lugar de vector por vector.

nampai como en los pluses debe volar, con una pequeña sobrecarga
 
Maxim Dmitrievsky:

eso es raro. Probablemente contando elemento por elemento en lugar de vector por vector.

Nampai como los pluses debe volar, con un poco de exageración.

Sí, si tienes que hacerlo en bucle.

Conté algo así como 500 veces por numba, pero no es exacto. Tienes que poner este código en una función y poner @njit allí. @vectorize funciona a la velocidad de @njit, así que no tiene sentido trastear con él, sólo si cuentas con gpu. Pero la gpu es aún más problemática, no se pueden declarar arrays dentro de la función y el código debe estar libre de bucles, de lo contrario será muy largo
 

Y así es como se entrenó el catbust con los mismos datos (en 5 segundos)

52: aprendizaje: 0,7964708 prueba: 0,7848837 mejor: 0,7860866 (27) total: 604ms restantes: 5,09s

Conjunto de datos de origen:

Modelo entrenado (la segunda mitad de la operación es la muestra de prueba):


No siempre, por supuesto, dependiendo del muestreo (y es aleatorio, es decir, necesita un sobremuestreo). A veces es así:

34: aprendizaje: 0,5985972 prueba: 0,5915832 mejor: 0,5927856 (9) total: 437ms restantes: 5,81s



Razón de la queja: