Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1539

 
Igor Makanu:

los archivos de voz y música se comprimen con dtw, que a su vez también son VR

;)

Igor Makanu:

He estudiado este tema, en mis propias palabras, es así:

)) ¿qué diablos es la compresión? lo que estudiaste allí no está claro, pero definitivamente no es eso

Maxim Dmitrievsky:

por qué hay que comprimir los rublos de fin. :)

¿Por qué? :))

[Eliminado]  
elibrarius:

Puede simplemente discretizar los datos de entrada, por ejemplo, convertir 5 dígitos en 4 dígitos. Y los datos ya estarán en grupos de 10.
O como he sugerido antes, puedes construir en el bosque alglib para detener la ramificación cuando se alcanza la profundidad deseada o el número de ejemplos en una hoja.

el muestreo funciona mejor que el de cat fics+vanhot, no se ha hecho ninguna mejora significativa

[Eliminado]  
mytarmailS:

y realmente, ¿por qué? :))

puedes comprimir las citas en archivos zip, mira su tamaño y será un nuevo fic

 
mytarmailS:

)) ¿Qué demonios es la compresión? No sé lo que has estudiado, pero definitivamente no es lo mismo.

Considérate educado, al menos lee la Wiki antes de postear

el algoritmo dtw analiza la componente temporal de la señal y la ajusta a un valor constante. conociendo este valor, puede simplemente eliminar las pausas entre la parte de información de la señal - como resultado, tendrá paquetes de datos sin componente temporal + algoritmo de transformación del eje temporal constante


Maxim Dmitrievsky:

puedes comprimir las citas en archivos zip, mira su tamaño y serán novedades

De ninguna manera, el algoritmo zip es un algoritmo de transformación estricto, y no se pueden identificar datos que difieren en 1 byte como los mismos datos,

no necesita un algoritmo estricto de manejo de datos, todos tienen pérdidas en los datos originales. Si no lo compone, es jpg - comprime con pérdidas y los datos cercanos en contenido serán restaurados casi idénticos al final, ¡pero visualmente! - las sumas de comprobación serán diferentes, los propios bytes tendrán valores diferentes....

pero como ejemplo de entrenamiento para el NS, tal vez sea lo que necesitas, es decir, un jpg para datos arbitrarios (no imágenes)

[Eliminado]  
Igor Makanu:

No funcionará, el algoritmo zip es un algoritmo de conversión estricto, y no se pueden identificar datos que difieren en 1 byte como los mismos datos,

¡no se necesita un algoritmo estricto para trabajar con los datos, todos tienen una pérdida de los datos originales, si no se inventa - es jpg - se comprime con una pérdida y los datos que están cerca en el contenido se restaurará aproximadamente el mismo en el final, pero visualmente! - las sumas de comprobación serán diferentes, los propios bytes tendrán valores diferentes....

pero como ejemplo de entrenamiento para el NS, esto es probablemente lo que necesitamos, es decir, un archivo jpg para datos arbitrarios (no imágenes)

Es una broma )) Pues un autocodificador o una convolución hacen bien el trabajo. Los artículos de Vladimir sobre codificadores tienen codificadores, la convolución no.

seq2seq también es esencialmente un decodificador-codificador. Por ejemplo, en la traducción automática hay diferentes números de letras entre las palabras rusas y las inglesas. Allí todo se comprime, se analiza y luego se descomprime.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
Maxim Dmitrievsky:

Empecé a leer algo sobre dtw, pero no entendí cómo aplicarlo a las series de finanzas y por qué lo necesito ) pero es un tema interesante, supongo

Había un concepto en el que DTW era una extensión del proceso de búsqueda de semblanza a una trama, pero al final es probablemente más fácil (o tal vez no) usar wavelets.

 
Maxim Dmitrievsky:

Era una broma )) Pues un codificador automático o una convolución hacen bien el trabajo. Los artículos de Vladimir tienen codificadores, no convolución.

seq2seq es también esencialmente un decodificador-codificador. Por ejemplo, en la traducción automática hay diferentes números de letras entre las palabras rusas y las inglesas. Todo esto se comprime, se analiza y se descomprime.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

Leí sobre los codificadores el año pasado, creo, que todo, como siempre, depende de los grandes tacos en un gráfico de precios - rompen cualquier transformación, si no hubiera tacos, entonces los MAs funcionarían, el filtro Kalman funcionaría y todo funcionaría bien ))))

Por ejemplo, si tengo un tamaño de muestra plano en primer lugar, intentaré descomprimirlo y los picos serán más pequeños.


PS: sí había un DTW en el foro, incluso buscarhttps://www.mql5.com/ru/code/10755

Solía darle vueltas pero... todos deben ser tratados con un archivo antes de su uso )))

[Eliminado]  
transcendreamer:

Había un concepto en el que DTW era una extensión del proceso de búsqueda de semblanzas de grafos, pero al final probablemente las wavelets sean más fáciles (o quizás no)

Igor Makanu:

PD: sí había un DTW en el foro, incluso buscóhttps://www.mql5.com/ru/code/10755

Lo torcí una vez, pero... todo debe ser archivado antes de su uso ))))

Oh no, al diablo con eso, seguiré con las redes neuronales retorcidas. No creo en tal cosa.

 
Maxim Dmitrievsky:

Oh no, a la mierda, voy a volver a la red neuronal. No creo en tal cosa.

Yo tampoco quiero rotar NS, estoy ocupado con MT5 tester y su GA, GA funciona bastante adecuadamente, puedes rápidamente (¡¡¡4.5 x 10^142 variantes probadas!!! - unas 2-3 horas) construir TS automáticas, y luego probarlas en adelante, los resultados son bastante aceptables, imho

HH: pero GA también necesita un archivo para finalizar, es difícil de recoger los parámetros de entrada - dar un montón será una prueba de 5 años, se empieza a cortar como los datos de entrada no es correcta - aquí como la suerte o simplemente encontró dónde parar y si en absoluto no encontrará

[Eliminado]  
Igor Makanu:

Yo tampoco quiero hacer NS, tomé MT5 tester y su GA, GA funciona bastante adecuadamente, se puede rápidamente (4,5 x 10^142 variantes probado!!! - alrededor de 2-3 horas) construir TS automática, y luego probarlo en un delantero, los resultados son bastante aceptables, imho

Haré un seguimiento pronto, o escribiré un artículo... Me da pereza molestarme con el artículo, es demasiado teclear.

ahora está todo en python. Ahorra mucho tiempo.

El defecto de GA es que no generaliza