Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1539
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
los archivos de voz y música se comprimen con dtw, que a su vez también son VR
;)
He estudiado este tema, en mis propias palabras, es así:
)) ¿qué diablos es la compresión? lo que estudiaste allí no está claro, pero definitivamente no es eso
por qué hay que comprimir los rublos de fin. :)
¿Por qué? :))
Puede simplemente discretizar los datos de entrada, por ejemplo, convertir 5 dígitos en 4 dígitos. Y los datos ya estarán en grupos de 10.
O como he sugerido antes, puedes construir en el bosque alglib para detener la ramificación cuando se alcanza la profundidad deseada o el número de ejemplos en una hoja.
el muestreo funciona mejor que el de cat fics+vanhot, no se ha hecho ninguna mejora significativa
y realmente, ¿por qué? :))
puedes comprimir las citas en archivos zip, mira su tamaño y será un nuevo fic
)) ¿Qué demonios es la compresión? No sé lo que has estudiado, pero definitivamente no es lo mismo.
Considérate educado, al menos lee la Wiki antes de postear
el algoritmo dtw analiza la componente temporal de la señal y la ajusta a un valor constante. conociendo este valor, puede simplemente eliminar las pausas entre la parte de información de la señal - como resultado, tendrá paquetes de datos sin componente temporal + algoritmo de transformación del eje temporal constante
puedes comprimir las citas en archivos zip, mira su tamaño y serán novedades
De ninguna manera, el algoritmo zip es un algoritmo de transformación estricto, y no se pueden identificar datos que difieren en 1 byte como los mismos datos,
no necesita un algoritmo estricto de manejo de datos, todos tienen pérdidas en los datos originales. Si no lo compone, es jpg - comprime con pérdidas y los datos cercanos en contenido serán restaurados casi idénticos al final, ¡pero visualmente! - las sumas de comprobación serán diferentes, los propios bytes tendrán valores diferentes....
pero como ejemplo de entrenamiento para el NS, tal vez sea lo que necesitas, es decir, un jpg para datos arbitrarios (no imágenes)
No funcionará, el algoritmo zip es un algoritmo de conversión estricto, y no se pueden identificar datos que difieren en 1 byte como los mismos datos,
¡no se necesita un algoritmo estricto para trabajar con los datos, todos tienen una pérdida de los datos originales, si no se inventa - es jpg - se comprime con una pérdida y los datos que están cerca en el contenido se restaurará aproximadamente el mismo en el final, pero visualmente! - las sumas de comprobación serán diferentes, los propios bytes tendrán valores diferentes....
pero como ejemplo de entrenamiento para el NS, esto es probablemente lo que necesitamos, es decir, un archivo jpg para datos arbitrarios (no imágenes)
Es una broma )) Pues un autocodificador o una convolución hacen bien el trabajo. Los artículos de Vladimir sobre codificadores tienen codificadores, la convolución no.
seq2seq también es esencialmente un decodificador-codificador. Por ejemplo, en la traducción automática hay diferentes números de letras entre las palabras rusas y las inglesas. Allí todo se comprime, se analiza y luego se descomprime.
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4Empecé a leer algo sobre dtw, pero no entendí cómo aplicarlo a las series de finanzas y por qué lo necesito ) pero es un tema interesante, supongo
Había un concepto en el que DTW era una extensión del proceso de búsqueda de semblanza a una trama, pero al final es probablemente más fácil (o tal vez no) usar wavelets.
Era una broma )) Pues un codificador automático o una convolución hacen bien el trabajo. Los artículos de Vladimir tienen codificadores, no convolución.
seq2seq es también esencialmente un decodificador-codificador. Por ejemplo, en la traducción automática hay diferentes números de letras entre las palabras rusas y las inglesas. Todo esto se comprime, se analiza y se descomprime.
https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4Leí sobre los codificadores el año pasado, creo, que todo, como siempre, depende de los grandes tacos en un gráfico de precios - rompen cualquier transformación, si no hubiera tacos, entonces los MAs funcionarían, el filtro Kalman funcionaría y todo funcionaría bien ))))
Por ejemplo, si tengo un tamaño de muestra plano en primer lugar, intentaré descomprimirlo y los picos serán más pequeños.
PS: sí había un DTW en el foro, incluso buscarhttps://www.mql5.com/ru/code/10755
Solía darle vueltas pero... todos deben ser tratados con un archivo antes de su uso )))
Había un concepto en el que DTW era una extensión del proceso de búsqueda de semblanzas de grafos, pero al final probablemente las wavelets sean más fáciles (o quizás no)
PD: sí había un DTW en el foro, incluso buscóhttps://www.mql5.com/ru/code/10755
Lo torcí una vez, pero... todo debe ser archivado antes de su uso ))))
Oh no, al diablo con eso, seguiré con las redes neuronales retorcidas. No creo en tal cosa.
Oh no, a la mierda, voy a volver a la red neuronal. No creo en tal cosa.
Yo tampoco quiero rotar NS, estoy ocupado con MT5 tester y su GA, GA funciona bastante adecuadamente, puedes rápidamente (¡¡¡4.5 x 10^142 variantes probadas!!! - unas 2-3 horas) construir TS automáticas, y luego probarlas en adelante, los resultados son bastante aceptables, imho
HH: pero GA también necesita un archivo para finalizar, es difícil de recoger los parámetros de entrada - dar un montón será una prueba de 5 años, se empieza a cortar como los datos de entrada no es correcta - aquí como la suerte o simplemente encontró dónde parar y si en absoluto no encontrará
Yo tampoco quiero hacer NS, tomé MT5 tester y su GA, GA funciona bastante adecuadamente, se puede rápidamente (4,5 x 10^142 variantes probado!!! - alrededor de 2-3 horas) construir TS automática, y luego probarlo en un delantero, los resultados son bastante aceptables, imho
Haré un seguimiento pronto, o escribiré un artículo... Me da pereza molestarme con el artículo, es demasiado teclear.
ahora está todo en python. Ahorra mucho tiempo.
El defecto de GA es que no generaliza