Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3281
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
No estoy seguro de cómo hacerlo, y tengo sueño.
algo parecido
Sí, no es eso.
Bien, mal.
Es casi algo, búscalo, me voy.
Intentar encontrar rápidamente cadenas cortas similares en una cadena larga.
Esta implementación mediante Alglib tarda más de seis segundos en buscar cadenas cortas similares (300) en la cadena del millón.
Lo he acelerado.
Resultado.
Ahora en 300 milisegundos.
Ahora en 300 milisegundos.
Cuando ninguna matriz puede hacerlo.
Se tarda tres segundos para encontrar cadenas similares 30K en una cadena de 10M.
Cuando ninguna matriz puede soportarlo.
Se tarda tres segundos en encontrar cadenas similares de 30K en una cadena de 10M.
300/1M no es fft, 30K/10M es fft.
Cuando ninguna matriz puede soportarlo.
Se tarda tres segundos en encontrar cadenas similares de longitud 30K en una cadena de 10M.
Un resultado impresionante.
Tomé una muestra de 2010 a 2023 (47.000 líneas), la dividí en 3 partes en orden cronológico y decidí ver qué pasaría si intercambiamos estas partes.
El tamaño de las submuestras tren - 60%, prueba - 20% y examen - 20%.
Hice estas combinaciones (-1) - este es el orden estándar - cronológico. Cada submuestra tiene su propio color.
Entrené 101 modelos con diferentes Seed para cada conjunto de muestras, y obtuve el siguiente resultado
Todas las métricas son estándar, y puede observarse que es difícil determinar el beneficio medio de los modelos (AVR Profit), así como el porcentaje de modelos cuyo beneficio supera los 3000 puntos en la última muestra que no participó en el entrenamiento.
¿Quizás habría que reducir el porcentaje de éxito relativo de las variantes -1 y 0 en el tamaño de la muestra de entrenamiento? En general, parece que Recall reacciona a esto.
En su opinión, ¿los resultados de estas combinaciones deberían ser comparables entre sí en nuestro caso? ¿O los datos están irremediablemente obsoletos?
Tomé una muestra de 2010 a 2023 (47.000 líneas), la dividí en 3 partes en orden cronológico y decidí ver qué pasaría si intercambiamos estas partes.
El tamaño de las submuestras tren - 60%, prueba - 20% y examen - 20%.
Hice estas combinaciones (-1) - este es el orden estándar - cronológico. Cada submuestra tiene su propio color.
Entrené 101 modelos con diferentes Seed para cada conjunto de muestras, y obtuve el siguiente resultado
Todas las métricas son estándar, y puede observarse que es difícil determinar el beneficio medio de los modelos (AVR Profit), así como el porcentaje de modelos cuyo beneficio supera los 3000 puntos en la última muestra que no participó en el entrenamiento.
¿Quizás habría que reducir el porcentaje de éxito relativo de las variantes -1 y 0 en el tamaño de la muestra de entrenamiento? En general, parece que Recall reacciona a esto.
En su opinión, ¿los resultados de estas combinaciones deberían ser comparables entre sí en nuestro caso? ¿O los datos están irremediablemente obsoletos?
Otro bricolaje...
Hay validación cruzada, todo se masca y se masca..., muy utilizado....
Otro hecho a sí mismo...
Hay validación cruzada, todo se mastica y se mastica..., muy utilizado.....
Esa es la cuestión, la validación cruzada puede no funcionar eficazmente aquí.
¿Y qué sentido tiene este autodiseño? Maxim voltea la muestra por cronología - asumiendo que el resultado será idéntico - mi experimento muestra la falacia. O todo es individual y la validación puede revelar un patrón u ocurrencia aleatoria en toda la muestra.