Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3257
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Aparentemente, si todos los datos de una columna son iguales, se omite el cálculo.
¿Pearson no calcula entre filas, sino entre columnas?
Eso parece. Da una matriz única.¿Pearson no calcula entre filas, sino entre columnas?
ZY Eso parece. Produce una matriz unitaria.Alglib es una buena librería, tiene de todo para MO. Las redes neuronales son super lentas allí, era así en las primeras versiones.
en statistics.mqh.
PearsonCorrM - La correlación de todas las filas con todas las filas es la más rápida.
Sobre su base he calculado la matriz de correlaciones.
Medido el rendimiento.
Resultado.
Se ve bien que Alglib calcula la matriz más rápido que el método matricial estándar.
Sin embargo, para la búsqueda de patrones, calcular la matriz de correlación es una locura en términos de consumo de RAM.
¿Cuánto tarda Python en leer el mismo tamaño de la matriz original que en el ejemplo anterior?
Sin embargo, es una locura que consume RAM leer una matriz de correlaciones para encontrar patrones.
La nativa funcionaba más rápido en mi i7-6700
Es extraño que la nativa sea más lenta, podrían simplemente haberla copiado. Es poco probable que Alglibe tenga algún algoritmo acelerado único bajo licencia.
¿Has probado las otras 2 variantes de Alglib?
Si cuentas en bucles cada fila con cada fila o cada fila con todas las filas, la memoria será más económica (2 filas o 1 fila + matriz). Pero tardará más, no recuerdo exactamente, pero creo que será más lento que la función incorporada.
Sin embargo, es una locura que consume RAM leer una matriz de correlaciones para encontrar patrones.
Es peor con la memoria.
Antes de lanzar
Y durante el trabajo de Alglibov PearsonCorrM memoria está creciendo todo el tiempo: Vi 5 gg y 4,6 en la pantalla.
Y durante el trabajo de Matrix.CorrCoef estándar.
Aparentemente, el estándar está optimizado para el uso mínimo de memoria, y el de Alglibov está optimizado para la velocidad.
He conseguido que el integrado funcione más rápido: en un i7-6700.
Y mientras se ejecuta PearsonCorrM de Alglib, la memoria sigue creciendo: y se vio 5 gg, 4,6 se puso en la pantalla
Foro sobre trading, sistemas automatizados de trading y testeo de estrategias de trading
Aprendizaje automático en el trading: teoría, modelos, práctica y algo-trading
fxsaber, 2023.09.25 18:01
Esto es sólo una transición de CMatrixDouble a matrix<double>. Incluso tuve que hacer esta comparación de matriz debido a la memoria.
Foro sobre trading, sistemas automatizados de trading y testeo de estrategias de trading
Aprendizaje automático en trading: teoría, modelos, práctica y algo-trading
fxsaber, 2023.09.25 18:01
Casi el doble de consumo debido a esta línea.
Es sólo una transición de CMatrixDouble a matrix<double>. Incluso tuve que hacer esta comparación de matrices debido a la memoria.
Y el tiempo se incrementa en un 40% por esta conversión. Comentado // Res = MatrixOut.ToMatrix();
Es decir, si trabajas sólo con Alglibov fncional (sin convertir sus matrices en matrices terminales), será más rápido.
¿Cuánto tarda Python en calcular el mismo tamaño de la matriz original que en el ejemplo anterior?
Medición del tiempo considerando la creación de la matriz