Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
La complejidad computacional de HSIC es muchos órdenes de magnitud (con comprobaciones de significación) superior a la de Pearson, por lo que esperaba un resultado diferente.
Si los incrementos son independientes, pero sus sumas de repente son "dependientes", es un resultado extraño para un criterio que consume tantos recursos, incluso en teoría.
Una serie obtenida como suma de iid no se hace dependiente, pierde la propiedad de estacionariedad y no permite utilizar criterios estadísticos. Es decir, formalmente es posible calcularlos para tales series, pero producirán disparates. Por lo tanto, para obtener un resultado significativo, es necesario observar las condiciones impuestas a tales criterios. Por ejemplo, para la correlación, necesitamos una varianza constante. En el caso de una serie SB gaussiana, la varianza crece linealmente con el tiempo, es decir, no es una constante, de ahí la "dependencia" de ACF = 0,99, de ahí la "dependencia" de HSIC, etc.
Hay un buen viejo rango de Spearman para la no linealidad. Aun así, el artículo es más serio.
Spearman es más débil. No encontrará muchas relaciones no lineales. Además, sólo sirve para comparar dos cantidades escalares.
Quería hacer una comparación con Pearson. Allí en el código Pearson cuenta en (X1, Y) y en (X2, Y) - independientemente.
Y luego, al calcular hsic_Gamma_test() X1 y X2 se meten en una matriz.... y se realiza algún 'emparejamiento místico' de la matriz X (de dos columnas) con la matriz Y de una columna
.
¿No se puede calcular hsic_Gamma_test() así - sobre dos filas unidimensionales? Bueno, o
no hsic_Gamma_test(), sino al menos algo que es el tema de este artículo.
Por supuesto, he intentado hacer una columna en X... algo contado... algún resultado
está ahí..... Pero, ¿qué es? Si supiéramos lo que es, y no sabemos lo que es.....
El coeficiente de correlación se cuenta independientemente para cada cantidad porque compara dos variables aleatorias escalares, pero HSIC trabaja con pares:
Si te limitaras a calcular la correlación, llegarías a la conclusión de que los datos son independientes, pero HSIC fue capaz de detectar una relación no lineal. ¿No es eso suficiente?
Es que a menudo se afirma que hay relaciones no lineales en los datos bursátiles que son muy difíciles de detectar. Pues bien, HSIC es una herramienta para detectar cuantitativamente estas relaciones.
La serie obtenida como suma de iid no se hace dependiente, pierde la propiedad de estacionariedad y no permite utilizar criterios estadísticos.
Dudo que esto deba aceptarse respecto a criterios computacionalmente superpesados.
En ausencia de pérdida de información, las transformaciones no deberían afectar al resultado de la estimación de la dependencia.
Foro sobre negociación, sistemas de negociación automatizados y comprobación de estrategias de negociación
Discusión del artículo "Criterio de independencia de Hilbert-Schmidt (HSIC)"
fxsaber, 2025.05.13 05:46 pm.
Afirmación.
Si después de la transformación de las series (sin pérdida de información - podemos volver al estado inicial) obtenemos la independencia, entonces las series iniciales son independientes.
Dudo que esto deba aceptarse con respecto a criterios computacionalmente superpesados.
En ausencia de pérdida de información, las transformaciones no deberían afectar al resultado de la evaluación de la dependencia.
Por desgracia, esto es cierto para la mayoría de los métodos estadísticos, tanto complejos como más sencillos. Es decir, el 95% de los métodos de MO se basan en supuestos iid (excepto ARIMA, redes neuronales dinámicas, modelos de Markov ocultos, etc.). Es necesario recordarlo, de lo contrario nos encontraremos con tonterías.
el 95% de los métodos IO se basan en supuestos iid
Supongo que hay intentos de crear un criterio de dependencia a través de MO - el mismo enfoque, pero sólo el propio criterio en un archivo ONNX.
Supongo que hay intentos de crear un criterio de dependencia a través de MO - el mismo enfoque, pero sólo el propio criterio en un archivo ONNX.
Los modelos MO aprenden a hacer una predicción y si esta predicción es mejor que la "ingenua", entonces concluimos que existe una relación en los datos. Es decir, se trata de una detección indirecta de una relación, sin prueba de significación. El criterio de independencia, por su parte, no hace predicciones, sino que confirma estadísticamente las dependencias detectadas. Es una especie de dos caras de la misma moneda. El paquete R tiene una implementación del criterio dHSIC más general. Incluye la implementación que di para la independencia por pares y amplía la prueba a la independencia conjunta.