Discusión sobre el artículo "Aplicación del método de coordenadas de Eigen al análisis estructural de distribuciones estadísticas no extensivas" - página 2
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Qué quiero decir con todo esto. Supongamos que tenemos un determinado modelo, y sobre la base del mismo hemos obtenido una función teórica. Y que por nuestra ignorancia no hayamos tenido en cuenta algún factor muy insignificante pero sistemático. En este caso, el método de las coordenadas propias, debido a su extraordinaria sensibilidad, nos dará un tirón de orejas, diciendo que los datos reales no se corresponden con el modelo. Pero ¡eso no es cierto! - El modelo es correcto, pero no tiene en cuenta un solo factor, y desde el punto de vista práctico esta deficiencia puede resultar insignificante en absoluto (como en el mismo ejemplo de Hilhorst-Schell, donde es difícil notar la diferencia incluso a ojo). Así que yo interpretaría "sólo desde el punto de vista fundamental" como "más bien desde el punto de vista fundamental", en el sentido de que el valor de la máxima precisión de la correspondencia puede no ser tan esencial desde el punto de vista aplicado (para resolver un problema práctico), pero sí desde el punto de vista fundamental (de la comprensión profunda de todos los procesos que tienen lugar).
Desde el punto de vista aplicado, el valor de la máxima precisión de ajuste no es tan esencial si se conocen de antemano las limitaciones del modelo. Por ejemplo, hay datos experimentales, hay una teoría que los describe bien en algún ámbito (cualquier modelo tiene limitaciones). Si de repente resulta que el método ha dado una patada en el culo, lo hará fuera del modelo (por ejemplo, nuestro modelo no funciona a altas/bajas temperaturas) lo veremos. Por otro lado, solemos tener información sobre las propiedades del modelo, por ejemplo, que se deriva con algunos supuestos, a estas temperaturas aparecen otros efectos que no se tienen en cuenta en el modelo. Esto no tiene nada de malo, el modelo tiene un ámbito de aplicabilidad.
El fundamentalismo siempre es más fuerte, porque su área de aplicabilidad es más amplia. Para tener un área de aplicabilidad amplia es necesario tener propiedades especiales.
Además, el método sólo nos da un veredicto de que el modelo no se ajusta a los datos experimentales, pero no dice nada sobre las razones de la discrepancia (como en mi ejemplo - no podemos determinar si el modelo es "generalmente" correcto con pequeños fallos o si debería ser completamente revisado), y eso es un fallo.
Hay magia más fresca para tales casos - es consideraciones de simetría.
Me parece que el defecto arquitectónico de la mecánica estadística difícilmente puede corregirse con la ayuda de la distribución indicativa.
Quantum:
Me parece que mediante la distribución indicativa es poco probable que se pueda corregir el fallo arquitectónico de la mecánica estadística.
Y no hay ningún fallo, intenta sustituir mu=0, nu=1, a=gamma en tus cálculos (párrafos 2.3-2.4 del artículo). He aquí un extracto del artículo
En este caso los cálculos son casi triviales - después de la sustitución de 3 coordenadas sólo quedan 2, pero puedes notar que X1 y X2 son linealmente dependientes, es decir, de hecho tenemos que eliminar una coordenada más. A continuación, sustituya los datos reales, por ejemplo, con EURUSD. Te sorprenderán gratamente los resultados (en términos de linealidad del gráfico). Lo más interesante es que, que yo recuerde, hay desviaciones de la linealidad sólo en la zona de "altas temperaturas" (en el sentido de en la zona de grandes retornos de módulo), y para nada en la dirección que cabría esperar - de hecho, si lo graficas todo con cuidado, verás que la "cola gruesa" de la distribución se adelgaza bruscamente al final (es difícil de estimar, no hay suficientes puntos, pero algo así como exp(-x^3) o exp(-x^4). Esto lleva a la pregunta de a) si es posible construir un único modelo que funcione en todas las regiones (probablemente no, ya que los efectos no lineales en el "modo de saturación" desempeñan un papel predominante) y b) tal cola corresponde a la q-Gaussiana, como un acordeón a una cabra, para el caso.
.
Puedes hacerlo al revés: introduce el archivo csv con la distribución real de los módulos de desviación en el script del apartado 2.4 y mira a ver qué pasa. Dado que el problema está muy sobredeterminado (uno de los coeficientes C3 es muy cercano a cero, y los otros dos C1 y C2 son muy linealmente dependientes), ni siquiera puedo predecir el resultado (el MNC puede desbordarse). Si te da pereza, espera a la noche, que lo puedo hacer yo. Una vez que veamos las imágenes, quedará claro quién tiene razón y de qué hablar a continuación).
Por cierto, no pretendo que la exponencial sea la panacea, al contrario, en términos de no-extensividad te apoyo y sugiero calcular qué distribución maximiza la Q-entropía en [0;+inf) (¿conoces cálculo de variaciones? Yo no lo conozco muy bien, pero en principio puedo hacerlo, no es muy complicado). Hay consideraciones teóricas (escribí más arriba sobre la información), aunque no muy formalizadas, además de alguna intuición, si quieres.
Resulta especialmente agradable que
Y no hay articulación, intenta sustituir en tus cálculos (párrafos 2.3-2.4 del artículo) mu=0, nu=1, a=gamma. He aquí un extracto del artículo
En este caso los cálculos son casi triviales - después de la sustitución de 3 coordenadas sólo quedan 2, pero puedes notar que X1 y X2 son linealmente dependientes, es decir, de hecho tenemos que eliminar una coordenada más. A continuación, sustituya los datos reales, por ejemplo, con EURUSD. Te sorprenderán gratamente los resultados (en términos de linealidad del gráfico). Lo más interesante es que, que yo recuerde, hay desviaciones de la linealidad sólo en la zona de "altas temperaturas" (en el sentido de en la zona de grandes retornos de módulo), y para nada en la dirección que cabría esperar - de hecho, si lo graficas todo con cuidado, verás que la "cola gruesa" de la distribución se adelgaza bruscamente al final (es difícil de estimar, no hay suficientes puntos, pero algo así como exp(-x^3) o exp(-x^4). Esto lleva a la pregunta de a) si es posible construir un único modelo que funcione en todas las regiones (probablemente no, ya que los efectos no lineales en el "modo de saturación" desempeñan un papel predominante) y b) tal cola corresponde a la q-Gaussiana, como un acordeón a una cabra, para el caso.
.
Puedes hacerlo al revés: introduce el archivo csv con la distribución real de los módulos de desviación en el script del apartado 2.4 y mira a ver qué pasa. Dado que el problema está muy sobredeterminado (uno de los coeficientes C3 es muy cercano a cero, y los otros dos C1 y C2 son muy linealmente dependientes), ni siquiera puedo predecir el resultado (el MNC puede desbordarse). Si te da pereza, espera a la noche, que lo puedo hacer yo. Una vez que veamos las imágenes, quedará claro quién tiene razón y de qué hablar a continuación).
Por cierto, no pretendo que la exponencial sea la panacea, al contrario, en términos de no-extensividad te apoyo y sugiero calcular qué distribución maximiza la Q-entropía en [0;+inf) (¿conoces cálculo de variaciones? Yo no lo conozco muy bien, pero en principio puedo hacerlo, no es muy complicado). Hay consideraciones teóricas (escribí más arriba sobre la información), aunque no del todo formalizadas, además de alguna intuición, si quieres.
Trabajar con módulos es muy buena idea, sería interesante ver qué pasa.
P1(x) es más débil que P2(x) - esta última tiene una dinámica más rica según la ecuación dif., además, P2(x) contiene una gaussiana, lo que la hace universal (se pueden corregir todos los problemas donde aparezca).
Creo que deberíamos indagar hacia P(U) - es casi gaussiana, pero con una complicada transformación no lineal del argumento a través de erf-1(x) - así es como se cortaron las colas en Scher.
al diferenciar e integrar P(U), hay construcciones con transformación del argumento en la forma erf(a*erf-1(x)) - lo que esto no está muy claro.
Es decir, la idea es recuperar a partir de soluciones exactas conocidas (Scher tiene un segundo ejemplo diapositiva 25) comparando ecuaciones la forma general de la ecuación diferencial, cuyas soluciones tomarán la forma de funciones conocidas en casos particulares (por analogía con la función hipergeométrica).
Ah, sí, he tenido que mover el culo y mirar en Internet, y resulta que el exponencial q ya había sido calculado por gente amable
Gente no menos amable ha demostrado que existe una bifurcación global (ec. 32), en la que tras "elección específica" h(x)=tanh(x) y lamda=1 obtenemos g->q.
Me pregunto si hay otras opciones de "elección específica" con la opción "gaussiana". Creo que debe haberlas - el nacimiento de una nueva cualidad no puede ser sobre la base de "no desempeñar ningún papel especial" - la fundamentalidad es simplemente necesaria aquí.
UPD: Es posible que "no desempeñan ningún papel especial" es una afirmación incorrecta hecha sobre la base de varios casos especiales.
Desde el punto de vista de la aplicación, el valor de maximizar la precisión del ajuste no es tan significativo si se conocen de antemano las limitaciones del modelo.
El principio de "no se pueden echar a perder las gachas con aceite" es muy cuestionable en la modelización práctica.
Si nos centramos únicamente en series temporales económicas, junto con la necesidad de resolver otros problemas, siempre tenemos que resolver el doble problema de la "redundancia/insuficiencia" del modelo. En este caso, si los modelos son iguales, se elige el que sea más sencillo. Para resolver este problema en estadística hay un conjunto de pruebas que permiten intentar resolver este problema de alguna manera.
Todo el mecanismo de modelización debe estar equilibrado. Claro que es interesante tener avances en algunos puntos, pero es prácticamente interesante cuando se ponen otros elementos de los modelos al nivel de ese avance.
Por el momento, sigue siendo un problema tener puntos de ruptura en lo cotidiano que no pueden tenerse en cuenta en la modelización. Hasta que no se resuelva este problema, cualquier perfeccionamiento del modelo carece de sentido.
Sí, quizá sea mejor fijarse primero en los datos experimentales.
Consideremos un ejemplo clásico (Fig. 4 del artículo) de explicación de la distribución del SP500 mediante q-Gaussian (función P2(x)).
Los datos diarios sobre los precios de cierre del SP500 se tomaron del enlace: http://wikiposit.org/w?filter=Finance/Futures/Indices/S__and__P%20500/.
Para comprobar el archivo SP500-data.csv, cópielo en la carpeta \Files\ y ejecute CalcDistr_SP500.mq5 (cálculo de la distribución) y, a continuación, q-gaussian-SP500.mq5 ( análisis de las coordenadas propias).
Resultados de los cálculos:
Estimaciones del parámetro q obtenidas por el método de las coordenadas propias (q=1+1/theta): q~1,55
En el ejemplo (figura 4 del artículo), q~1,4.
Conclusiones: en general, estos datos proyectan bastante bien a la q-gaussiana, los datos se tomaron tal cual, pero el promediado sigue presente, desde la herramienta SP500-index+gráficos diarios.
X1 y X2 son sensibles por naturaleza, en X3 y X4 las colas están ligeramente distorsionadas, pero no tanto como para que q-gaussian no sea la función correcta - es necesario encontrar un ejemplo con un problema más pronunciado.
Puedes mejorar X1 y X2 sustituyéndolos por JX1 y JX2, deberían enderezarse. Las colas en X3 y X4 pueden corregirse ampliando el conjunto de coordenadas propias generalizando la dependencia cuadrática, es decir, abandonando la simetría en torno a x0 (+nuevos parámetros). Podemos estudiar el caso cúbico de (1+a(x-x0)^3)^theta y sus extensiones (+nuevos parámetros).
Requiere estudiar la dependencia del instrumento, el intervalo de tiempo y el marco temporal.
Por el momento, sigue existiendo el problema de los puntos de ruptura en el kotir, que no pueden tenerse en cuenta en la modelización. Hasta que no se resuelva este problema, cualquier perfeccionamiento del modelo carece de sentido.
En cuanto a los puntos de ruptura (si los he entendido bien).
Consideremos la distribución de rendimientos logarítmicos para #AA, M5 (2011.12.01 21:15:00 -2012.06.29 18:10:00).
El cálculo se realizó utilizando el script CalcDistr.mq5, 10000 datos para el símbolo #AA, M5.
La distribución de los rendimientos logarítmicos en este caso (escala M5) tiene una estructura compleja:
Si consideramos la distribución de los rendimientos logarítmicos~ probabilidad de movimiento en alguna dirección, entonces aquí hay claramente una suma de distribuciones - la estructura de las distribuciones a escalas pequeñas indica no estacionariedad.
La dinámica actual está determinada por la distribución local, y en los puntos de ruptura se reordena:
Es decir, la distribución es de naturaleza asimétrica (|x| no pasará), consta de 2 partes/distribuciones (positiva y negativa), la dinámica local está determinada por el mayor volumen del vaso.
Material interesante, gracias. No quiero molestar a la nicety matemática reinante aquí, pero todavía no puedo dejar de hacer dos preguntas simples:
1. La cuestión del valor práctico de estas distribuciones. ¿A qué deberíamos llegar como resultado? La descripción por sí misma está bien, pero (pido disculpas, por supuesto) huele a botánica.
2. ¿Es razonable intentar describir mediante una única distribución procesos de naturaleza completamente diferente que se producen en distintos "niveles" del mercado? Ya se ha mencionado aquí el problema de las "torceduras", pero esto es sólo una parte de los problemas que existen. Además, en diferentes intervalos de tiempo histórico la propia composición de los procesos cambia significativamente, cómo quieres describirlo con una sola distribución - no lo entiendo.