De la teoría a la práctica - página 440

 
Olga Shelemey:
Los libros que he utilizado para luchar contra el mercado.

Shelepin L.A.: "La ciencia moderna se basa en el paradigma markoviano. La revisión destaca la aparición de un nuevo paradigma no markoviano (teoría de los procesos con memoria)."

A eso me refería) los académicos van 50 años por detrás de la realidad)

Todo el mundo financiero considera desde hace tiempo que el mercado es un proceso con memoria, y esto es una novedad para ellos)))

Sencillamente, no tiene sentido considerarlo de otro modo, porque es imposible ganar dinero en un proceso sin memoria, por razones naturales.

 
bas:

Shelepin L.A.: "La ciencia moderna se basa en el paradigma markoviano. La revisión destaca la aparición de un nuevo paradigma no markoviano (teoría de los procesos con memoria)."

A eso me refería) los académicos van 50 años por detrás de la realidad)

Todo el mundo financiero considera desde hace tiempo que el mercado es un proceso con memoria, y esto es una novedad para ellos)))

Sencillamente, no tiene sentido considerarlo de otro modo, porque es imposible ganar dinero con un proceso sin memoria, por razones naturales.

No lo he estudiado en detalle, pero parece que el proceso markoviano de Shelepin no coincide del todo con la definición generalmente aceptada.

El principal problema de la "memoria" es que no está claro cómo puede contarse (es decir, las distribuciones de los procesos multivariantes) en el caso de los procesos no estacionarios; normalmente no hay suficientes datos para ello.

También se puede ganar dinero con un paseo aleatorio normal con deriva (tendencia), que es bastante markoviano.

 
Aleksey Nikolayev:

El principal problema de la "memoria" es que no está claro cómo puede considerarse (es decir, las distribuciones de los procesos multivariantes) en el caso de los procesos no estacionarios; normalmente no hay suficientes datos para hacerlo.

Parece que es lo mismo: la dependencia entre los incrementos. ¿Y qué es exactamente lo que ve como problema, por qué no hay suficientes datos? Yo, por ejemplo, no tengo problemas para recuperar la memoria)

Por cierto, la memoria se expresa mucho mejor en volatilidad, se puede empezar a investigar con ella, si alguien busca "algo a lo que agarrarse". Allí se pueden ver inmediatamente las secuelas de las noticias y otros efectos.

También se puede ganar dinero con un paseo aleatorio habitual con una deriva (tendencia), que es bastante markoviana.

Por supuesto, pero aquí estamos hablando de Forex) y no tiene deriva.

 
bas:

Parece que es lo mismo: la relación entre los incrementos. ¿Y qué es exactamente lo que ve como problema, por qué no hay suficientes datos? Yo, por ejemplo, no tengo ningún problema en buscar memoria)

Por cierto, la memoria se expresa mucho mejor en volatilidad, puedes empezar tu investigación con ella, si alguien busca "algo a lo que agarrarse". Allí las secuelas después de la noticia son inmediatamente visibles, y otros efectos.

Por supuesto, pero estamos hablando de forex) y no tiene demolición.

Espero que estemos hablando de la dependencia de los incrementos como variables aleatorias. En ese caso necesitamos su distribución conjunta. Dos variables aleatorias: su distribución conjunta en 2 dimensiones, 3 en 3 dimensiones, etc. A veces se siguen construyendo histogramas bidimensionales, pero los de mayor dimensión no está claro cómo representarlos y el número de datos necesarios crece mucho con la dimensionalidad. Está claro que esto no se suele hacer (pero a veces hay que hacerlo, no obstante). Pero aquí las cosas son mucho peores: para cada incremento (variable aleatoria) sólo hay una muestra de un único volumen (valor tomado del gráfico de precios). Por lo tanto, tenemos que recurrir a todo tipo de suposiciones e hipótesis (que no siempre son ciertas). Por ejemplo, sin la suposición sobre la estacionariedad de los incrementos, su distribución muestral no converge a su verdadera distribución. Lo mismo ocurre con una distribución bivariante que se necesita para determinar la dependencia entre pares de los incrementos (por ejemplo, para calcular la función de covarianza). En resumen, un proceso no estacionario sin "memoria" (incrementos independientes) puede adquirir "memoria" (dependencia de los incrementos) si se utilizan métodos que suponen estacionariedad.

No hay, por supuesto, ninguna deriva en general. Pero es posible que haya algunos tramos en los que esté presente (de nuevo, la no estacionalidad)

 

No consigo averiguar qué es lo que falla. Calculo la densidad mediante la fórmula

expectativa = 0, varianza = 55, X = 13.

Densidad = (1/(MathSqrt(varianza) * MathSqrt(2 * 3,14159265358979323846)) * MathPow(2.718281845904523536, - ((X * X)/(2 * Dispersión) );

Tengo Densidad = 0,01979.

Comprobando aquí

https://planetcalc.ru/4986/

Densidad = 0,01157


¿Me he equivocado en la fórmula o hay un error en la página web de la calculadora?
 
Evgeniy Chumakov:

No consigo averiguar qué es lo que falla. Calculo la densidad mediante la fórmula

expectativa = 0, varianza = 55, X = 13.

Densidad = (1/(MathSqrt(varianza) * MathSqrt(2 * 3,14159265358979323846)) * MathPow(2.718281845904523536, - ((X * X)/(2 * Dispersión) );

Tengo Densidad = 0,01979.

Comprobando aquí

https://planetcalc.ru/4986/

Densidad = 0,01157


¿Me he equivocado en la fórmula o hay un error en la página web de la calculadora?

En R:

> dnorm(13,0,sqrt(55))[1] 0.01157429
 
Aleksey Nikolayev:

en R:


No sé dónde está mi error entonces...

 
Alexander_K2:
La única persona con la más baja educación que puede hacer un discurso colosal aquí es Bas. A veces no es un mal orador. Aparentemente, cuando está dormido. En su sueño tiene una epifanía. A veces es interesante leerlo.
la educación no da la mente)
Alexander_K2:

Ahora, la suma de los incrementos es el precio en la ventana temporal de observación móvil, con un punto de partida de =0.


La suma de los incrementos es lo que ha recorrido la gráfica en n segundos.
Uno alto es lo mucho que ha viajado el gráfico, uno bajo es lo poco que ha viajado.
es la velocidad.
 

doble d = 55 , X = 13;

double p = (1/(MathSqrt(d) * MathSqrt(2 * 3.14159265358979323846)) * MathPow(2.718281845904523536, - ((X * X)/(2 * d) );

Imprimir(p);

0.01157429298384641

 
Aleksey Nikolayev:

doble d = 55 , X = 13;

double p = (1/(MathSqrt(d) * MathSqrt(2 * 3.14159265358979323846)) * MathPow(2.718281845904523536, - ((X * X)/(2 * d) );

Imprimir(p);

0.01157429298384641


No lo entiendo entonces, misma fórmula, por qué el resultado diferente entonces. NormalizeDouble a 5 dígitos no puede tener ese efecto ...

Razón de la queja: