Bernoulli, teorema de Moab-Laplace; criterio de Kolmogorov; esquema de Bernoulli; fórmula de Bayes; desigualdades de Chebyshev; ley de distribución de Poisson; teoremas de Fisher, Pearson, Student, Smirnov, etc., modelos, lenguaje sencillo, sin fórmulas. - página 7

 
sever31: ¿Qué son las "colas" en una distribución? ¿Son valores atípicos que se salen claramente del patrón general de la distribución?

Bueno, más o menos, pero no del todo. Sí, estamos hablando de valores de una variable aleatoria que son muy diferentes de su media.

Por lo general, las colas son gruesas y finas. He aquí una definición muy poco precisa de la cola: es la probabilidad de que un valor atípico supere a uno dado.

El grosor de la cola no viene determinado por la magnitud del valor atípico en sí, es decir, la desviación de la media, sino por la probabilidad de que se produzcan esas fuertes desviaciones. Cuanto más alta es, más gruesa es la cola.

Generalmente se considera que una distribución normal tiene colas finas. No conozco ninguna distribución práctica cuyas colas sean más finas que las de la distribución normal.

Y ahora una definición aún más precisa de las colas. Pero antes, una foto y una pequeña introducción:

Esta es la conocida imagen de una campana, es decir, una distribución gaussiana. La curva dibujada aquí es la función de densidad de la distribución (aquí una distribución normal). En la parte inferior se dibujan las sigmas - desviaciones estándar. Sigma es una medida de lo estrecha o amplia que es una distribución (cualquiera).

El área bajo cualquier función de densidad de distribución (f.p.r., en inglés pdf, probability distribution function) es siempre 1.

Cualquier pdf es no negativo. En realidad, esto refleja el hecho de que la probabilidad es siempre no negativa.

Si queremos encontrar la probabilidad de que una variable aleatoria esté entre sigma y dos sigmas (a la derecha de la media), basta con encontrar el área bajo la curva delimitada por las líneas verticales "+ sigma" y "+ 2*sigma". Denotémoslo así: P( sigma <= X < 2*sigma). Tenga en cuenta que incluso a +1000*sigma esta función sigue sin ser igual a cero. Sí, disminuye muy rápidamente (como mathExp(-x^2)), pero no se convierte en cero.

Ahora volvamos a las colas. La cola derecha es la función cola_derecha( X; X0 ) = P( X0 <= X < infinito ). Obsérvese de nuevo que la cola es exactamente una función de X0. Cuanto más grande sea X0 (a la derecha), más pequeña suele ser la función. Es decir, normalmente (no siempre, pero asintóticamente siempre) esta función es una función decreciente de X0 y tiende a cero.

Para la distribución normal right_tail_normal( X; X0 ) ~ mathExp(-X0^2) o algo comparable (no lo recuerdo, es una función no elemental).

Pero para la distribución de Laplace (ver imagen en mi anterior post):


right_tail_laplace( X; X0 ) ~ mathExp(-a*X0). Nota: ¡esta ya es otra función que tiende a cero mucho más rápido que la cola de la distribución normal!

Y aquí hay otra: la distribución de Cauchy:


Para ello right_tail_cauchy( X; X0 ) ~ 1 / X0. Esta función es aún más lenta a cero a medida que x aumenta.

Hemos visto tres funciones diferentes de cola_derecha( X; X0 ). La verdadera diferencia entre las colas de las diferentes pdf's es la diferente tasa de disminución de esta función para las diferentes pdf's. Para la distribución normal la función decrece muy rápido (cola fina), para la distribución de Laplace decrece bastante rápido pero infinitamente más rápido que la primera (cola ya gruesa), para la distribución de Cauchy es infinitamente más rápido que ambas (cola gorda espeluznante).

 
Mathemat:

No es una buena idea ilustrar una distribución normal. No estoy seguro de que detener el proceso en, digamos, 10.000 dé exactamente una distribución normal en la sección transversal. Además, esta distribución tiene parámetros que cambian constantemente.

Por favor, explique este punto si es posible. Francamente, no entiendo por qué la campana que aparece no es normal. La cuestión es que cada línea es una trayectoria de deambulación de una partícula, todas las partículas tienen el mismo proceso binomial de incremento y número finito e igual de pasos, por lo tanto cualquier proceso agregado tiene idénticas propiedades agregadas. ¿Cómo pueden cambiar los parámetros?
 
C-4:
A partir de este punto si puede elaborar. Para ser honesto, no entiendo por qué la campana que se dibuja no es normal? La cuestión es que cada línea es una trayectoria de deambulación de la partícula, todas las partículas tienen el mismo proceso binomial de incrementos y número finito e igual de pasos, . ¿Cómo pueden cambiar los parámetros?

Por supuesto, eso es lo que quiero detalles de ti.

1. "todas las partículas tienen el mismo proceso de acreción binomial" - explique qué significa esto. Es la primera vez que oigo hablar de este proceso. ¿Cuál es la función de distribución de los incrementos?

2. "por lo tanto, cualquier proceso agregado tiene propiedades agregadas idénticas" - bueno, eso también es completamente incomprensible y nada matemático.

Si se hace una "sección transversal" de todo este conjunto de trayectorias en la abscisa, digamos 10000, entonces cada trayectoria marcará un punto allí. ¿Cómo puedes estar seguro de que todos estos puntos se distribuyen exactamente según la ley normal?

 
Mathemat:

Si se "cruza" todo este conjunto de trayectorias en la abscisa, digamos 10000, entonces cada trayectoria marcará un punto allí. ¿Cómo puedes estar seguro de que todos estos puntos se distribuyen exactamente según la ley normal?


El teorema del límite central. La variable aleatoria en cuestión es la suma de un gran número (10000) de variables aleatorias independientes, lo que significa que su distribución se aproxima a la distribución normal.
 

1. "все частицы обладают одним и тем же биноминальным процесоом приращения" - поясните, что это означает. Я впервые слышу о таком процессе. Какова функция распределения приращений?

Tal vez no lo expresé con precisión. Me refiero a esto, que a su vez proviene de la acumulación de variables aleatorias discretas: -1 и +1.

Si se "cruza" toda esa acumulación de trayectorias en la abscisa, digamos 10000, entonces cada trayectoria marcará un punto allí. ¿Cómo puedes estar seguro de que todos estos puntos se distribuyen exactamente según la ley normal?

Ahora no entiendo en absoluto por qué estos puntos pueden estar distribuidos de forma no normal si cada uno de ellos tiene la misma RMS y el mismo número de pasos de 10.000? Hay que montar un experimento y trazar los golpes de probabilidad, apuesto a que será normal, con la parte superior de la campana en cero.

 

Me has convencido, Avals.

Me estaba metiendo contigo, C-4. Sigo sin entender lo del "proceso incrementalbinomial ". Bueno, supongamos que te referías a incrementos distribuidos según alguna ley con m.o. y varianza finitas.

 
En el marco de mi investigación necesitaba generar un gráfico de acciones aleatorio de tipo OHLC. Cuando se trata de Rendimientos todo es sencillo: generamos números aleatorios dentro de los límites especificados de MO y varianza (Excel permite hacer tal cosa), pero cómo crear a partir de estos rendimientos gráficos de tipo OHLC, esa es la cuestión. La dificultad estriba en definir el rango normal de Máximo y Mínimo con respecto a Apertura y Cierre. Por eso pido a los expertos que aconsejen cómo hacer correctamente el OHLC de los retornados. Por supuesto, se puede generar aleatoriamente cada tick y "recogerlo" del historial de tick de una vela OHLC, pero es un método muy lento y sin sentido.
 
C-4: Por supuesto, es posible generar aleatoriamente cada tic y "ensamblar" velas OHLC a partir del historial de tics, pero este es un método muy lento y sin sentido.
Pero es muy preciso, porque no requiere introducir varios parámetros arbitrarios. Pero no evita la necesidad de conocer las características estadísticas del proceso de tickeo :). Y no es similar al Wiener en algunos aspectos. Por ejemplo, es considerablemente más retornable que el proceso Wiener estándar.
 

Sí, muy preciso. Pero el problema es la velocidad. Sólo estoy escribiendo en C# + WealthLab - y es bastante engorroso. Intenté generar 100 barras con 3000 ticks cada una y acabó tardando entre 8 y 10 segundos. Necesito generar al menos 500 000 barras, y preferiblemente 3-4 millones (unos 10 años de historia de un minuto).

Parece que la entrada a la fórmula debe ser la varianza, MO, número de ticks, la salida debe tener una barra OHLC. Se ve así.

Simplifiquemos la tarea para la primera aproximación: generemos un OHLC totalmente "normal". Que sea una distribución normal clásica. Otra cosa es que después queramos generar una distribución basada en esta fórmula que se aproxime a las reales del mercado - por ejemplo, tomar la volatilidad real de los instrumentos y generar una OHLC aleatoria basada en ella.

 
Haz lo que quieras. No puedo aconsejarte ya que desconozco las características del proceso de ticking.