De la teoría a la práctica - página 698

 
Aleksey Nikolayev:

1) Estamos hablando de un concepto muy específico de evento de la axiomática de Kolmogorov.

2) No hay algoritmos en esta axiomática.

No he violadola axiomática de Kolmogorov en ninguna parte de mis declaraciones, y desde luego no la he negado. ¿Pero lo has visto en alguna parte? ¿Dónde? Dame un enlace.

Estás confundiendo lo suave con lo blando.

¿De qué estamos hablando? Estamos hablando de un evento que es el resultado de un algoritmo:

En este algoritmo hay una condición fija: al evento x asignar el valor 1 si el valor de p es mayor que el valor de1-p. En caso contrario, se debe asignar el valor-1 al eventox.

Cuando el algoritmo funciona, esta condición se cumple siempre.


Está diciendo que a veces este evento puede ocurrir o no:

Foro sobre trading, sistemas de trading automatizados y pruebas de estrategias de trading

Vagabundeo aleatorio :

Aleksey Nikolayev, 2018.10.28 11:17

Esto no es correcto. También es posible, aunque menos probable, que se produzca una caídax1=-1. Como se dice en matstat, con un gran número de pruebas ocurrirá un 10% de las veces. Esto es en realidad la axiomática básica de la teoría de la probabilidad. Si no estás de acuerdo conmigo en esto, entonces debería dejar de discutir contigo.


Esa afirmación tuya está completamente fuera de lugar. Y contradicela axiomática de Kolmogorov.

Intenta mirar todo el asunto con sobriedad.

 
Олег avtomat:

No he violadola axiomática de Kolmogorov en ninguna parte de mis declaraciones, y desde luego no la he negado. ¿Pero lo has visto en alguna parte? ¿Dónde? Dame un enlace.

Estás confundiendo lo suave con lo blando.

¿De qué estamos hablando? Estamos hablando de un evento que es el resultado de un algoritmo:

En este algoritmo hay una condición fija: al suceso x se le asigna el valor 1 si el valor de p es mayor que el valor de1-p. En caso contrario, se debe asignar el valor-1 al eventox.

Cuando el algoritmo funciona, esta condición se cumple siempre.


Pero usted declara que a veces el evento puede ocurrir de esta manera o de otra:


Tu afirmación no encaja en absoluto. Contradicela axiomática de Kolmogorov.

Trata de ver todo esto con sobriedad.

En la definición inicial (imagen en la primera página de su hilo tomada de la wiki) pi son probabilidades. En su algoritmo no son probabilidades.

 
Aleksey Nikolayev:

En la definición inicial (imagen en la primera página de su rama tomada de la wiki) pi son probabilidades. En su algoritmo no son probabilidades.

Mi algoritmo es totalmente coherente con la definición inicial.

En mi algoritmo, las probabilidadespi vienen dadas por un generador de números aleatorios del intervalo (0, 1) con una distribución uniforme, con esta funciónrnd(1).

En cada paso, la probabilidadpi viene dada por el valor actualizado de la función rnd(1).

La funciónrnd(1) se recalcula a cada paso, ¿no lo sabes?

 
Олег avtomat:

Mi algoritmo es totalmente coherente con la definición inicial.

En mi algoritmo, la probabilidadpi viene dada por un generador de números aleatorios del intervalo (0, 1) con una distribución uniforme, que es la funciónrnd(1).

En cada paso la probabilidadpi viene dada por el valor actualizado de la función rnd( 1). La funciónrnd(1) se recalcula en cada paso.

¿No lo sabes?

Se equivoca. En su algoritmo, p es sólo una variable redundante. La condición sobre p: p>1-p es equivalente a la condición p>1/2. Dado que p=rmd(1), la condición de selección de dirección puede reescribirse como: si (rnd(1)>1/2) x[i]=1, haciendo sin ningún p. Dentro de la definición inicial, sólo se genera un caso especial, el código es todo pi=1/2 - una "moneda justa".

Para cumplir con la definición inicial, tu algoritmo debe tomar como entrada el array p[n] y para cada i=1,...,n la condición de elección direccional será: si (rnd(1)<p[i]) x[i]=1.

 
Олег avtomat:

Mi algoritmo es totalmente coherente con la definición inicial.

En mi algoritmo, la probabilidadpi viene dada por un generador de números aleatorios del intervalo (0, 1) con una distribución uniforme, que es la funciónrnd(1).

En cada paso, la probabilidadpi viene dada por el valor actualizado de la función rnd(1).

La función rnd(1) se recalcula a cada paso, ¿no lo sabes?

Para mejorar la calidad, primero se generan secuencias (por ejemplo, 1000pc) y luego se utilizan las estadísticas de estas secuencias para seleccionar las más correctas. Luego, para cada paso hay que leer secuencialmente de la secuencia ya preparada. En el juego condicionalmente justo se genera una secuencia al principio, y luego el jugador obtiene valores (subsecuentes) de esta secuencia, es decir, cualquier reacción de las condiciones de ganar/perder y las acciones del jugador son excluidas cardinalmente.

 
Aleksey Nikolayev:

Se equivoca. En su algoritmo, p es sólo una variable redundante. La condición sobre p: p>1-p es equivalente a la condición p>1/2. Dado que p=rmd(1), la condición de selección de dirección puede reescribirse como: si (rnd(1)>1/2) x[i]=1, haciendo sin ningún p. Dentro de la definición inicial, sólo se genera un caso especial, el código es todo pi=1/2 - una "moneda justa".

Para ajustarse a la definición inicial, tu algoritmo debería tomar p[n] como entrada y para cada i=1,...,n la condición de elección direccional quedaría así: si (rnd(1)<p[i]) x[i]=1.

1) Se equivoca. El algoritmo puede ser modificado, simplificado y optimizado. Créeme, puedo reconstruirlo de muchas maneras diferentes. Pero eso no cambia la esencia del asunto. El resultado es un proceso de paseo aleatorio.

2) Esta matriz debe llenarse con el mismornd(1). Y nada habría cambiado en principio, véase el punto 1.

Estás discutiendo por discutir. A mí me lo parece por alguna razón... En mi opinión, por así decirlo...

Haz tu propia versión de SB: te llevará cinco minutos y no tendrás que inventarte nada. Aunque, a juzgar por tus declaraciones, creo que nunca has modelado SB.
 
Unicornis:

Para mejorar la calidad, al principio se generan secuencias (por ejemplo, 1000 piezas), luego según las estadísticas de estas secuencias se eligen las más correctas, y luego para cada paso hay una lectura consecutiva de la secuencia ya preparada. En el juego condicionalmente justo, la secuencia se genera al principio, y luego el jugador obtiene valores (subsiguientes) de esta secuencia, es decir, cualquier reacción de las condiciones de ganancia/pérdida y las acciones del jugador se excluyen cardinalmente.

El juego ya está involucrado aquí...

Haz tu propia versión de SB: te llevará cinco minutos.
 
Олег avtomat:

2) Esta matriz tendría que llenarse con el mismornd(1). Y nada cambiaría en principio, véase el punto 1.

No necesariamente al azar, hay un gran número de variantes posibles con resultados muy diferentes. Por ejemplo, al principio de la matriz la probabilidad es menor que 1/2, y al final es mayor (en la media de la matriz alrededor de 1/2). Se obtiene un patrón de una tendencia bajista que cambia a una tendencia alcista.

 
Aleksey Nikolayev:

No necesariamente al azar, hay un gran número de posibles variaciones con resultados muy diferentes. Por ejemplo, al principio de la matriz la probabilidad es menor que 1/2, y al final es mayor (la media de la matriz es aproximadamente 1/2). Se obtiene un patrón de una tendencia bajista que cambia a una tendencia alcista.

Veo que ya has empezado a trolear...

De este"enorme número de variantes posibles con resultados muy diferentes" hay que decantarse por alguna variante. Me decidí por la opción que demostré.

Puede elegir su variante.

Haz tu propia variante de SB: te llevará cinco minutos y no tendrás que inventar nada. Aunque, a juzgar por tus declaraciones, creo que nunca has modelado SB.

Francamente, estoy harto de esta rumia vacía.

 

Sólo para mantener la conversación, para aquellos que confunden el paseo aleatorio con el ruido blanco o la expectativa con la probabilidad


Razón de la queja: