Modelo de mercado: rendimiento constante - página 14

 
sanyooooook:
más a menudo, menos a menudo, pero ¿qué pasa si no se tiene en cuenta el tiempo?
La determinación utiliza la probabilidad, no hay referencia temporal, hay una libertad total con eso. O, si lo prefiere, lo desconocido :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

Podría estar de acuerdo hasta cierto punto, el mercado no cambiará en una cierta cantidad (digamos puntos) hasta que llegue una cierta cantidad de información

 
sanyooooook:

Podría estar de acuerdo hasta cierto punto, el mercado no cambiará en una cierta cantidad (digamos puntos) hasta que llegue una cierta cantidad de información


Llega gente nueva con ideas nuevas sobre información antigua y la esperanza de ganar dinero con la falacia de las suposiciones de los demás y cambia el mercado :) No han oído nada sobre la teoría de los mercados eficientes :)
 
¿De qué se trata?
 
Avals:

Llegaron nuevas personas con nuevas ideas sobre la información antigua y la esperanza de ganar dinero a partir de la falacia de las suposiciones de otros y cambiaron el mercado :) No han oído nada sobre la teoría de los mercados eficientes :)


¿Entraron y 40 pips después se fueron? ¿Se dio cuenta de la falacia de sus supuestos sobre la novedad de sus ideas (sobre la información antigua) y fue a leer sobre la eficiencia de los mercados?

--

No es viernes.

 
gip:
Moped no ha hecho dickfix, ha aportado un enlace, y es de otro lugar bastante lejano.

De acuerdo. Como uno de los coautores del ciclomotor, te daré un poco de información:

Los métodos de archivo "estándar" (no importa LZ, Huffman, otros más exóticos) trabajan con un flujo de bytes en la entrada.

Un flujo de citas suele codificarse como un flujo de números reales, es decir, en paquetes de unos pocos bytes cada uno.

Mientras se ignore este hecho, la compresión de los archivadores universales populares no puede ni siquiera acercarse a un examen significativo de la cantidad de información de un flujo de citas.

Además, lempel-ziv superará de forma estable a Huffman por tiempos, lo cual es bastante lógico (pero absolutamente sin sentido), porque la entrada contiene patrones "técnicos" fácilmente predecibles, relacionados con la representación de datos (y no con el comportamiento de las citas).

Por otra parte, parece prematuro escribir un archivador especializado para la compresión del doble flujo, ya que la perspectiva de este enfoque es poco clara y vaga.

Entonces, ¿qué cosas significativas se pueden hacer con el mínimo esfuerzo y la máxima razonabilidad de los resultados para avanzar en la investigación?

A mi modo de ver, lo primero es transformar el flujo de citas.

1) al flujo de bytes

2) primeras diferencias

3) logarítmico.

En este caso, quizá esta búsqueda de información sea un poco más informativa.

// Paddon por el juego de palabras.

 
MetaDriver:

Mientras se ignore este hecho, la compresión por parte de los archivadores universales populares no puede ni siquiera acercarse a un estudio significativo del volumen de información en un flujo de citas.

Además, lempel-ziv superará establemente a Huffman por tiempos, lo cual es lógico (pero absolutamente sin sentido), porque entran patrones "técnicos" fácilmente predecibles, relacionados con la representación de los datos (y no con el comportamiento de las comillas).

¿Y qué opina del resultado obtenido por el tópico? Me refiero a la mayor tasa de compresión de las series aleatorias.

¿Puede significar, que el archivador no fue capaz de "desencriptar" la información contenida en la serie de precios, pero tampoco de descartarla?

Cómo creo que - en primer lugar transformar la corriente de la serie de precios

1) al flujo de bytes

2) primeras diferencias

3) logarítmico.

Esto es sólo a la pregunta de a qué aplicar el medidor de información.

Me parece que hay un problema bastante general aquí, y es que son los eventos raros los que llevan la máxima cantidad de información.

Sin embargo, precisamente porque son poco frecuentes, no podemos reconstruir de forma fiable para ellos la función de densidad de probabilidad necesaria para cuantificar la información que contienen.

 
Candid:

¿Qué le parece el resultado obtenido por el tópico? Me refiero a la mayor tasa de compresión de la serie aleatoria.

¿Podría esto significar que el archivero no pudo "descifrar" la información contenida en la serie de precios, pero tampoco pudo descartarla?

No. Me parece más primitivo. Por lo que entendí mirando el tema, los candelabros estaban comprimidos. Al generar una señal aleatoria, también se simularon velas. Obsérvese que se ha utilizado la distribución normal. Ese es el truco (imha). (NR) crea una mayor densidad de probabilidad de velas iguales en amplitud y valor de desplazamiento. Es decir, "menos informatividad" en términos de teoría de la información. De ahí la mayor compresibilidad. El resultado obtenido, por cierto, demuestra que el método es viable a pesar de la primitividad instrumental del planteamiento.

Es sólo a la cuestión de a qué aplicar el medidor de información.

Aquí hay, me parece, un problema bastante general y consiste en que la máxima información la llevan los eventos raros.

Sin embargo, debido a su rareza, no podemos reconstruir de forma fiable para ellos la función de densidad de probabilidad necesaria para cuantificar la información que contienen.

Aquí es donde las garrapatas pueden ser de ayuda. En el sentido de que

1) tienes mucha información de entrada, hay mucho que desplazar y exprimir.

2) el análisis de las garrapatas será mucho más correcto, que "castrado" por las barras.

Y entonces puedes hacer todo tipo de Zigzags de umbral fino. Renko, Kagi y todo tipo de modificaciones.

Y luego está eso. - La rareza del evento es relativa, los muy raros, puede ignorar (cortar), y para el resto de ellos para recoger algunas estadísticas.

--

La impresión general del tema es que es algo confuso. El nivel de la discusión merece una mejora. El tema merece la pena. Un tema significativo.

 

Candid:

¿Podría significar esto que el archivero no logró "descifrar" la información contenida en la serie de precios, pero tampoco la descartó?

En realidad, no debería haber escrito "Sí, no". Es perfectamente posible decirlo. Mi interpretación no la contradice en absoluto, sino que es bastante coherente.

Todo es culpa de las colas gordas otra vez. Imbéciles. Todo es culpa de ellos.

 

MetaDriver:

... colas gruesas. Imbéciles. Son la causa de todo.

No escribas: "Es que no sabes cómo cocinarlos..."

Lo sé.

:)

Razón de la queja: