¡Nuestra Masha! - página 4

 
Prival >> :

La MA perfecta lo hace. 'Diálogo del autor'. Alexander Smirnov".

ver post ANG3110 06.02.2008 20:48

¿Qué tan perfecto es si se redibuja?

 
Neutron >> :

maximizamos el beneficio "sin conocer" el historial, analizando sólo la última lectura de la cotización y su único valor anterior X[i]-X[i-1] y ya está. Parece que es así.

Es decir, estás creando el sistema más rentable posible. Y el método que está desarrollando utiliza todas las regularidades que se pueden rastrear en el historial disponible.

>> ¡Atrevido!

 
TheXpert писал(а) >>

¿Qué tan perfecto es si se sobredimensiona?

Tomamos una historia y construimos una MA perfecta sobre ella. Esto es lo que hay que procurar. Y buscamos el que no se sobregire y tenga una desviación mínima de esta curva. Dice así

 
Sigo queriendo llegar a Bulashov. La fórmula de la mezcla perfecta era más o menos la misma. Pero terminó siendo un DEMA
 
mql4com писал(а) >>

Es decir, estás creando el sistema más rentable posible. Y el método que está desarrollando utiliza todas las regularidades que se pueden rastrear en la historia disponible.

¡Atrevido!

Bueno, bueno, bueno. ¿Parezco el paciente número seis?

Obviamente, si utilizas este método o cualquier otro para predecir la dinámica de una variable aleatoria integrada (exactamente aleatoria, no cuasi aleatoria), ¡obtendrás cero! Por definición, no se puede superar un proceso aleatorio, es una ley de la naturaleza. Por otra parte, las series temporales (TR), al igual que las series de precios, no son completamente aleatorias, existen regularidades explícitas e implícitas, cuya explotación permite obtener ingresos estadísticos en el mercado Forex. Por lo tanto, necesitamos métodos y herramientas para detectar estos patrones débiles. Uno de estos métodos es la aplicación de medias móviles a las cotizaciones. Este método tiene un área de aplicabilidad bien definida, donde su explotación está justificada y es matemáticamente correcta. En su esencia, todas las medias móviles son una forma de integración de la PA inicial. En el sentido más general, la integración es la predicción del futuro por tendencias, mientras que la diferenciación es la determinación de las tendencias del proceso. ¿Pero qué tendencias exactamente? Si miramos de cerca el paquete de

BP-MA-predicción, no es difícil determinar el requisito de aplicabilidad del método MA, como un coeficiente de correlación positiva entre las lecturas vecinas en la serie de la primera diferencia de BP. ¡Es en este caso, las MAs darán estrategias rentables y nuestra MA dará el mejor beneficio de todos los posibles! Esto es por lo que estamos luchando.

Sin embargo, si analizamos los precios de las BP en función del cumplimiento del requisito anterior, el resultado del análisis será más bien negativo. Realmente, la realidad es que las series de precios en todos los TFs suelen tener un pequeño coeficiente de autocorrelación negativo en las series de la primera diferencia y sólo a veces, en las tendencias, este coeficiente es positivo.

La aplicabilidad del método propuesto y su eficacia sólo pueden estimarse mediante los resultados del experimento.

Vinin escribió >>.
Sigo queriendo llegar a Bulashov. La fórmula de la papilla perfecta era más o menos la misma allí. Pero terminó siendo un DEMA.
No el DEMA, sino el MEMA y su funcional no tenían un término responsable de la maximización de la rentabilidad del TC, sino que tenían un término que minimizaba la segunda derivada. Esto permitió construir una MA muy suave y eso es todo. Y aquí está el artículo de Bulashov:
Archivos adjuntos:
mema_3.zip  279 kb
 
Neutron >> :


En lugar de Mashek, utilizo la interpolación por polinomios de potencia utilizando el método NK
en alguna ventana. Evidentemente, la extrapolación de la curvatura de interpolación
incluso en una pequeña vecindad futura, casi no tiene sentido, pero describir la actual
en el lugar más interesante - en el borde derecho de BP, nos permite describir el estado actual.
Variando el tamaño de la ventana y el grado de curvatura es posible
Por otro lado, es posible tener una visión más general o detallada de lo que está ocurriendo, haciendo hincapié en el proceso actual y sus fases.
proceso y sus fases.


En mi opinión, la única forma de predecir el futuro de BP es analizar
la evolución de los procesos - como, hubo un fuerte proceso descendente, en el estado actual
fue sustituido por un proceso lateral -> es posible un proceso de crecimiento posterior.


Este enfoque, en mi opinión, es especialmente útil para los responsables de las redes, ya que los NS pueden
alimentar algunas características típicas de una curva de interpolación,
por ejemplo, el componente de la tendencia (dirección y magnitud), la desviación de la
componente de tendencia, una forma de curva formalizada, etc. - en general, en cuanto a
de su imaginación - enseñando a la red a identificar la corriente y predecir
predecir los procesos futuros y construir una estrategia comercial sobre esta base.


También puede suavizar el pasado lejano y cercano de diferentes maneras - algo
similar a la EMA. También es posible aplicar un enfoque sintético
- utilizar una media móvil muy suavizada con un
de retraso, y el pasado cercano, donde los mouvings aún no funcionan,
analizarlo mediante la curva de interpolación.

 
Aleku >> :

Este enfoque, en mi opinión, es especialmente útil para los que trabajan en red, porque NS puede
para alimentar algunas características típicas de una curva de interpolación,
por ejemplo, componente de la tendencia (dirección y magnitud), desviación de
componente de tendencia, una forma de curva formalizada, etc. - en general, en cuanto a
de su imaginación - enseñando a la red a identificar la corriente y predecir
predecir los procesos futuros y construir una estrategia comercial sobre esta base.

En mi opinión, este tipo de preprocesamiento de los datos de entrada para la NS es una especie de muleta. Al integrar el PA inicial con muves, en primer lugar nos aclaramos la imagen de los precios (curva suave, tendencias visibles), mientras que el proceso de suavizado en sí no aporta ninguna información adicional a los datos de entrada (no está disponible) y, por tanto, no facilita el trabajo de NS. Desde este punto de vista, los datos especialmente diseccionados deben introducirse en la entrada de la red NS, lo que centra al máximo la atención de la red en el proceso cuasi-estacionario. Un candidato para tal proceso puede ser un coeficiente de correlación negativo en la PDF, que, por cierto, no puede ser aislado por la integración de kotir (suavizado). En este caso se necesitan otros métodos y enfoques. Esto parece prometedor.


También puede suavizar el pasado lejano y cercano de diferentes maneras - algo
similar a la EMA. También es posible aplicar un enfoque sintético
- utilizar una media móvil muy suavizada con un
de retraso, y el pasado cercano, donde los mouvings aún no funcionan,
analizar por curva de interpolación.


Todo esto es complicado y requiere una buena justificación, pero es casi seguro que es una pérdida de esfuerzo y tiempo.

 
Neutron писал(а) >>

... Las series de precios en todas las TFs tienden a tener un pequeño coeficiente de autocorrelación negativo en las series de primera diferencia y sólo a veces, en las tendencias, este coeficiente es positivo.

¿Cómo has calculado el coeficiente de autocorrelación? Conozco la " función de autocorrelación". Pero es una función, no un número.
 

Supongamos que hay alguna muestra de la BP original, por ejemplo, en M1. Construimos una serie de la primera diferencia d1[i]=Open[i]-Open[i-1], entonces el coeficiente de correlación para TF=1m entre muestras vecinas se calcula como; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), donde el índice recorre todos los valores de BP. Para TF=2m hacemos lo mismo, construyendo primero el PA para 2m y encontrando su primera diferencia d2[i] y así sucesivamente hasta el TF deseado. Me limité a TF=1500 minutos (unas 24 horas). Puede surgir la cuestión de cómo construir otro TF a partir de los minutos, por ejemplo para M2, pero aquí todo parece ser transparente. Son estos datos (valor del coeficiente de correlación en RPM para diferentes TFs) los que grafiqué en el post anterior.

 
Neutron писал(а) >>

Supongamos que hay alguna muestra de la BP original, por ejemplo, en M1. Construimos una serie de la primera diferencia d1[i]=Open[i]-Open[i-1], entonces el coeficiente de correlación para TF=1m entre muestras vecinas se calcula como; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), donde el índice recorre todos los valores de BP. Para TF=2m hacemos lo mismo, construyendo primero el PA para 2m y encontrando su primera diferencia d2[i] y así sucesivamente hasta el TF deseado. Me limité a TF=1500 minutos (unas 24 horas). Puede surgir la cuestión de cómo construir otro TF a partir de los minutos, por ejemplo para M2, pero aquí todo parece ser transparente. Exactamente estos datos (valor del coeficiente de correlación en RPM para diferentes TFs) son los que he mostrado en el post anterior en el gráfico.

Incluso mejor...) ¿Qué son estas fórmulas y de dónde se sacan?

вот посмотрите как расчитывается коэффициент кореляции https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

El coeficiente de correlación se calcula entre matrices, no entre recuentos. Por favor, sea preciso en su redacción para que los demás puedan entender lo que está diciendo, afirmando y contando.

Razón de la queja: