Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1002

 
Alexander_K2:

Por lo tanto, existe la opinión de que la secuencia de rendimientos (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) es una serie estacionaria.

Un retournee de una vela es (cierre-apertura)/apertura, está claro el carajo que no es el precio neto para poner en NS, el siguiente retournee se predice por los anteriores (con diferente ventana) muy mal, no es suficiente para el spread, pero parece que es todo lo que hay que conseguir

 
Alexander_K2:

En esencia, el valor CLOSE[i]-OPEN[i] no es más que la suma de los incrementos.

Una secuencia de estos valores debería, en el límite, tender a una distribución normal.

Pues bien, existe la opinión de que la secuencia de retornos (CERRAR[i]-ABRIR[i])-(CERRAR[i-1]-ABRIR[i-1]) es una serie estacionaria.

¿Alguien ha probado algo así en la entrada NS y cuáles fueron los resultados?

Close[i] puede ser sustituido por Open[i+1], en Forex es cierto en más del 90% de los casos. O puede ser sólo uno o dos pips de diferencia. Entonces sólo habrá una serie temporal en la fórmula, es más conveniente.

Esta transformación se utiliza en el modelo ARIMA. Y realmente sirve para conseguir la estacionalidad, pero hay muchas más transformaciones, no es la única fórmula que hay.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
El ARIMA ya está obsoleto, en los mercados financieros si da algo, no es más que el interés bancario de un depósito. GARCH es mucho mejor según los artículos, además es ARIMA más varios añadidos.
 
Alexander_K2:

Una secuencia de estos valores debería, en el límite, tender a una distribución normal.

No he visto precios que tiendan a una distribución normal. Siempre he tenido ganancias que se parecían a las de Laplace, con colas de koshi.

 

Ese fue mi razonamiento teórico.

En la práctica, por supuesto, los primeros retornados no tienen Gauss, y nadie ha conseguido nunca conseguirlo, y nunca lo conseguirá, por desgracia...

Sin embargo, yo hablaba de la secuencia (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), es decir, en realidad delos segundos retornos.

Bueno, todavía no he prestado mucha atención a estas segundas vueltas, y debería haberlo hecho.

 

Y Kolmogorov, en general, veo que prestó especial atención a B(k)=M[x(t)*x(t-to)]=M[(CIERRE[i]-Apertura[i])*(CIERRE[i-to]-Apertura[i-to])] y se negó a predecir nada si esta función no era del todo definitiva.

¿Tal vez tenga sentido poner ciertas condiciones al trabajo de la SN?

Por ejemplo, ¿saltar las piezas inestables de BP, explorando, por ejemplo, los segundos rendimientos o B(k)?

 

¡Hola!

Queridos gurús, ¿han creado ya un superbot?

Me gustaría probarlo de verdad.

 
Alexander_K2:

Y Kolmogorov, en general, veo que prestó especial atención a B(k)=M[x(t)*x(t-to)]=M[(CIERRE[i]-Apertura[i])*(CIERRE[i-to]-Apertura[i-to])] y se negó a predecir nada si esta función no era del todo definitiva.

¿Tal vez tenga sentido poner ciertas condiciones al trabajo de la SN?

Por ejemplo, ¿saltar los trozos inestables de BP explorando los segundos rendimientos o B(k), por ejemplo?

Así que hay un límite: (Sigmas al cuadrado).

Determinar este límite es el primero de los problemas que se resuelven en este

problema a resolver en este trabajo.

En cuanto al problema de la interpolación, sólo consideramos el

el caso de evaluar x(/) por las cantidades

-x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... x(t - ha).

Para este caso denotamos por oj (ha) el valor mínimo de la expectativa matemática

expectativa

a2 = MI0-<?)%

donde Q es una forma lineal:

Q = axx {t + i) + atx {t + 2)+ ... +apx {t + n) +

+ a-ix(t - l)-\Na-2%(t - 2)+ ... -\a-nx(t - ha)

con coeficientes reales constantes como.

Al aumentar ha, el valor de a2 (i) no aumenta. Por lo tanto, existe

límite

l im a} (ha) = o? (5)

P~>o

Nuestro segundo problema es determinar un]. La siguiente propuesta

solución de los dos problemas formulados anteriormente se ha informado sin

prueba en mi nota (*) *. Se basa en nociones relacionadas con

a la teoría espectral de los procesos aleatorios estacionarios.

La teoría espectral de los procesos aleatorios estacionarios fue

construido por A. Я. Hinchin para el caso de cambio continuo del argumento temporal t (2 ) .

argumento t (2 ) .

No entiendo, ¿piensas estimar analíticamente la fiabilidad de la predicción ya realizada, o hacer una predicción para empezar? En las primeras páginas se dice que el artículo trata de la estimación de la fiabilidad de una previsión. Las previsiones propiamente dichas se encuentran enA.J. Hinchin.

Y no has copiado cuidadosamente la declaración básica del artículo.

No: B(k)=M[x(t)*x(t-to)]=M[(CIERRE[i]-Apertura[i])*(CIERRE[i-to]-Apertura[i-to])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

Además, creo que es más correcto:

Foro sobre comercio, sistemas de comercio automatizados y estrategias de prueba

Aprendizaje automático en el trading: teoría y práctica (Trading and Beyond)

Dr. Trader, 2018.07.06 02:37

Close[i] puede ser sustituido por Open[i+1], en forex es cierto en más del 90% de los casos. O una diferencia de unos pocos pips. Entonces sólo habrá una serie temporal en la fórmula, es más conveniente.

Esta transformación se utiliza en el modelo ARIMA. Y sí sirve para lograr la estacionariedad, pero ahí hay muchas más transformaciones, no es la única fórmula que hay.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
El ARIMA ya está obsoleto, en los mercados financieros, si acaso, no dará más que el interés bancario de un depósito. GARCH es mucho mejor según los artículos, además es ARIMA más varios añadidos.

PS.

Sí, y gracias por la respuesta a mi pregunta de mi post: https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
Hola, les habla Misha, y como han adivinado estoy haciendo esto desde mi teléfono :-)
Lo sé, creo que el preprocesamiento de datos pasa a primer plano hoy en día. Por supuesto, el algoritmo de optimización es importante en sí mismo, pero una buena muestra de entrenamiento no es lo último. Usted alababa y criticaba el optimizador de Reshetov, pero por cierto hace buenos modelos cuando los datos están bien preprocesados. En cualquier caso, con 10 optimizaciones, al menos la mitad de los modelos funcionarán. Después de todo, no es tan fácil de aplicar en su caso. Y creo que JPrediction siempre será relevante. Lo principal en este caso es preprocesar adecuadamente los datos, y es en este ámbito donde la competencia está ahora en marcha.
 
Como dije, en otro hilo .... Ahora estoy trabajando en ello y ya he implementado al menos dos pasos de preprocesamiento. La primera elimina los predictores basura. El segundo hace que la muestra sea más presentable para la formación y me gustaría centrarme en el segundo punto.
Tras el ejercicio de representatividad, la calidad del aprendizaje aumentó un 15% para el mismo conjunto de datos. El objetivo principal es aumentar el periodo de aprendizaje manteniendo el mismo nivel de calidad del mismo. Ejemplo: Con 25 ejemplos, pude llegar a un 80 por ciento de generalizabilidad al suyo. Al procesar la representatividad en 40 ejemplos pude obtener el 90% de la calidad del modelo. Creo que el mejor modelo es el que se puede entrenar con una muestra más larga manteniendo su calidad de entrenamiento.
 
Gramazeka1:
Hola, les habla Misha, y como han adivinado estoy haciendo esto desde mi teléfono :-)
Lo sé, creo que el preprocesamiento de datos pasa a primer plano hoy en día. Por supuesto, el algoritmo de optimización es importante en sí mismo, pero una buena muestra de entrenamiento no es lo último. Usted alababa y criticaba el optimizador de Reshetov, pero por cierto hace buenos modelos cuando los datos están bien preprocesados. En cualquier caso, con 10 optimizaciones, al menos la mitad de los modelos funcionarán. Después de todo, no es tan fácil de aplicar en su caso. Y creo que JPrediction siempre será relevante. Lo principal en este caso es preprocesar adecuadamente los datos, y es en este ámbito en el que la competencia está ahora en marcha.

¡Hola Misha!

Sí, es hora de reconsiderar todos los esfuerzos de las redes neuronales y sus escasas esperanzas en la propia herramienta. Nada servirá, ni los bosques ni las estepas, si los datos de entrada no están preparados.

Y sí, no hay competencia, hay un problema y hay un atontamiento general.

Si sabes cómo preparar los datos, adelante. La humanidad se lo agradecerá.

Razón de la queja: