Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1737

 
Maxim Dmitrievsky:

k-means, el más sencillo

Bueno, es lo mismo.

Prueba dbscan, creo que es mejor.

Ves, incluso puedo ver lo que estás agrupando)) Estoy loco por mí mismo).

 
Alexander_K2:

En algún lugar mostré (olvidé dónde, porque no he estado operando durante más de un mes) que la distribución de probabilidad de los incrementos del mercado es el producto de las distribuciones gaussiana y exponencial de CB (o en general - Erlangian).

La distribución Erlang es responsable de los intervalos de tiempo entre las cotizaciones de los ticks y el generador de dichos números tiene el siguiente aspecto


Aquí Lambda es la intensidad del flujo de eventos (comillas).

Si Lambda=const, el proceso es estacionario, pero la intensidad del flujo de mercado es diferente en diferentes puntos del tiempo, es decir, Lambda=f(t) que determina el proceso no estacionario en general.

Por lo tanto, para distinguir un proceso estacionario, es necesario considerar secciones separadas de BP con la misma densidad de flujo como un todo.

Por lo tanto, los intentos de dividir la PA en horas dentro de un día, y luego "pegar" estas horas - claramente tienen derecho a la vida.

P.D.

Según mis cálculos, la misma densidad de flujo se observa en las horas siguientes dentro de un día:

0

1, 23

2, 5, 22

3, 4, 8, 21

6, 7

9, 12, 19

10, 11, 15, 18

13, 14

16

17

20

Bueno, esto es sólo para información...

 
mytarmailS:

bueno, es lo mismo

Prueba con dbscan, creo que es mejor.

Ves, incluso puedo ver lo que estás agrupando).

¿Por qué te asustas? Lo escribí al principio

 
Maxim Dmitrievsky:

¿Por qué te asustas? Lo escribí al principio.

¿Dónde? No lo he visto.

 
mytarmailS:

¿Dónde? No lo he visto.

¿se pueden extraer las matrices con los centroides para utilizarlas por separado en otro programa con nuevos datos?

¿Tal vez R tenga eso? Compruébalo.

 
Maxim Dmitrievsky:

¿se pueden extraer las matrices con los centroides para utilizarlas por separado en otro programa con nuevos datos?

¿Tal vez R tenga esa función? Compruébalo.

si lo he entendido bien, sí, puedo

 
mytarmailS:

Si he entendido bien, sí, puedo.

enseñar

 
Maxim Dmitrievsky:

enseñar

volver a escribir específicamente lo que quiere hacer sin codificar innecesariamente


fake.dt <- matrix(rnorm(100),ncol = 5)
kn <- kmeans(fake.dt,centers = 3)
kn$centers
 kn$centers
       [,1]        [,2]        [,3]        [,4]       [,5]
1 0.1491919 -0.82943057  1.00194753 -0.78824900  0.7330618
2 0.4543194 -0.01318233 -2.36800973  0.05477085  0.2706286
3 0.1478300  0.34991845 -0.04671528  0.33735489 -0.6789331
tres centroides de tres clusters
 
mytarmailS:

escriba de nuevo exactamente lo que quiere hacer para no codificar innecesariamente

después del modelo de ajuste debe haber una matriz o algo así, dependiendo del algoritmo

que puede utilizarse para calcular las predicciones sobre los nuevos datos... y sobre los datos antiguos...

para transferirlo al metaque y leerlo en el probador

 
Entonces, ¿qué hago con él? Todavía no soy muy bueno en la agrupación.
Razón de la queja: