Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2621

 
mytarmailS #:
Para PythonPonyGE2 hay un paquete, pero lo hago en Pke, así que no puedo decir qué es y cómo
Me equivoqué con los nombres.
La evolución gramatical o la regresión simbólica, ambas funcionarán
 
Valeriy Yastremskiy #:
Una secuencia de eventos/reglas es efectiva, pero cada regla tiene dimensionalidad y una secuencia larga tiene maldiciones.
Lo bueno de este enfoque es que tú tienes el control...
Establezca una condición para que una regla se repita al menos 200 veces, por ejemplo, y no tendrá la maldición de la dimensionalidad.
 
mytarmailS #:
¿Qué he hecho con los nombres a lo tonto?
Tanto la evolución gramatical como la regresión simbólica funcionan.
Regresión simbólica, sí.
 
La regresión simbólica en la compensación entre sesgo y varianza parece fuertemente sesgada hacia el aumento de la varianza. Esto no es ciertamente una razón para abandonarlo, pero podría haber problemas debido a la proximidad del precio al SB.
 
Aleksey Nikolayev #:
La regresión simbólica en un compromiso entre sesgo y varianza parece fuertemente sesgada hacia el aumento de la varianza. Desde luego, esto no es una razón para abandonarlo, pero podría haber problemas por la proximidad del precio al SB.

Es sólo un marco sobre el que se pueden crear reglas, no hay nada en mi propuesta sobre el precio, la aproximación, la regresión...

 
mytarmailS #:

Por muchos modelos que haya, si miran las últimas 10 velas, no sirve para nada, aunque sea GPT-3 con todas las de la ley.

Tienes un generador, no tienes energía...

Mis 5 centavos. - Durante el entrenamiento, el peso de las neuronas que no se repiten (barras) se difumina. El peso influyente se queda con las neuronas más frecuentemente confirmadas. Así, con un número fijo de barras, sólo tienen peso las más significativas. Una especie de figura.

 
Dmytryi Voitukhov #:

Mis 5 centavos. - Durante el aprendizaje, el peso de las neuronas no repetitivas (barras) se difumina. El peso influyente se queda con las neuronas más frecuentemente confirmadas. Así, con un número fijo de barras, sólo tienen peso las más significativas. Una especie de figura.

3 de la mañana, ¿qué estás haciendo Dimitri?)
 
Dmytryi Voitukhov #:

Mis 5 centavos. - Durante el aprendizaje, el peso de las neuronas no repetitivas (barras) se difumina. El peso influyente se queda con las neuronas más frecuentemente confirmadas. Así, con un número fijo de barras, sólo tienen peso las más significativas. Una especie de figura.

De manera similar en un árbol. 5-10 divisiones superiores de, por ejemplo, 100 fintas/barras, elegirán algunas significativas y no utilizarán el resto. Si divide el árbol hasta el final, las últimas divisiones (y las características/barras usadas) cambiarán muy ligeramente el resultado global. Es decir, el resultado es más o menos el mismo que en NS, sólo que cuenta más rápido.
 
¿Qué pasaría si una persona intercambiara y diera a ML lo que es bueno y lo que es malo?
 
BillionerClub #:
¿Qué pasa si uno intercambia y da a ML lo que es bueno y lo que es malo?

Es una buena idea, sólo que creo que es importante aquí:

- Para acumular un montón de estadísticas.

- Para que una persona comercie con una cosa (un sistema).

- Que la persona sea objetiva y opere sistemáticamente.


En este caso, creo que se obtendrá un buen margen de beneficio y, por lo tanto, es posible obtener un beneficio normal.

Razón de la queja: