Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2962

 
Maxim Dmitrievsky #:
Me doy cuenta de que es frustrante cuando has hecho algo y te dicen que no tenía sentido :)
Enséñame algunos recortes entonces al menos, lo que hay en el FFFtit.

¿He presumido alguna vez de los recortes?

Estoy diciendo que no hay limitaciones en el entrenamiento a través de FF, pero hay limitaciones en el entrenamiento con targeting....

 
mytarmailS #:

¿He presumido alguna vez de los recortes?

Lo que digo es que no hay limitaciones para entrenar con FF, pero si las hay para apuntar.

Sólo intento ser práctico, para hacer un grial, por ejemplo.
 
mytarmailS #:

¿He presumido alguna vez de los recortes?

Estoy diciendo que no hay restricciones en la formación a través de la FF, pero hay restricciones en la formación con el objetivo.

Tú eres el que empezó a discutir conmigo y Fomenko se dio cuenta).

¿Has cambiado de opinión?

 
Maxim Dmitrievsky #:
Sólo intento avanzar en una dirección práctica, para hacer un grial, por ejemplo.

Sólo tienes que ver el concepto de FF desde otro ángulo. minimizar el error también es FF.

De hecho, la elección de FF no es menos importante que la elección de los datos de entrenamiento. El FF debe tener en cuenta lo que el modelo debe hacer y lo que no debe hacer, es decir, maximizar las acciones de CT necesarias y minimizar las acciones de CT innecesarias.

 
Andrey Dik #:

Fuiste el primero en discutir conmigo, y Fomenko se dio cuenta...)

¿Has cambiado de opinión?

¿Así que discutía contigo que los FF no son mejores que los blancos?

¿De dónde ha salido eso?

Me huele a mierda.

 
mytarmailS #:

¿Así que te estoy discutiendo que los FF no son mejores que los blancos?

¿Dónde fue eso?

Me huele a mierda.

Al principio dije que todo aprendizaje consiste en maximizar la FF.

tú y Fomenko argumentasteis que tal enfoque llevaría al sobreentrenamiento - al mismo tiempo, yo dije que la FF no está bien diseñada si se produce sobreentrenamiento.

No sé a qué te refieres).

Veo que has abandonado la costumbre de "pinchar" a desconocidos, eso ya es bueno.

 
Andrey Dik #:

Al principio dije que cualquier aprendizaje es maximizar FF.

Fomenko y tú argumentasteis que un enfoque así conduciría al sobreentrenamiento; al mismo tiempo, yo dije que la FF no está bien diseñada si se produce sobreentrenamiento.

No sé qué estás percibiendo)).

Veo que has abandonado la costumbre de "pinchar" a desconocidos, eso ya es bueno.

Estoy seguro de que entonces hace mucho tiempo, la conversación era un poco diferente, y ahora en general bastante diferente y diferente ....


Sí, después de Nochevieja, he decidido dirigirme a todo el mundo como "tú".

 
Andrey Dik #:

Sólo tienes que ver el concepto de FF desde un ángulo diferente. minimizar el error también es FF.

De hecho, la elección del FF no es menos importante que la elección de los datos de entrenamiento. El FF debe tener en cuenta lo que el modelo debe hacer y lo que no debe hacer, es decir, maximizar las acciones de CT necesarias y minimizar las acciones de CT innecesarias.

La única opción que veo es optimizarlo fuera del traine, en el test, y entrenar el MO en el traine. Esto todavía tiene algún sentido en términos de sacar algo común de diferentes períodos históricos
 
Maxim Dmitrievsky #:
La única opción que veo es optimizarlo fuera del tren, en la prueba, y entrenar el modus operandi en el tren. Eso todavía tiene algún sentido en términos de sacar algo común de diferentes períodos históricos

Hay mucho margen para la imaginación a la hora de utilizar FF, es una pena que no exista una única receta correcta para la preparación de FF, aunque sí algunas recomendaciones.

Por ejemplo, optimizar en el equilibrio. El TS mostró un 90% de beneficio en una operación, y el resto de las cien operaciones son aproximadamente cero. ¿es esto un buen FF? tal vez sea bueno, pero no para esta estrategia. y tal vez la estrategia sea tan mala ya que hay tales variantes de resultados en la optimización.

Por lo tanto, el FF debe tener en cuenta todo lo que se requiere del modelo y el problema se reduce a maximizar el óptimo global. y otra conclusión se deduce - el modelo y el FF no pueden ser por sí mismos, un buen modelo puede ser estropeado por un FF inadecuado y viceversa también es cierto. aunque no tiene sentido hablar de FF por separado del modelo en general.

 
Andrey Dik #:

lo que es curioso? por lo que se dijo hace un par de meses en este hilo en los diálogos con mi participación)) aquí muchos argumentaron que max/min ff no debe ser de ninguna manera))))

como se fija el ff para que el barco navegue....

Sigues sin entenderlo: no se trata en absoluto de optimizar, es una herramienta para crear un profesor para aprender.

Sólo hay unos pocos problemas en MOE y el primero es un buen profesor.

Y la calidad del profesor NO está determinada por la calidad del FF y no está determinada por la calidad de la optimización - antes hablábamos de óptimo local/global. En el ejemplo no nos molestamos y tomamos el primer algoritmo y lo usamos de frente, lo cual es absolutamente correcto.

La calidad del maestro viene determinada por la capacidad de seleccionar predictores que no pierdan su poder predictivo en el futuro, pero a la hora de determinar esta propiedad del maestro no se utiliza FF en absoluto.

Razón de la queja: