Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1609

 
Maxim Dmitrievsky:

se llama apilamiento de modelos. No será lo mismo, pero no necesariamente más eficiente. Lo hice de esta manera, no vi ninguna mejora.

Hay otra forma, se llama meta-aprendizaje. Se entrena el primer modelo para predecir las clases, luego se obtienen los resultados y se introducen en el segundo modelo, sobre los mismos u otros predictores, que permite/niega el comercio del primer modelo. 1 - negociar, 0 - no negociar, en función de la calidad de las predicciones del primer modelo, es decir, una especie de filtro. Reduce fuertemente los errores en los datos de entrenamiento, pero no tanto en los nuevos datos (si el modelo tiene una baja generalizabilidad). Pero la metaformación en sí misma está bien.

Se puede entrenar el primer modelo en algunos datos y el metamodelo en otros datos, sobre los errores del primer modelo. Puede haber diferentes variantes. Yo lo hice de las dos formas, en general hay una mejora, pero es más un retoque, que una forma de conseguir un buen modelo que funcione en la retroalimentación.

Puede buscar en Google "meta learning" de Marcos López De Prado, justo sobre el comercio

Gracias por la información, pero consideré la posibilidad de dividir los predictores en partes como una forma de ahorrar recursos informáticos durante el entrenamiento, simplemente no tengo suficiente tiempo para entrenar, por ejemplo, 10 predictores en el modelo a la vez...

No quiero hacer los predictores más pequeños con PCA u otra cosa, porque necesito elegir primero los predictores importantes, así que estoy pensando en cómo dividir el modelo general en modelos PDP con la mínima pérdida de información

 
mytarmailS:

Gracias por la información, pero estaba considerando dividir los predictores en partes como una forma de ahorrar recursos informáticos durante el entrenamiento, simplemente no puedo permitirme entrenar por ejemplo 10 predictores en un modelo a la vez...

No quiero reducir el tamaño de los predictores con PCA u otra cosa, ya que necesito seleccionar primero los predictores significativos, así que estoy pensando en cómo dividir el modelo general en modelos PDP con la mínima pérdida de información

¿Qué 10 predictores? Elimine los correlativos, vea la importancia de los restantes a través del bosque o de la potenciación y habrá 3-10

 

De todas formas no se puede acertar al 100%, se ha probado, habrá predicciones incorrectas en cualquier caso. Esto se debe a que los modelos de entrenamiento pueden repetirse, pero el resultado no es necesariamente el mismo.

Por ejemplo, esto es lo que parece. Por supuesto, puede que no tenga un enfoque muy bueno para la selección de modelos (datos formalizados), pero me cuesta creer que sea posible hacer predicciones 100% correctas.


 
Maxim Dmitrievsky:

¿Qué 10 predictores? Elimina los correlativos, mira la importancia de los restantes a través del bosque o de la potenciación y te quedas con 3-10

¿y si los predictores son reglas lógicas? :)

 
Estoy de acuerdo en que la formación en la historia profunda no es muy eficaz, a veces el sistema empieza a hacer el tonto en la salida.
 
mytarmailS:

¿Y si los predictores son reglas lógicas? :)

A quién le importa, no existen tantos predictores, no es un modelo, es una basura

tal vez en algún lugar del motor de búsqueda o análisis de imágenes, pero no para las citas con seguridad

 
Farkhat Guzairov:

¿De qué forma se alimentan los niveles de la red neuronal?

 
Maxim Dmitrievsky:

A quién le importa, no existen tantos predictores, no es un modelo, es una basura

¿Por qué?

¿Cuanto más "rico" es el modelo, peor es?

Especialmente si no se sabe qué combinación de predictores es la mejor, ¿no sería correcto introducir todas las opciones posibles en el modelo y luego observar la importancia de los predictores en términos del modelo
 
mytarmailS:

¿De qué forma se alimentan los niveles de la red neuronal?

No, no, no, intenté usar uno de dos niveles, pero no obtuve el resultado esperado, como escribí arriba, tal vez la selección no óptima de los datos (en algunos casos contradictorios) no permitió ver ningún indicio de un resultado lógicamente correcto. Hasta ahora, sólo las neuronas habituales en capas. Antes de construir una red multicapa, hay que saber si cada capa dará la solución adecuada de forma aislada.

 
Farkhat Guzairov:

No, no, no, intenté usar el binivel, pero no obtuve el resultado esperado, como escribí arriba, tal vez la selección no óptima de los datos (en algunos casos contradictorios) no permitió ver ningún indicio de resultado lógicamente correcto. Hasta ahora sólo las habituales neuronas en capas. Antes de construir redes multicapa, hay que saber si cada capa ofrece la solución adecuada por sí misma.

Lo siento, me refería a los niveles de soporte y resistencia

Razón de la queja: