Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2206

 
Maxim Dmitrievsky:

Tengo bots corriendo en tiempo real. ¿Quieres que los comerciantes de mamíferos arrogantes salten aquí de nuevo? Es como la estimación de la densidad, es la misma cosa (gmm y autoencoder es la misma cosa, por cita médica). Es que el codificador se puede arrancar de cualquier cosa, incluidas las capas de recurrencia, es decir, es un modelo más avanzado. Si fantaseas, puedes establecer analogías con la esencia, sí

alerta de spoiler. Lo descubrí más tarde cuando intenté encontrar la razón por la que funciona así. Y al principio se me ocurrió a mí :)

¿No hay paquetes de aprendizaje semisupervisado ya preparados ?

Allí, todo debería estar listo para usar

 
mytarmailS:

Mira, ¿no hay paquetes de aprendizaje semi-supervisado ya hechos ?

se supone que hay uno por ahí.

lo hay. Pero no todo lo que se cocina es siempre comestible

 
Maxim Dmitrievsky:

comido. Pero no todo lo que se cocina es siempre comestible.

¿Lo has probado?

Al fin y al cabo, hacen lo mismo que tú, pero en los autómatas + puedes elegir diferentes enfoques, no sólo por las distribuciones para modelar los datos

 
mytarmailS:

¿Lo has probado?

Al fin y al cabo, hacen lo mismo que tú, sólo que en automático + puedes elegir diferentes enfoques, no sólo en distribuciones para modelar los datos

Estoy en camino... o en proceso.

Piensa que escribo artículos para autodescubrirme, no para presumir. Mientras escribes, lo descubrirás por ti mismo.

 
Maxim Dmitrievsky:

Estoy en camino... o en proceso.

¿Por qué crees que escribo artículos? Para descubrirlo por mí mismo, no para presumir. Mientras escribas, te darás cuenta de que

Estoy tratando de explicar a mi médico lo que estoy haciendo, y el efecto es positivo, puede que se contagie. El hecho de que el altavoz esté desafinado es pura basura))))

 
Valeriy Yastremskiy:

Es un hecho, hasta que no se lo explicas a otra persona, tampoco lo entiendes, incluso el médico de mi amigo intenta explicarle lo que hago, y sinceramente, tiene un efecto positivo, tú mismo lo entiendes. Y el hecho de que la persona con la que hablas no tenga ni idea es toda una mierda -))))

es cierto ))

 
Maxim Dmitrievsky:

¿he entendido bien el artículo?

1) se toma un pequeño trozo de datos reales, se marcan las etiquetas

2) Entrena un modelo semi...

3) probar el modelo semi... en una gran franja de datos reales

4) y así sucesivamente en un círculo hasta encontrar un buen modelo semi... que responda adecuadamente aun gran segmento de datos reales

 
mytarmailS:

¿he entendido bien el artículo?

1) se toma un pequeño trozo de datos reales, se marcan las etiquetas

2) se entrena el modelo semi...

3) se prueba el modelo semi... en una parcela más grande de datos reales

4) y así sucesivamente en un círculo hasta que un buen modelo semi. responda adecuadamente a un gran segmento de datos reales

Luego vuelvo a mirar la zona de referencia y compruebo el número de modelos buenos en todas las pasadas. Si hay muchos, eso es una ventaja.

 
Maxim Dmitrievsky:

Luego también miro la sección de control, y veo la cantidad de buenos modelos en todos los pasillos. Si hay muchos, es una ventaja.

¡Escucha! No creo que todo sea culpa de los modelos semi..., es un problema de mal etiquetado

nuestro "marcado de supervisión" es demasiado inadecuado para el mercado, sólo lo hace un poco más adecuado y ya está...

Y si hace un marcado adecuado, puede obtener resultados aún mejores...


Lo que quiero decir es que no hay que entrenar como un problema de clasificación, sino como un problema de optimización... Enseñar el modelo como una búsqueda del mínimo/máximo

de una función, por ejemplo, maximización del beneficio + comisión, que sería el leibeling más adecuado...

Piensa en ello.

 
mytarmailS:

¡Escucha! Me parece que no se trata del mérito de los modelos semi... sino del problema del mal etiquetado

nuestro "marcado manual" es demasiado inadecuado para el mercado, sólo lo hace un poco más adecuado y ya está...

Y si se hace un marcado adecuado, se pueden obtener resultados aún mejores...


Lo que quiero decir es que no hay que entrenar como un problema de clasificación, sino como un problema de optimización... Enseñar el modelo como una búsqueda del mínimo/máximo

de una función, por ejemplo, maximización del beneficio + comisión, que sería el leibeling más adecuado...

Piensa en ello...

Eso es lo que dice, hacer una partición adecuada es caro y generalmente desconocido... por lo que el aprendizaje semi-supervisado puede funcionar mejor en muchos casos

se ha probado en los SEAL y en muchas otras cosas, ha demostrado que funciona bien. El mismo artículo de dipmind...

Razón de la queja: